![]() |
Fuente de la imagen: Cuidada redacción (M. Velasco, 2014) |
Resumen: La Inteligencia Artificial Generativa (IAG) representa una tecnología emergente que ha reconfigurado la creación, el consumo y la distribución de contenido en diversos sectores, incluidos el periodismo, los blogs, las redes sociales virtuales y la propia investigación científica. Basada en algoritmos avanzados y redes neuronales, la IAG produce contenido original como texto, imágenes, audio y video a partir de datos entrenados y las indicaciones del usuario. En el periodismo y la blogosfera, ha mejorado la eficiencia en la producción de contenido, la recopilación de información y la personalización de la difusión. En la investigación científica, su potencial abarca desde la formulación de hipótesis y el diseño experimental hasta la automatización del análisis de datos y la comunicación de resultados. Pero su integración plantea retos éticos significativos relacionados con la supervisión humana, la precisión, el sesgo, la transparencia y la originalidad. Este artículo explora las aplicaciones actuales y aspiracionales de la IAG, los retos inherentes a su implementación y las estrategias para fomentar un uso responsable y ético, subrayando la necesidad de directrices claras, capacitación y una constante supervisión humana para preservar la integridad profesional y la confianza pública.
Palabras Clave: Inteligencia Artificial Generativa, periodismo, investigación científica, ética, desafíos, aplicaciones, transparencia, sesgo, credibilidad, supervisión humana.
Abstract: Generative Artificial Intelligence (GAI) represents an emerging technology that has reshaped the creation, consumption, and distribution of content in various sectors, including journalism, blogs, virtual social networks, and scientific research itself. Based on advanced algorithms and neural networks, GAI produces original content such as text, images, audio, and video from trained data and user input. In journalism and the blogosphere, it has improved the efficiency of content production, information gathering, and personalized dissemination. In scientific research, its potential ranges from hypothesis formulation and experimental design to the automation of data analysis and communication of results. However, its integration poses significant ethical challenges related to human oversight, accuracy, bias, transparency, and originality. This article explores current and aspirational applications of GAI, the challenges inherent in its implementation, and key strategies for fostering responsible and ethical use, highlighting the need for clear guidelines, training, and ongoing human oversight to preserve professional integrity and public trust.
Keywords: Generative Artificial Intelligence, journalism, scientific research, ethics, challenges, applications, transparency, bias, credibility, human oversight.
1. Introducción
La incorporación de herramientas como ChatGPT por OpenAI a finales de 2022, ha catapultado a la Inteligencia Artificial Generativa (IAG) al centro de la atención pública y de industrias clave como la mediática y la académica (Diakopoulos et al., 2024). La IAG se define como un tipo de tecnología de inteligencia artificial capaz de crear contenido nuevo y original, incluyendo texto, imágenes, audio, video y código, a partir de datos con los que ha sido entrenada y siguiendo las indicaciones proporcionadas por los usuarios (Diakopoulos et al., 2024; Shi & Sun, 2024; Vega-Figueroa, 2023). Esta capacidad de generar contenido ha provocado una profunda transformación en la manera en que se produce y consume la información, así como en los métodos de trabajo y los procesos de investigación (Diakopoulos et al., 2024; Shi & Sun, 2024).
Desde su surgimiento, grandes compañías tecnológicas han competido con sus propios modelos de IAG, como Gemini de Google, Claude de Anthropic y Copilot de Microsoft, además de ofertas de código abierto como LLaMA de Meta (Diakopoulos et al., 2024). Aunque las versiones iniciales de esta tecnología existían desde 2018, su madurez a finales de 2022 permitió su integración en diversos productos, abriendo oportunidades para la productividad y nuevas experiencias, pero también generando serias preocupaciones sobre la precisión, la procedencia de la información y el aumento del potencial de desinformación (Diakopoulos et al., 2024).
El presente artículo explora en detalle las aplicaciones de la IAG tanto en el ámbito periodístico como en la investigación científica, delineando sus ventajas. Posteriormente, se abordan los significativos desafíos éticos y prácticos que acompañan a esta tecnología. Finalmente, se proponen estrategias y directrices para un uso responsable que permitan aprovechar los beneficios de la IAG mientras se salvaguardan los principios de la integridad y la credibilidad.
2. Aplicaciones de la IA Generativa
La IAG ha demostrado ser una herramienta versátil con aplicaciones disruptivas en múltiples dominios, especialmente en el periodismo y la investigación científica.
2.1. Aplicaciones en el Periodismo y la Blogosfera
En el periodismo, la IAG se ha integrado en diversas fases del trabajo informativo para aumentar la eficiencia y expandir las capacidades (Shi & Sun, 2024). Entre sus usos actuales más predominantes se encuentran (Diakopoulos et al., 2024):
• Producción de Contenido Textual: La IAG es ampliamente utilizada para la generación de titulares, publicaciones para redes sociales, boletines, borradores de noticias, resúmenes de artículos y la reescritura de contenido para diferentes formatos o para reducir la jerga (Diakopoulos et al., 2024). Por ejemplo, el periódico sueco Aftonbladet ha observado que los informes de noticias complementados con viñetas generadas por IA pueden aumentar el compromiso general de los lectores, especialmente entre los jóvenes (Shi & Sun, 2024).
• Producción de Contenido Multimedia: Incluye la creación de ilustraciones, videos, audio (como la conversión de texto a voz) y la edición de imágenes (Diakopoulos et al., 2024; Shi & Sun, 2024). Herramientas como ReelFramer pueden convertir formatos de texto tradicionales en atractivos videos cortos (Shi & Sun, 2024).
• Recopilación y Análisis de Información (Information Gathering & Sensemaking): La IAG apoya en el descubrimiento de noticias, la investigación, la ideación, la curación y la automatización de pasos de investigación (Diakopoulos et al., 2024; Shi & Sun, 2024). Puede analizar grandes volúmenes de datos para identificar patrones y tendencias, e incluso pronosticar eventos complejos (Shi & Sun, 2024). Por ejemplo, Reuters News Tracer utiliza algoritmos de aprendizaje automático para encontrar noticias de última hora en redes sociales y calificar su relevancia y veracidad (Shi & Sun, 2024).
• Usos Empresariales: La IAG es empleada para la creación de presentaciones, redacción de correos electrónicos de marketing y contenido para optimización de motores de búsqueda (SEO) (Diakopoulos et al., 2024).
• Personalización y Difusión: La IAG puede analizar los patrones de comportamiento de los usuarios para personalizar recomendaciones de contenido y adaptar resúmenes o titulares (Shi & Sun, 2024). Ejemplos notables incluyen Adelaide de Forbes, un motor de búsqueda que proporciona respuestas concisas y noticias relacionadas, y el chatbot de noticias Charlie de OneSub, que actúa como un periodista personal, evitando contenido sensacionalista para reducir el estrés del usuario (Shi & Sun, 2024).
La integración de la IAG en las organizaciones de noticias se manifiesta de tres formas principales: como herramientas de IAG (ej. ChatGPT para periodistas individuales), plataformas de IAG (ej. The New York Times con A VALENTINE, FROM A.I. TO YOU) y sistemas de IAG (ej. BloombergGPT, que integra los valores editoriales de la organización) (Shi & Sun, 2024). Estas aproximaciones facilitan desde la automatización de tareas básicas hasta la provisión de servicios personalizados, marcando una evolución hacia una producción de noticias más automatizada (Shi & Sun, 2024).
2.2. Aplicaciones en la Investigación Científica
En la investigación científica, la IAG ofrece un potencial revolucionario en todas las fases del proceso investigativo, desde la planificación hasta la comunicación de resultados (Vega-Figueroa, 2023; AlSamhori & Alnaimat, 2024).
• Planificación y Diseño Metodológico: La IAG puede generar hipótesis o preguntas de investigación al analizar grandes cantidades de datos e identificar patrones o tendencias que los investigadores humanos podrían haber pasado por alto (Vega-Figueroa, 2023). También ayuda a diseñar experimentos más eficientes y efectivos, identificando variables importantes y seleccionando métodos de análisis (Vega-Figueroa, 2023). Además, es capaz de generar datos sintéticos útiles para entrenar modelos de aprendizaje automático o realizar simulaciones (Vega-Figueroa, 2023).
• Trabajo de Campo y Recopilación de Datos: La IAG puede automatizar tareas como la generación de cuestionarios personalizados y la transcripción automática y precisa de entrevistas, liberando tiempo para el análisis (Vega-Figueroa, 2023). También facilita el análisis automático de datos para identificar patrones y tendencias (Vega-Figueroa, 2023). La generación de datos sintéticos es necesario para crear conjuntos de datos más grandes y diversos, o para obtener datos de entornos difíciles (Vega-Figueroa, 2023). Asimismo, puede crear nuevas herramientas como chatbots para entrevistas automatizadas o entornos de realidad virtual para la recolección de datos (Vega-Figueroa, 2023).
• Análisis y Elaboración de Informes: La IAG puede automatizar la generación de tablas y gráficos, el análisis de datos y la producción automática de informes de investigación (Vega-Figueroa, 2023). Permite la creación de visualizaciones complejas como animaciones y modelos 3D, y facilita la elaboración de nuevos formatos de informes como interactivos, personalizados y multimodales (Vega-Figueroa, 2023).
• Comunicación de Resultados: La IAG puede generar formatos de comunicación más atractivos y accesibles, como videos explicativos, animaciones e infografías, para captar la atención del público (Vega-Figueroa, 2023). También puede producir formatos de texto simplificados o en diferentes idiomas para llegar a una audiencia más amplia, incluyendo personas con discapacidades visuales o auditivas (Vega-Figueroa, 2023).
• Usos Generalmente Aceptados: Además de lo anterior, la IAG es ampliamente utilizada en la investigación para la revisión de lenguaje y gramática (ej. Grammarly), el análisis e interpretación de grandes conjuntos de datos, la automatización de revisiones bibliográficas (ej. Iris.ai y Scite) y la detección de plagio (ej. Turnitin), lo que mejora la calidad y originalidad de las publicaciones científicas (AlSamhori & Alnaimat, 2024).
3. Retos Éticos y Consideraciones para un Uso Responsable
A pesar de los considerables beneficios, la integración de la IAG en el periodismo y la investigación científica presenta importantes desafíos éticos que requieren una atención cuidadosa (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024).
3.1. Preocupaciones Éticas Clave
Las preocupaciones más prominentes en ambos campos incluyen (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024):
• Falta de Supervisión Humana: Existe la preocupación de que la IAG se utilice sin una revisión adecuada, lo que subraya la necesidad de que editores o investigadores verifiquen independientemente la información generada (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024).
• Inexactitud y Sesgo (Bias): Los modelos de IAG pueden producir información incorrecta o "alucinaciones" (contenido plausible pero falso) y amplificar sesgos presentes en los datos de entrenamiento (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024). Esto puede llevar a la desinformación y a la disminución de la credibilidad (Shi & Sun, 2024). Los sesgos pueden ser raciales, de género o culturales, ya que los modelos tienden a perpetuar estereotipos presentes en los datos masivos con los que son entrenados (Shi & Sun, 2024).
• Falta de Transparencia: La ausencia de transparencia sobre el uso de la IAG en la producción de contenido es una preocupación, ya que los usuarios podrían no saber cuándo se ha empleado la IA (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024). Es importante declarar cualquier uso de IA en la escritura y la investigación para mantener la integridad académica (AlSamhori & Alnaimat, 2024).
• Plagio y Originalidad: La facilidad con la que la IAG puede generar contenido similar al humano plantea interrogantes sobre la autoría y la autenticidad, amenazando la integridad académica y la propiedad intelectual (AlSamhori & Alnaimat, 2024; Shi & Sun, 2024). Ya se han producido demandas por el uso no autorizado de contenido para entrenar modelos de IA (Shi & Sun, 2024).
• Reducción de la Calidad y Desvalorización del Trabajo Humano: Algunos temen que el exceso de contenido generado por IA devalúe el trabajo periodístico y de investigación, o que una dependencia excesiva de la IA disminuya habilidades humanas esenciales como el pensamiento crítico, la intuición y la creatividad (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024).
• Privacidad y Protección de Datos: La recopilación de datos personales para el entrenamiento de modelos de IA y el uso de contenido con derechos de autor sin compensación son preocupaciones legales importantes. Por ejemplo, se han presentado demandas contra ChatGPT por la recopilación y revelación de información personal sin consentimiento (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024).
3.2. Estrategias para un Uso Responsable
Para abordar estos desafíos, se enfatiza la necesidad de directrices claras y concretas, capacitación y supervisión humana (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024).
• Directrices y Políticas Claras: Las organizaciones deben desarrollar políticas de uso responsable que promuevan la supervisión humana, la verificación de la producción y la alineación con los valores éticos (Diakopoulos et al., 2024; Shi & Sun, 2024). Estas directrices deben ser dinámicas, revisarse regularmente y ofrecer especificidad sobre los casos de uso permitidos o prohibidos (Diakopoulos et al., 2024).
• Supervisión Humana Continua: La IAG debe complementar el juicio humano, no reemplazarlo (AlSamhori & Alnaimat, 2024). Los editores, gerentes y ejecutivos son vistos como los principales responsables de garantizar el uso ético y efectivo de la IAG (Diakopoulos et al., 2024). Los periodistas, por su parte, deben centrarse en verificar la credibilidad del contenido generado por IA (Shi & Sun, 2024).
• Transparencia y Divulgación: Es importante declarar explícitamente el uso de IAG en la redacción y la investigación. Esto fomenta la confianza y la responsabilidad, permitiendo a los lectores y revisores comprender el papel de la IA en la creación del contenido (AlSamhori & Alnaimat, 2024).
• Formación y Alfabetización en IA: Se requiere una inversión significativa en programas de capacitación para personal, estudiantes e investigadores sobre las mejores prácticas y los riesgos del uso de la IAG (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024). Esto incluye enseñar sobre privacidad de datos, derechos de propiedad intelectual y ética de la IA (AlSamhori & Alnaimat, 2024). La alfabetización mediática en la audiencia también es necesario para que puedan discernir entre información veraz y falsa generada por estos sistemas (Shi & Sun, 2024).
• Bans Específicos: Se ha sugerido prohibir el uso de IAG para generar piezas de contenido completas, preguntas de entrevistas o replicar estilos de artistas, debido a preocupaciones sobre la fiabilidad, la autenticidad y la naturaleza subjetiva de estas tareas (Diakopoulos et al., 2024).
• Diseño de Interfaces para la Supervisión: Existe una oportunidad para diseñar nuevas interfaces que soporten el trabajo periodístico con IAG, facilitando la verificación eficiente y la edición de los resultados para asegurar la calidad de la información y su verificabilidad (Diakopoulos et al., 2024).
En síntesis, la IAG ofrece grandes oportunidades para la eficiencia y la innovación, pero su implementación exitosa requiere un enfoque ético proactivo, con inversiones en políticas, prácticas, investigación, diseño de interfaces y programas de capacitación para garantizar que la tecnología se alinee con los principios de responsabilidad y confianza (Diakopoulos et al., 2024).
4. Conclusiones
La Inteligencia Artificial Generativa (IAG) ha irrumpido como una fuerza transformadora en el periodismo y la investigación científica, redefiniendo las estructuras de trabajo y las expectativas de creación de contenido. Su capacidad para generar texto, imágenes, audio y video de manera autónoma ha permitido mejoras significativas en la eficiencia y la productividad, liberando a los profesionales de tareas repetitivas y permitiéndoles concentrarse en labores de mayor valor añadido como el análisis crítico y la verificación (Shi & Sun, 2024; Vega-Figueroa, 2023). En el periodismo, ha optimizado desde la recopilación de información hasta la personalización de la difusión de noticias (Diakopoulos et al., 2024). En la investigación, ha revolucionado la planificación, la recolección de datos, el análisis y la comunicación de hallazgos científicos (Vega-Figueroa, 2023).
No obstante, esta evolución tecnológica no está exenta de desafíos éticos profundos. Las preocupaciones sobre la falta de supervisión humana, la inexactitud, el sesgo algorítmico, la opacidad de los procesos ("caja negra"), la autoría, el plagio, la propiedad intelectual y la privacidad de los datos son importantes y requieren una atención constante (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024). La IAG puede generar contenido que, aunque plausible, es falso, o puede perpetuar y amplificar sesgos inherentes en sus datos de entrenamiento, lo que pone en riesgo la credibilidad y la confianza pública (Shi & Sun, 2024).
Para navegar este complejo panorama, es imperativo establecer directrices claras y concretas, fomentar la transparencia total sobre el uso de la IA, invertir en programas de capacitación para desarrollar la alfabetización en IA y asegurar que la supervisión humana siga siendo contrafuerte básico en todas las fases del proceso (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024). Los roles de editores y gestores son esenciales para garantizar un uso responsable y ético de la IAG (Diakopoulos et al., 2024).
En última instancia, la integración exitosa de la IAG en el periodismo y la investigación científica dependerá de un enfoque proactivo y ético que equilibre la innovación tecnológica con los principios de responsabilidad, integridad y rendición de cuentas. Esto permitirá capitalizar plenamente el potencial de la IAG y salvaguardará los valores esenciales que sustentan la verdad, la originalidad y la confianza en la información y el conocimiento.
5. Recursos Generativos utilizados en la redacción de este artículo
Teniendo en cuenta que se ha seguido la estructura de un artículo científico, formato conocido por la IAG, para la elaboración de este contenido se ha utilizado IAG en la fase de búsqueda de información, así como en la mejora de la redacción y adaptación de esta redacción a un lenguaje coloquial. Asimismo, antes de editarlo se ha pasado el filtro de plagio (6% de coincidencias) y de lenguaje IAG (16% de coincidencias), considerando ambos ratios razonables y asumibles.
______________
6. Bibliografía
AlSamhori, A. R. F., & Alnaimat, F. (2024). Artificial intelligence in writing and research: Ethical implications and best practices. Central Asian Journal of Medical Hypotheses and Ethics, 5(4), 259–268. https://doi.org/10.47316/cajmhe.2024.5.4.02
Diakopoulos, N., Cools, H., Li, C., Helberger, N., Kung, E., & Rinehart, A. (2024). Generative AI in Journalism: The Evolution of Newswork and Ethics in a Generative Information Ecosystem. The Associated Press.
Shi, Y., & Sun, L. (2024). How Generative AI Is Transforming Journalism: Development, Application and Ethics. Journalism and Media, 5(2), 582–594. https://doi.org/10.3390/journalmedia5020039
Vega-Figueroa, E. (2023). Inteligencia Artificial Generativa e Investigación Científica [Presentation]. ResearchGate. https://www.researchgate.net/publication/376202660