domingo, 31 de agosto de 2025

IAG: Transformación, Retos y Pensamiento Crítico

Fuente de la imagen: Transformando la Educación: El Poder IA en la UMA (M. Velasco, 2025)
La Inteligencia Artificial Generativa (IAG), definida como algoritmos o modelos capaces de crear contenido novedoso —tales como textos, imágenes, audio o video— basándose en patrones derivados de datos preexistentes, representa una fuerza disruptiva en diversos ámbitos profesionales y académicos (Alt et al., 2025, Kumar, 2025). Esta tecnología se inscribe en la categoría de modelos de IA de propósito general (GPAI), caracterizándose por una elevada capacidad de generalización (Alt et al., 2025). La evolución de la IAG exhibe una progresión discernible hacia una complejidad arquitectónica superior y un alcance modal expandido (Kumar, 2025). Los antecedentes se localizan en modelos estadísticos tempranos, como las Cadenas de Markov, que implementaban técnicas probabilísticas básicas (Kumar, 2025). Un hito crucial en la era del deep learning fue la introducción de arquitecturas fundamentales, destacando los Autoencoders Variacionales (VAE) y las Redes Generativas Adversariales (GANs) en 2014, que permitieron la generación de datos y establecieron un nuevo estándar de realismo en la generación de imágenes (Kumar, 2025,). Sin embargo, el cambio paradigmático definitivo se materializó con la arquitectura Transformer (surgida alrededor de 2017) (Kumar, 2025), impulsando la creación de los Grandes Modelos de Lenguaje (LLMs) como GPT-1 (2018), GPT-2 (2019) y GPT-3 (2020), los cuales demostraron una notable fluidez, coherencia y capacidad de generalización a través del zero-shot y few-shot learning (Kumar, 2025). La vanguardia actual se concentra en los Modelos Multimodales Grandes (LMMs), como GPT-4 (2023), que integran y razonan a través de texto, imágenes, visión y audio, buscando emular la flexibilidad cognitiva humana y permitiendo tareas complejas como la comprensión contextual entre texto e imágenes (Kumar, 2025). Esta tendencia continúa su avance, como se observa en la investigación continua sobre modelos de difusión para síntesis de imágenes y video (Kumar, 2025).

La IAG presenta vastas oportunidades para la transformación de la industria y la administración pública, siendo capaz de automatizar o asistir en una amplia variedad de tareas que previamente requerían intelecto humano y creatividad (Alt et al., 2025). Específicamente, los LLMs son herramientas versátiles para la generación, edición y procesamiento de textos, abarcando desde la redacción de documentos formales y la creación de material de capacitación hasta la clasificación, el resumen y la traducción de información (Alt et al., 2025). En el ámbito de la seguridad de la información (TI), los LLMs se postulan como elementos de apoyo valiosos, facilitando la comprensión básica de vulnerabilidades y amenazas, sugiriendo configuraciones seguras y detectando contenido malicioso (Alt et al., 2025). Su aplicación se extiende al análisis y hardening de código de programación, permitiendo examinar el código existente en busca de vulnerabilidades de seguridad conocidas y sugerir mejoras (Alt et al., 2025), además de apoyar la revisión automatizada de grandes volúmenes de datos de seguridad y registros del sistema (system logs) (Alt et al., 2025,). Más allá del texto, los generadores de imágenes y video ofrecen beneficios en la producción de efectos visuales, el diseño de prototipos de interfaces de usuario (UI), y la generación de datos sintéticos conformes a la privacidad (Alt et al., 2025,). Desde una perspectiva de gobernanza tecnológica, la proliferación del código abierto (open source) en la IAG se percibe como un motor necesario para la innovación y la seguridad, ya que permite la inspección y comprensión de los modelos, facilitando la reproducibilidad científica y el avance rápido de las técnicas de seguridad (Eiras et al., 2024). Esta apertura también tiene un efecto democratizador, permitiendo a actores con recursos limitados personalizar modelos para sus necesidades específicas, lo que contribuye a mitigar las desigualdades económicas y de acceso a la tecnología a escala global (Eiras et al., 2024). En el largo plazo, el código abierto podría incluso contribuir a mantener el equilibrio de poder global al permitir a diferentes actores utilizar sistemas AGI para sus propios intereses (Eiras et al., 2024).

A pesar de las ventajas, la implementación de modelos de IAG introduce un conjunto de riesgos técnicos, éticos y sociales que deben ser rigurosamente abordados (Alt et al., 2025). Técnicamente, una limitación inherente es la falta de garantía sobre la calidad de las salidas (R4) (Alt et al., 2025), manifestándose en la invención de contenido falso o incorrecto, conocido como alucinación (Alt et al., 2025; Kumar, 2025). Además, dado que los modelos se entrenan con vastos data corpora, es inevitable la inclusión de contenido sesgado, lo que puede llevar a sesgos problemáticos en las salidas (R5) (Alt et al., 2025), reproduciendo o amplificando estereotipos culturales y toxicidad (Kumar, 2025). En términos de ciberseguridad, los LLMs son susceptibles a diversas formas de manipulación maliciosa, como los ataques de evasión (modificación de entradas para eludir la seguridad) (Alt et al., 2025) o las jailbreaks (R26) que buscan que el modelo rompa su rol predefinido (Alt et al., 2025,). Particularmente crítica es la Inyección de Prompt Indirecta (R28), donde instrucciones maliciosas ocultas en fuentes de terceros (como sitios web o documentos) son interpretadas por el LLM como comandos (Alt et al., 2025,). La confianza excesiva en los LLMs, denominada sesgo de automatización (R8), puede llevar a los usuarios a aceptar sus salidas sin un escrutinio crítico (Alt et al., 2025). En el contexto educativo, los expertos consultados señalan que esta confianza puede conducir a una dependencia acrítica de la IAG, limitando el análisis autónomo y el desarrollo del pensamiento crítico en los estudiantes (Muñoz Martínez et al., 2025). Mitigar estos retos requiere un enfoque coordinado, promoviendo la transparencia de los sistemas y fomentando la alfabetización digital y ética en el uso crítico de la IAG (Alt et al., 2025).

Referencias

Alt, T., Ibisch, A., Meiser, C., Wilhelm, A., Zimmer, R., Ditz, J., Dresen, D., Droste, C., Karschau, J., Laus, F., Müller, O., Neu, M., Plaga, R., Plesch, C., Sennewald, B., Thaeren, T., Unverricht, K., & Waurick, S. (2025). Generative AI Models: Opportunities and Risks for Industry and Authorities. Federal Office for Information Security.

Eiras, F., Petrov, A., Vidgen, B., Schroeder de Witt, C., Pizzati, F., Elkins, K., Mukhopadhyay, S., Bibi, A., Purewal, A., Csaba, B., Steibel, F., Keshtkar, F., Barez, F., Smith, G., Guadagni, G., Chun, J., Cabot, J., Imperial, J. M., Nolazco-Flores, J. A., Landay, L., Jackson, M., Torr, P. H. S., Darrell, T., Lee, Y. S., & Foerster, J. (2024). Risks and Opportunities of Open-Source Generative AI.

Kumar, R. (2025). A Survey on the Evolving Journey of Generative AI: From Language Models to Multimodal Intelligence. International Research Journal of Modernization in Engineering Technology and Science, 7(12).

Muñoz Martínez, C., Roger-Monzo, V., & Castelló-Sirvent, F. (2025). IA generativa y pensamiento crítico en la educación universitaria a distancia: desafíos y oportunidades. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 233-273.

Recursos Generativos utilizados en la redacción de este artículo

Teniendo en cuenta que se ha seguido la estructura de un artículo científico, formato conocido por la IAG, para la elaboración de este contenido se ha utilizado IAG en la fase de búsqueda de información, así como en la mejora de la redacción y adaptación de esta redacción a un lenguaje coloquial. Asimismo, antes de editarlo se ha pasado el filtro de plagio (12% de coincidencias) y de lenguaje IAG (16% de coincidencias), considerando ambos ratios razonables y asumibles.