![]() |
| Fuente de la imagen: Transformando la Educación: El Poder IA en la UMA (M. Velasco, 2025) |
La IAG presenta vastas oportunidades para la transformación de la industria y la administración pública, siendo capaz de automatizar o asistir en una amplia variedad de tareas que previamente requerían intelecto humano y creatividad (Alt et al., 2025). Específicamente, los LLMs son herramientas versátiles para la generación, edición y procesamiento de textos, abarcando desde la redacción de documentos formales y la creación de material de capacitación hasta la clasificación, el resumen y la traducción de información (Alt et al., 2025). En el ámbito de la seguridad de la información (TI), los LLMs se postulan como elementos de apoyo valiosos, facilitando la comprensión básica de vulnerabilidades y amenazas, sugiriendo configuraciones seguras y detectando contenido malicioso (Alt et al., 2025). Su aplicación se extiende al análisis y hardening de código de programación, permitiendo examinar el código existente en busca de vulnerabilidades de seguridad conocidas y sugerir mejoras (Alt et al., 2025), además de apoyar la revisión automatizada de grandes volúmenes de datos de seguridad y registros del sistema (system logs) (Alt et al., 2025,). Más allá del texto, los generadores de imágenes y video ofrecen beneficios en la producción de efectos visuales, el diseño de prototipos de interfaces de usuario (UI), y la generación de datos sintéticos conformes a la privacidad (Alt et al., 2025,). Desde una perspectiva de gobernanza tecnológica, la proliferación del código abierto (open source) en la IAG se percibe como un motor necesario para la innovación y la seguridad, ya que permite la inspección y comprensión de los modelos, facilitando la reproducibilidad científica y el avance rápido de las técnicas de seguridad (Eiras et al., 2024). Esta apertura también tiene un efecto democratizador, permitiendo a actores con recursos limitados personalizar modelos para sus necesidades específicas, lo que contribuye a mitigar las desigualdades económicas y de acceso a la tecnología a escala global (Eiras et al., 2024). En el largo plazo, el código abierto podría incluso contribuir a mantener el equilibrio de poder global al permitir a diferentes actores utilizar sistemas AGI para sus propios intereses (Eiras et al., 2024).
A pesar de las ventajas, la implementación de modelos de IAG introduce un conjunto de riesgos técnicos, éticos y sociales que deben ser rigurosamente abordados (Alt et al., 2025). Técnicamente, una limitación inherente es la falta de garantía sobre la calidad de las salidas (R4) (Alt et al., 2025), manifestándose en la invención de contenido falso o incorrecto, conocido como alucinación (Alt et al., 2025; Kumar, 2025). Además, dado que los modelos se entrenan con vastos data corpora, es inevitable la inclusión de contenido sesgado, lo que puede llevar a sesgos problemáticos en las salidas (R5) (Alt et al., 2025), reproduciendo o amplificando estereotipos culturales y toxicidad (Kumar, 2025). En términos de ciberseguridad, los LLMs son susceptibles a diversas formas de manipulación maliciosa, como los ataques de evasión (modificación de entradas para eludir la seguridad) (Alt et al., 2025) o las jailbreaks (R26) que buscan que el modelo rompa su rol predefinido (Alt et al., 2025,). Particularmente crítica es la Inyección de Prompt Indirecta (R28), donde instrucciones maliciosas ocultas en fuentes de terceros (como sitios web o documentos) son interpretadas por el LLM como comandos (Alt et al., 2025,). La confianza excesiva en los LLMs, denominada sesgo de automatización (R8), puede llevar a los usuarios a aceptar sus salidas sin un escrutinio crítico (Alt et al., 2025). En el contexto educativo, los expertos consultados señalan que esta confianza puede conducir a una dependencia acrítica de la IAG, limitando el análisis autónomo y el desarrollo del pensamiento crítico en los estudiantes (Muñoz Martínez et al., 2025). Mitigar estos retos requiere un enfoque coordinado, promoviendo la transparencia de los sistemas y fomentando la alfabetización digital y ética en el uso crítico de la IAG (Alt et al., 2025).
Referencias
Alt, T., Ibisch, A., Meiser, C., Wilhelm, A., Zimmer, R., Ditz, J., Dresen, D., Droste, C., Karschau, J., Laus, F., Müller, O., Neu, M., Plaga, R., Plesch, C., Sennewald, B., Thaeren, T., Unverricht, K., & Waurick, S. (2025). Generative AI Models: Opportunities and Risks for Industry and Authorities. Federal Office for Information Security.
Eiras, F., Petrov, A., Vidgen, B., Schroeder de Witt, C., Pizzati, F., Elkins, K., Mukhopadhyay, S., Bibi, A., Purewal, A., Csaba, B., Steibel, F., Keshtkar, F., Barez, F., Smith, G., Guadagni, G., Chun, J., Cabot, J., Imperial, J. M., Nolazco-Flores, J. A., Landay, L., Jackson, M., Torr, P. H. S., Darrell, T., Lee, Y. S., & Foerster, J. (2024). Risks and Opportunities of Open-Source Generative AI.
Kumar, R. (2025). A Survey on the Evolving Journey of Generative AI: From Language Models to Multimodal Intelligence. International Research Journal of Modernization in Engineering Technology and Science, 7(12).
Muñoz Martínez, C., Roger-Monzo, V., & Castelló-Sirvent, F. (2025). IA generativa y pensamiento crítico en la educación universitaria a distancia: desafíos y oportunidades. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 233-273.
Recursos Generativos utilizados en la redacción de este artículo
Teniendo en cuenta que se ha seguido la estructura de un artículo científico, formato conocido por la IAG, para la elaboración de este contenido se ha utilizado IAG en la fase de búsqueda de información, así como en la mejora de la redacción y adaptación de esta redacción a un lenguaje coloquial. Asimismo, antes de editarlo se ha pasado el filtro de plagio (12% de coincidencias) y de lenguaje IAG (16% de coincidencias), considerando ambos ratios razonables y asumibles.
