Uso Responsable de la Inteligencia Artificial en la Educación
Herramientas de IA Conversacional


Una herramienta de IA conversacional es un programa diseñado para interactuar con los usuarios de una manera que imita la conversación humana natural. Estas herramientas procesan el lenguaje escrito o hablado, comprenden la intención del usuario y generan respuestas coherentes y contextualmente relevantes.

ChatGPT, Copilot, Gemini, Bard y otros son ejemplos de modelos de lenguaje grande (Large Language Models - LLMs) que se han entrenado con vastas cantidades de datos textuales. Funcionan utilizando un enfoque de IA generativa, lo que significa que pueden crear contenido nuevo (texto, imágenes, código) basándose en los patrones que han aprendido. Específicamente, utilizan el procesamiento de lenguaje natural (NLP) y modelos de aprendizaje profundo (Deep Learning), como las arquitecturas de Transformers, para entender el prompt del usuario y predecir la secuencia de palabras más probable para generar una respuesta fluida.

Una IA puede ofrecer una ayuda significativa en una investigación al funcionar como un asistente de investigación avanzado. Puede resumir rápidamente documentos extensos, generar ideas o preguntas de investigación, estructurar borradores de ensayos o informes, traducir textos y ayudar a reformular párrafos para mejorar la claridad. También puede asistir en la revisión bibliográfica al encontrar información relevante (si está conectada a la web) y organizar conceptos.

Los límites o riesgos del uso de IA en la investigación son importantes de considerar. El principal riesgo es la generación de información incorrecta o inventada (hallucinations), lo que puede llevar a datos falsos o referencias inexistentes. Existe también el riesgo de dependencia excesiva que disminuye las habilidades de pensamiento crítico del estudiante y la falta de originalidad en el trabajo. Además, el uso de datos sensibles plantea preocupaciones éticas sobre la privacidad y la seguridad de la información.

Las buenas prácticas para usar IA en la investigación se centran en la ética y la verificación. Es crucial utilizar la IA como un colaborador o herramienta de apoyo, no como un sustituto del pensamiento propio. Se debe verificar siempre toda la información generada por la IA con fuentes académicas y confiables. Además, el usuario tiene la responsabilidad de citar y documentar el uso de la herramienta de IA de manera transparente en su trabajo.

Reflexión de Grupo
Parte I: Vínculo de Tecnologías Emergentes y Ataques Informáticos


La relación entre estas tecnologías emergentes y los ataques cibernéticos es dual: la tecnología puede ser una defensa poderosa o un nuevo vector de ataque.

¿Cómo la IA puede ayudar a detectar ataques cibernéticos? La Inteligencia Artificial es esencial en la ciberseguridad moderna. Los sistemas de IA entrenados en Big Data de tráfico de red y patrones de ataque pueden detectar anomalías y amenazas en tiempo real con una velocidad y precisión inalcanzables para los humanos. La IA puede predecir phishing sofisticado, identificar malware de día cero y automatizar la respuesta a incidentes.


¿Qué riesgos de seguridad trae el IoT? El Internet de las Cosas introduce graves riesgos de seguridad porque muchos dispositivos IoT se diseñan pensando más en la funcionalidad y el costo que en la protección. A menudo tienen contraseñas predeterminadas débiles o nulos mecanismos de actualización de software. Un dispositivo IoT hackeado (como una cámara o un termostato) puede ser la puerta de entrada para un atacante a la red doméstica o corporativa, o puede ser reclutado para formar parte de una red botnet masiva para lanzar ataques de denegación de servicio distribuido (DDoS).


¿Se pueden hackear los robots o los dispositivos de VR? Sí, se pueden hackear tanto los robots como los dispositivos de Realidad Virtual. En el caso de la Robótica, el software de control de un robot industrial puede ser comprometido para sabotear líneas de producción o, peor aún, causar daños físicos. Un ataque a un robot médico podría tener consecuencias catastróficas durante una operación. Para los dispositivos de VR, un hack podría involucrar el robo de datos biométricos recopilados por los sensores de seguimiento ocular y corporal, o la inyección de malware a través de aplicaciones virtuales, comprometiendo la privacidad del usuario.