Velamos por el uso ético, transparente y responsable de la inteligencia artificial en todas las actividades académicas, investigadoras y administrativas de nuestra institución.
El Comité de Ética trabaja en múltiples áreas para garantizar un uso responsable de la IA
Velar por el cumplimiento de los principios éticos en el desarrollo y uso de sistemas de IA en la universidad.
Elaborar y actualizar las políticas institucionales sobre el uso responsable de la inteligencia artificial.
Revisar y aprobar proyectos que involucren IA, asegurando que cumplan con estándares éticos.
Promover la formación en ética de la IA para toda la comunidad universitaria.
Mediar en situaciones donde el uso de la IA genere dilemas éticos o conflictos de intereses.
Proporcionar orientación sobre buenas prácticas en el uso de herramientas de IA.
Fundamentos para el desarrollo y uso responsable de la inteligencia artificial
Los sistemas de IA deben ser comprensibles y explicables. Es esencial que se entienda cómo funcionan los algoritmos y cómo toman decisiones para generar confianza y responsabilidad.
La IA debe considerar las necesidades de todos los seres humanos, sin discriminación, y ofrecer las mejores condiciones para el desarrollo y la expresión individual.
Debe existir una persona o entidad que asuma la responsabilidad por las acciones de la IA. Los diseñadores y desarrolladores deben actuar con transparencia, asumiendo las consecuencias de sus creaciones.
La IA no debe crear ni actuar según sesgos, asegurando la equidad y la dignidad humana. Los sistemas deben evitar perpetuar estereotipos, prejuicios o perspectivas manipuladas.
Los sistemas de IA deben funcionar de manera fiable y segura. Es fundamental que sean robustos y cumplan con las funciones para las que fueron diseñados, minimizando los riesgos.
Los sistemas de IA deben operar de forma segura y respetar la privacidad de los usuarios. La protección de los datos debe ser una prioridad para evitar riesgos para las personas y las organizaciones.
Un equipo multidisciplinar comprometido con la ética en la inteligencia artificial
Facultad de Humanidades y Ciencias de la Comunicación
Área de Comunicación Audiovisual y Publicidad
Facultad de Ciencias Económicas y Empresariales
Área de Matemática Aplicada
Facultad de Derecho
Área de Derecho Civil
Facultad de Humanidades y Ciencias de la Comunicación
Área de Periodismo
Facultad de Farmacia
Área de Química Física
Facultad de Medicina
Área de Anatomía y Embriología Humana
Escuela Politécnica Superior
Área de Ciencia de la Computación e IA
Instituto CEU de Humanidades Ángel Ayala
Área de Lógica y Filosofía de la Ciencia
Cátedra CEU - ENIA
Área de Periodismo
Dirección Corporativa de Estrategia Digital
desconocido
Principales hitos y acciones del Comité de Ética
Publicación de la primera guía institucional para el uso responsable de herramientas como ChatGPT, Copilot y otras IA generativas.
Celebración de las primeras jornadas universitarias sobre ética e inteligencia artificial con expertos nacionales e internacionales.
Aprobación del protocolo para la evaluación ética de proyectos de investigación que involucren inteligencia artificial.
Inicio del programa de formación en ética de la IA para el profesorado universitario.
Acto de constitución oficial del Comité de Ética para el Uso de la IA en la Universidad.
Conjunto de normas y directrices que regulan el uso de la inteligencia artificial en el ámbito universitario
Normativa sobre el uso de herramientas de IA generativa en trabajos académicos de grado y posgrado.
Puntos clave:
Directrices específicas para el uso de IA en TFG, TFM y trabajos de fin de estudios.
Puntos clave:
Marco regulatorio para el uso ético de IA en proyectos de investigación universitarios.
Puntos clave:
Políticas para el uso de IA en procesos administrativos y de gestión universitaria.
Puntos clave:
Consulta las respuestas a las dudas más comunes sobre el uso ético de la inteligencia artificial
¿Estoy utilizando instrucciones claras, concisas y con un contexto definido para evitar resultados falsos o inventados por la IA?
¿He verificado la credibilidad de las fuentes que me proporciona la IA y prefiero consultar las fuentes originales en lugar de depender de la interpretación de la IA?
Para evitar resultados falsos o inventados (alucinaciones), asegúrate de que tus instrucciones tengan un contexto claro, ejemplos y una petición específica y precisa. La elaboración de instrucciones claras mejorará la pertinencia y utilidad de los resultados. Experimenta con diferentes prompts para entender cómo responde el modelo.
La IA puede sintetizar información, pero no evalúa la credibilidad de diferentes puntos de vista. Cuestiona la información y las fuentes que te proporciona, ya que pueden ser incorrectas, desactualizadas o sesgadas. Prefiere consultar las fuentes originales en lugar de depender de la interpretación de la IA.
¿Estoy evitando presentar contenido generado por IA como propio, reconociendo que la IA es una herramienta y no una fuente de autoría original?
¿He detallado las herramientas de IA empleadas, su propósito, mi método de uso y cualquier otra información relevante que ayude a evaluar los posibles riesgos?
El uso de herramientas de IA generativa sin reconocer su uso constituye una falta grave de integridad académica, equiparable al plagio. Informa a tu público de que has utilizado IA, detallando las herramientas empleadas, su propósito y método de uso.
Comunica el uso de la IA y detalla las herramientas empleadas, su propósito y método. Explica qué tipo de herramientas has utilizado, describe su intención, proporciona una visión general de tu uso y ofrece cualquier información que pueda ayudar a evaluar los riesgos potenciales.
¿He descrito en mi trabajo cómo utilicé la herramienta de IA, incluyendo la instrucción o prompt que le di a la IA?
¿Estoy citando el texto generado por la IA, incluyendo el nombre del modelo, el año de la versión, el tipo de modelo y la URL, tanto en el texto como en la lista de referencias?
En la sección de metodología o introducción, explica cómo utilizaste la herramienta de IA. Por ejemplo: 'Para analizar el concepto de ética en la IA, utilicé ChatGPT para generar ejemplos.' Incluye la instrucción o prompt que le diste a la IA.
Incluye: Autor (organización que creó el modelo, ej. OpenAI), Fecha (año de la versión), Título (nombre del modelo en cursiva), Descripción (tipo de modelo entre corchetes) y URL. Ejemplo: OpenAI. (2025). ChatGPT (Mar 14 version) [Large language model]. https://chat.openai.com/chat
¿Soy consciente de las limitaciones de las herramientas de IA y estoy priorizando la veracidad y la integridad sobre la rapidez al difundir información?
¿Estoy aplicando los pasos de la nemotecnia SHARE (fuentes, titulares, análisis, retoque, errores) para evaluar el contenido antes de compartirlo en línea?
Aplica la nemotecnia SHARE: Sources (fuentes creíbles y oficiales), Headlines (lee los artículos completos, no solo titulares), Analyze (analiza si los hechos son ciertos), Retouched (cuidado con fotos y vídeos retocados), Errors (la información con erratas es más probable que sea falsa).
¿Soy consciente de los riesgos potenciales para mi información y la de otros al interactuar con sistemas de IA, y estoy tomando medidas para mitigarlos?
¿Estoy evitando facilitar información innecesaria, confidencial o privada que pueda poner en peligro la seguridad de otros o de la organización para la que trabajo?
Introduce solo la información esencial al interactuar con la IA. No facilites información innecesaria, confidencial o privada, porque puedes poner en peligro la seguridad de una persona o de la organización. Lee los términos y condiciones de las herramientas que utilices.
¿Estoy seleccionando cuidadosamente las herramientas de IA que utilizo, asegurándome de que estén alineadas con principios éticos y que no perpetúen sesgos o discriminen?
¿Me aseguro de que la herramienta de IA funciona de manera imparcial, sin crear ni actuar según sesgos, y que opera de forma fiable y segura, respetando la privacidad de los usuarios?
Selecciona cuidadosamente las herramientas de IA, asegurándote de que estén alineadas con principios éticos y que no perpetúen sesgos o discriminen. Verifica que opere de forma fiable y segura, respetando la privacidad de los usuarios según los principios del Rome Call for AI Ethics y normativa de tu institución.
¿Me estoy cuestionando cómo mis interacciones con la IA pueden afectar a los demás, y si estoy perpetuando sesgos o disminuyendo mis propias capacidades sin darme cuenta?
¿Estoy utilizando la IA de manera que potencie mi propio aprendizaje y habilidades, en lugar de depender exclusivamente de ella, y considerando las implicaciones éticas de su uso, como la inclusión, la responsabilidad, la imparcialidad, la fiabilidad y la seguridad?
La IA debe potenciar el aprendizaje, la investigación y el desarrollo personal, nunca como un sustituto del pensamiento crítico. Pregúntate si tus interacciones con la IA pueden perpetuar sesgos o disminuir tus propias capacidades. La inteligencia artificial nunca podrá sustituir a la inteligencia natural.
¿Tienes dudas sobre el uso ético de la IA? Estamos aquí para ayudarte
Lunes a Viernes: 9:00 - 14:00 y 16:00 - 18:00
Las
consultas por correo electrónico se responden en un plazo
máximo de 48 horas laborables.