Marco óptimo para evaluar y gestionar los riesgos de la IA

INTRODUCCIÓN Y CONTEXTO

En la novela de ciencia ficción de Neal Stephenson, The Diamond Age, los lectores conocen a Nell, una joven que toma posesión de un libro muy avanzado. El mismo no es la habitual colección de textos e imágenes, sino una herramienta que puede conversar con el lector, responder preguntas y personalizar su contenido.

La inteligencia artificial, dio un gran paso adelante con la introducción en 2022 de ChatGPT, una tecnología capaz de producir respuestas notablemente creativas y análisis sofisticados a través de un diálogo similar al humano. Ha desencadenado una ola de innovación, parte de la cual sugiere que podríamos estar al borde de una era de herramientas interactivas y súper inteligentes no muy diferente al libro citado.

La inteligencia artificial es más profunda que cualquier cosa que hayamos hecho en el pasado, el poder de realizar cambios positivos en el mundo está a punto de recibir el mayor impulso que jamás haya tenido, esta nueva ola es tan fundamental como la creación de internet y el teléfono móvil.

Durante el último año, los desarrolladores han lanzado una vertiginosa variedad de herramientas de inteligencia artificial que pueden generar sin necesidad de codificación, sino con una respuesta a instrucciones dadas en lenguaje natural. Los desarrolladores están introduciendo capacidades que se habrían considerado ciencia ficción hace apenas unos años. La IA también está planteando cuestiones éticas apremiantes en torno su uso apropiado.

IA APLICADA A LA EDUACIÓN

En el ámbito de la educación, esta tecnología influirá en cómo aprenden los estudiantes, cómo trabajan los profesores y, en última instancia, cómo estructurar nuestro sistema educativo. Algunos educadores y líderes esperan estos cambios con gran entusiasmo. Pero otros advierten que la IA permitirá la difusión de información errónea, facilitará las trampas en la escuela y la universidad, eliminará cualquier vestigio de privacidad individual que quede y provocará una pérdida masiva de empleos. El desafío es aprovechar el potencial positivo y mitigar los daños.

La inteligencia artificial es una rama de la informática que se centra en la creación de software capaz de imitar comportamientos y procesos que consideraríamos “inteligentes” si los exhibieran humanos, incluido el razonamiento, el aprendizaje, la resolución de problemas y el ejercicio de la creatividad. Los sistemas de IA se pueden aplicar a una amplia gama de tareas, y, en el caso de la IA generativa, la producción de contenidos y conocimientos en lugar de simplemente buscarlos y recuperarlos.

IA GENERATIVA

La IA generativa son sistemas entrenados en un gran conjunto de datos para aprender una amplia base de conocimientos que luego se puede adaptar a una variedad de propósitos diferentes y más específicos. Este método de aprendizaje es auto supervisado, lo que significa que el modelo aprende encontrando patrones y relaciones en los datos con los que se entrena.

Al realizar este análisis en miles de millones de oraciones, los modelos LLM desarrollan una comprensión estadística del lenguaje: cómo se combinan generalmente las palabras y frases, qué temas suelen discutirse juntos y qué tono o estilo es apropiado en diferentes contextos. Eso le permite generar texto similar a un humano y realizar una amplia gama de tareas, como escribir artículos, responder preguntas o analizar datos no estructurados.

Estos dos ejemplos hacen que uno se pregunte: si la IA continúa mejorando tan rápidamente, ¿qué podrán lograr estos sistemas en los próximos años? Es más, nuevos estudios cuestionan la suposición de que las respuestas generadas por la IA son obsoletas o estériles. En el caso del modelo de IA de Google, los médicos prefirieron las respuestas largas de la IA a las escritas por sus colegas médicos, y los participantes no médicos del estudio calificaron las respuestas de la IA como más útiles.

Otro estudio encontró que los participantes preferían las respuestas de un Chatbot médico a las de un médico y las calificaron significativamente más alto, no solo por su calidad sino también por su empatía. ¿Qué pasará cuando se utilice una IA “empática” en la educación?

Otros estudios han analizado las capacidades de razonamiento de estos modelos. Los investigadores de Microsoft sugieren que los sistemas más nuevos “muestran una inteligencia más general que los modelos de IA anteriores” y se están acercando “sorprendentemente al rendimiento a nivel humano”.

Si bien algunos observadores cuestionan esas conclusiones, los sistemas de IA muestran una capacidad cada vez mayor para generar respuestas coherentes y contextualmente apropiadas, establecer conexiones entre diferentes piezas de información y participar en procesos de razonamiento como la inferencia, la deducción y la analogía.

A pesar de sus prodigiosas capacidades, estos sistemas no están exentos de defectos. A veces, producen información que puede parecer convincente pero que es irrelevante, ilógica o completamente falsa: una anomalía conocida como “alucinación”. La ejecución de determinadas operaciones matemáticas presenta otra área de dificultad para la IA. Y si bien estos sistemas pueden generar texto realista y bien elaborado, comprender por qué el modelo tomó decisiones o predicciones específicas puede resultar un desafío.

PROVEEDORES DE IA GENERATIVA

Utilizar sistemas de IA generativa como ChatGPT, Bard y Claude 2 es relativamente sencillo. Uno sólo tiene que escribir una solicitud o una tarea (llamada mensaje) y la IA genera una respuesta. Puede pedirle a la IA generativa que analice texto, encuentre patrones en los datos, compare argumentos opuestos y resuma un artículo de diferentes maneras.

Un desafío es que, después de usar motores de búsqueda durante años, las personas han sido condicionadas a formular las preguntas de cierta manera. Un motor de búsqueda es algo así como un bibliotecario útil que responde a una pregunta específica y le indica las fuentes más relevantes para posibles respuestas. El motor de búsqueda (o bibliotecario) no crea nada nuevo, pero recupera eficientemente lo que ya está ahí.

A la IA generativa usted le da instrucciones a una herramienta de inteligencia artificial generativa a través de indicaciones, como lo haría con un pasante, pidiéndole que complete una tarea y produzca un producto. La IA interpreta tus instrucciones, piensa en la mejor manera de llevarlas a cabo y produce algo original o realiza una tarea para cumplir tu directiva. Los resultados no están prefabricados ni almacenados en algún lugar: se producen sobre la marcha, en función de la información con la que se ha entrenado al pasante (IA generativa).

El resultado a menudo depende de la precisión y claridad de las instrucciones (indicaciones) que proporcione. Un mensaje vago o mal definido podría hacer que la IA produzca resultados menos relevantes. Cuanto más contexto y dirección le des, mejor será el resultado. Una estrategia al utilizar una herramienta de IA generativa es decirle primero qué tipo de experto o persona quiere que “sea”. Pídale que sea un consultor experto en gestión, un maestro capacitado, un tutor de escritura o un corrector, y luego asígnele una tarea.

También se pueden crear indicaciones para que estos sistemas de IA realicen operaciones complejas y de varios pasos. Por ejemplo, digamos que un profesor quiere crear un programa de tutoría adaptativo (para cualquier materia, cualquier grado, en cualquier idioma) que personalice los ejemplos para los estudiantes según sus intereses. Quiere que cada lección culmine con un cuestionario de respuesta corta o de opción múltiple. Si el estudiante responde correctamente las preguntas, el tutor de IA deberá pasar a la siguiente lección. Si el alumno responde incorrectamente, la IA deberá volver a explicar el concepto, pero utilizando un lenguaje más sencillo.

Sin embargo, al igual que los pasantes novatos que aprenden los entresijos de un entorno nuevo, la IA comete errores ocasionales. Esta falibilidad, aunque inevitable, subraya la importancia crítica de mantener una supervisión rigurosa de la producción de IA. El monitoreo no sólo actúa como un punto de control crucial para la precisión, sino que también se convierte en una fuente vital de retroalimentación en tiempo real para el sistema. Es a través de este proceso de refinamiento iterativo que un sistema de IA, con el tiempo, puede minimizar significativamente su tasa de error y aumentar su eficacia.

MARCO ÓPTIMO PARA EVALUAR Y GESTIONAR LOS RIESGOS DE LA IA

En 2023, el Departamento de Educación de EE. UU. publicó un informe titulado La inteligencia artificial y el futuro de la enseñanza y el aprendizaje: ideas y recomendaciones. El departamento llevó a cabo sesiones de escucha en 2022 con más de 700 personas, incluidos educadores y padres, para evaluar sus opiniones sobre la IA. El informe señaló que “los electores creen que es necesario actuar ahora para adelantarse al aumento esperado de la IA en la tecnología educativa, y quieren arremangarse y comenzar a trabajar juntos”. La gente expresó ansiedad por los “riesgos potenciales futuros” de la IA.

La capacidad de la IA para llevar a cabo conversaciones similares a las humanas abre posibilidades a asistentes de instrucción que pueden ayudar a explicar conceptos difíciles a los estudiantes . Los sistemas de retroalimentación basados ​​en inteligencia artificial pueden ofrecer críticas constructivas sobre la escritura de los estudiantes , lo que puede ayudarlos a perfeccionar sus habilidades de escritura. Algunas investigaciones también sugieren que ciertos tipos de indicaciones pueden ayudar a los niños a generar preguntas más fructíferas sobre el aprendizaje. Los modelos de IA también podrían respaldar el aprendizaje personalizado para estudiantes con discapacidades y proporcionar traducción para estudiantes de inglés.

Los padres pueden utilizar la IA para generar cartas solicitando servicios del plan educativo individualizado o para solicitar que un niño sea evaluado para programas para superdotados y talentosos. Para los padres que eligen una escuela para sus hijos, la IA podría servir como asistente administrativo, trazando opciones escolares a poca distancia de casa, generando cronogramas de solicitud, recopilando información de contacto y cosas similares.

Utilizando la IA, los administradores escolares pueden redactar diversas comunicaciones, incluidos materiales para padres, boletines y otros documentos de participación comunitaria. Los sistemas de inteligencia artificial también pueden ayudar con las difíciles tareas de organizar horarios de clases o autobuses, y pueden analizar datos complejos para identificar patrones o necesidades. ChatGPT puede realizar análisis de sentimiento sofisticados que podrían ser útiles para medir el clima escolar y otros datos de encuestas.

El Proyecto Tailwind de Google está experimentando con un cuaderno de inteligencia artificial que puede analizar las notas de los estudiantes y luego desarrollar preguntas de estudio o brindar apoyo de tutoría a través de una interfaz de chat . Estas funciones pronto podrían estar disponibles en Google Classroom y llegar potencialmente a más de la mitad de todas las aulas de EE.UU.

INDUSTRIA IA ESPECÍFICA PARA EDUCACIÓN

Las primeras empresas en crear una cartera de servicios de IA diseñados específicamente para profesores: diferenciar contenido, redactar planes de lecciones, brindar comentarios a los estudiantes y servir como asistente de IA para optimizar el flujo de trabajo entre diferentes aplicaciones y herramientas. Los proveedores de planes de estudios y materiales de instrucción también pueden incluir asistentes de inteligencia artificial para brindar ayuda instantánea y tutoría adaptada a los productos de las empresas.

Independientemente de las formas en que se utilice la IA en las aulas, la tarea fundamental de los formuladores de políticas y los líderes educativos es garantizar que la tecnología sirva para una práctica educativa sólida. No sólo deberíamos pensar en cómo la tecnología puede ayudar a los profesores y alumnos a mejorar lo que están haciendo ahora, sino también en lo que significa para garantizar que nuevas formas de la enseñanza y el aprendizaje florecen junto con las aplicaciones de la IA.

La pantalla de inicio de ChatGPT, el modelo básico de inteligencia artificial generativa de OpenAI, ofrece a los usuarios tres comandos de muestra y una lista de funciones y advertencias. Presentado públicamente en noviembre de 2022, ChatGPT puede producir respuestas y análisis creativos y similares a los humanos.
Desafíos y riesgos.

Junto con estos beneficios potenciales, vienen algunos desafíos y riesgos difíciles que la comunidad educativa debe afrontar: Los estudiantes pueden utilizar la IA para resolver problemas de tareas o realizar cuestionarios . Los ensayos generados por IA amenazan con socavar el aprendizaje y el proceso de ingreso a la universidad. Aparte de las cuestiones éticas que implica este tipo de trampas, es posible que los estudiantes que utilizan la IA para hacer su trabajo por ellos no estén aprendiendo el contenido y las habilidades que necesitan.

Los sistemas de IA aprenden de los datos con los que se entrenan. Si estos datos contienen sesgos, el sistema de IA puede aprenderlos y perpetuarlos. Por ejemplo, si los datos incluyen información sobre el desempeño de los estudiantes que está sesgada hacia una etnia, género o segmento socioeconómico, el sistema de inteligencia artificial podría aprender a favorecer a los estudiantes de ese grupo. Menos citados, pero aún importantes, son los posibles sesgos en torno a la ideología política y posiblemente incluso a la filosofía pedagógica que pueden generar respuestas no alineadas con los valores de una comunidad.

Cuando los estudiantes y educadores interactúan con herramientas de inteligencia artificial generativa, sus conversaciones e información personal pueden almacenarse y analizarse, lo que representa un riesgo para su privacidad. Con los sistemas públicos de IA, los educadores deben abstenerse de ingresar o exponer detalles confidenciales sobre ellos mismos, sus colegas o sus estudiantes, incluidas, entre otras, comunicaciones privadas, información de identificación personal, registros médicos, rendimiento académico, bienestar emocional e información financiera.

Tanto los profesores como los estudiantes corren el riesgo de volverse demasiado dependientes de la tecnología impulsada por la IA. Para los estudiantes, esto podría sofocar el aprendizaje, especialmente el desarrollo del pensamiento crítico. Este desafío se extiende también a los educadores. Si bien la IA puede acelerar la generación de planes de lecciones, la velocidad no es sinónimo de calidad. Los profesores pueden verse tentados a aceptar el contenido inicial generado por la IA en lugar de dedicar tiempo a revisarlo y perfeccionarlo para obtener un valor educativo óptimo.

No todos los estudiantes tienen el mismo acceso a los dispositivos informáticos e Internet. Ese desequilibrio podría acelerar una ampliación de la brecha de rendimiento entre estudiantes de diferentes orígenes socioeconómicos. A la luz de estos desafíos, el Departamento de Educación ha enfatizado la importancia de mantener a los “humanos informados” cuando se utiliza la IA, particularmente cuando el resultado podría usarse para informar una decisión. Como alentó el departamento , los maestros, los estudiantes y otros deben conservar su agencia.

La IA no puede “reemplazar a un maestro, un tutor o un líder educativo como custodio del aprendizaje de sus estudiantes”, enfatiza el informe. Los formuladores de políticas están lidiando con varias preguntas relacionadas con la IA mientras buscan lograr un equilibrio entre el apoyo a la innovación y la protección del interés público. La velocidad de la innovación en IA está superando la comprensión de muchos formuladores de políticas, y mucho menos su capacidad para desarrollar un consenso sobre las mejores formas de minimizar los daños potenciales de la IA y maximizar al mismo tiempo los beneficios.

Corresponde a los formuladores de políticas establecer reglas de juego más claras y crear un marco que brinde protección al consumidor, genere confianza pública en los sistemas de inteligencia artificial y establezca la certeza regulatoria que las empresas necesitan para sus hojas de ruta de productos. Teniendo en cuenta el potencial de la IA para afectar nuestra economía, la seguridad nacional y la sociedad en general, no hay tiempo que perder.

Sin embargo, hay algunos primeros signos de que esta ola tecnológica podría ser diferente en cuanto a los beneficios que aporta a estudiantes, profesores y padres. Las tecnologías anteriores democratizaron el acceso a contenidos y recursos, pero la IA está democratizando un tipo de inteligencia artificial que puede utilizarse para realizar una infinidad de tareas. Además, estas capacidades son abiertas y asequibles: casi cualquier persona con una conexión a Internet y un teléfono ahora tiene acceso a un asistente inteligente.

FUTURO DE LA IA EN EDUCACIÓN

Los modelos de IA generativa son cada vez más potentes y mejoran rápidamente. Las capacidades de estos sistemas dentro de meses o años superarán con creces su capacidad actual. Sus capacidades también se están ampliando mediante la integración con otros sistemas expertos. Es razonable anticipar que estos sistemas serán más potentes, más accesibles y más asequibles en los próximos años. La cuestión, entonces, es cómo utilizar responsablemente estas capacidades emergentes para mejorar la enseñanza y el aprendizaje.

La paradoja de la IA puede residir en su potencial para mejorar el elemento humano e interpersonal en la educación. Cuando la tecnología ignora esto, seguramente decepcionará. Pero cuando está diseñada para ofrecer más entrenamiento, liberar tiempo para una interacción significativa entre docentes y estudiantes u ofrecer a los estudiantes comentarios más personalizados, la tecnología puede marcar una diferencia significativa y positiva.

La tecnología no revoluciona la educación; los humanos lo hacen. Son los humanos quienes crean los sistemas e instituciones que educan a los niños, y son los líderes de esos sistemas quienes deciden qué herramientas usar y cómo usarlas. Hasta que esas instituciones se modernicen para adaptarse a las nuevas posibilidades de estas tecnologías, deberíamos esperar, en el mejor de los casos, mejoras incrementales. La necesidad más urgente es que las organizaciones nuevas y existentes rediseñen la experiencia de los estudiantes de manera que aprovechen al máximo las capacidades de la IA.

Si bien las tecnologías del pasado no han estado a la altura de las expectativas, la IA no es simplemente una continuación del pasado; es un salto hacia una nueva era de inteligencia artificial que apenas estamos comenzando a comprender. Si bien la implementación inmediata de estos sistemas es imperfecta, el rápido ritmo de mejora ofrece perspectivas prometedoras.

La responsabilidad recae en la intervención humana: en los educadores, los formuladores de políticas y los padres para incorporar esta tecnología cuidadosamente de una manera que beneficie de manera óptima a los maestros y alumnos. Nuestra ambición colectiva no debería centrarse única o principalmente en evitar riesgos potenciales, sino más bien en articular una visión del papel que debe desempeñar la IA en la enseñanza y el aprendizaje: un plan de acción que aproveche lo mejor de estas tecnologías y al mismo tiempo preserve lo mejor de las relaciones humanas.

Los funcionarios y legisladores deben abordar varias cuestiones relacionadas con la IA para proteger a los estudiantes y consumidores y establecer las reglas de juego para las empresas.

DEFINIENDO UN MARCO DE GESTIÓN DE RIESGOS DE LA IA

Las cuestiones clave incluyen, un marco de gestión de riesgos:

¿Cuál es el marco óptimo para evaluar y gestionar los riesgos de la IA? ¿Qué requisitos específicos deberían establecerse para aplicaciones de mayor riesgo?. En educación, por ejemplo, existe una diferencia entre un sistema de IA que genera una muestra de lección y un sistema de IA que califica una prueba que determinará la admisión de un estudiante a una escuela o programa. Existe un apoyo creciente para utilizar el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología del Departamento de Comercio de EE. UU. como punto de partida para generar confiabilidad en el diseño, desarrollo, uso y evaluación de productos, servicios y sistemas de IA.

Licencias y certificaciones: ¿Debería exigir licencias y certificaciones para los modelos, sistemas y aplicaciones de IA? De ser así, ¿qué papel podrían desempeñar las auditorías y certificaciones de terceros en la evaluación de la seguridad y confiabilidad de los diferentes sistemas de IA? Las escuelas y las empresas deben empezar a pensar en prácticas responsables de IA para prepararse para posibles sistemas de certificación en el futuro.

Gobernanza de la IA centralizada versus descentralizada:

¿Es más eficaz establecer una autoridad o agencia central de IA, o sería preferible permitir que sectores individuales gestionen sus propios problemas relacionados con la IA? Por ejemplo, regular la IA en vehículos autónomos es diferente a regular la IA en el descubrimiento de fármacos o en sistemas de tutoría inteligente.

Es posible que los marcos y mandatos demasiado amplios y uniformes no funcionen y podrían frenar la innovación en estos sectores. Además, no está claro que muchas agencias tengan la autoridad o la experiencia para regular los sistemas de IA en diversos sectores.

¿Cómo deberían adaptarse a la IA los marcos existentes de privacidad y moderación de contenidos, como la Ley de Privacidad y Derechos Educativos de la Familia, y qué nuevas políticas o marcos podrían ser necesarios para abordar los desafíos únicos que plantea la IA?

Transparencia y divulgación: ¿Qué grado de transparencia y divulgación se debería exigir a los modelos de IA, en particular en lo que respecta a los datos con los que han sido entrenados?

¿Cómo podemos desarrollar políticas de divulgación integrales para garantizar que los usuarios sepan cuándo interactúan con un servicio de IA?

Estas y otras muchas cuestiones que irán surgiendo conforme se asiente los diferentes casos de usos de las IA en nuestras sociedades.

¿Qué cuestiones adicionales se te ocurren?

Autoría

Artículo redactado por Lic. Gerardo Molina.
Founder. President Euromericas Sport Marketing. I Guide Executives to Build their Personal Brand. Disney Customer Experience Application. IA.Best Selling Author. Professor Emeritus Red Laureates.Columnist/Analyst. Speaker

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *