Millones de textos y miles de millones de palabras alimentaron el apetito voraz de un nuevo algoritmo. El ChatGPT no sólo fue entrenado para aprender patrones de formación de palabras, sino las potenciales respuestas del usuario, algo que lo hace diferente a otros sistemas similares de inteligencia artificial (IA). Se entrenó usando Aprendizaje por refuerzo a partir de retroalimentación humana (RLHF). Se recopilaron datos de comparación, con varias respuestas de entrenadores humanos, para crear un modelo de recompensa que diera lugar al modelo de lenguaje más ambicioso que se ha entrenado.
En noviembre de 2022, la compañía OpenAI lanzó el ChatGPT, un programa informático entrenado en una supercomputadora de la plataforma de Microsoft Azure, que responde de forma rápida y fluida a preguntas sobre gran diversidad de temas; también escribe ensayos y hasta cuentos de ficción, siguiendo algunas indicaciones. También puede hacer análisis de datos y mantener una conversación escrita sin sospecha de que una máquina está detrás. La respuesta de los usuarios fue apabullante: alrededor de 100 millones de usuarios activos logró ChatGPT a dos meses de su llegada.
Debate sobre sus usos en educación
Especialistas coinciden en que hay nuevos retos con este escalón que subió la IA, el más debatido es el de la educación. Paul T. von Hippel, académico de sociología, políticas públicas, estadística y ciencia de datos de la Universidad de Texas ha señalado que hasta el momento la mayoría de los informes educativos han destacado el potencial de esta herramienta para facilitar las trampas, pues puede lograr trabajos escritos, cuya originalidad en el desarrollo temático, hace muy difícil detectar el trabajo de la IA.
El investigador señala ejemplos como ensayos que van desde ilustrar ideas budistas usando un hámster como mascota hasta otro de un sujeto (inventado por la IA) que narra cómo su experiencia de voluntario en un refugio para mascotas lo preparó para el éxito en la Universidad de Stanford. Sin embargo, Hippel también se cuestiona sobre la oportunidad de utilizar sus virtudes de manera legítima en la educación, al ofrecer corrección y orientación mientras los estudiantes trabajan en determinados textos o en otras cuestiones. Explica que algunos sistemas de tutoría pueden ofrecer ayuda cuando los estudiantes se desvían, pero esa ayuda a menudo viene en forma de texto generalizado o videos que destacan desafíos que, aunque son comunes, no siempre abordan lo que está haciendo fallar de manera específica a un individuo.
Hay muchos académicos que se oponen tajantemente a herramientas como ChatGPT. En algunas partes de EU se ha comenzado a prohibir su uso en exámenes o trabajos de clase, de hecho, ya se trabaja para conseguir un software que detecte su uso. Sin embargo, también hay otra parte del sistema educativo en todo el mundo que aboga por la inclusión de las nuevas formas de inteligencia artificial en los procesos de enseñanza, pues las innovaciones tecnológicas se han insertado en nuestra cotidianidad facilitando muchas actividades, incluida la pedagogía.
Para los optimistas, las innovaciones tecnológicas continúan cambiando a la sociedad, por lo que la educación debe incluir estas nuevas herramientas y preparar a los más jóvenes para que sean capaces de usarlas éticamente y puedan extraer todo su potencial. En ese caso, se trataría sólo de un nuevo punto de inflexión en un largo camino de cambios, pues aunque en una escuela se siga manteniendo la estructura de edificios y aulas, no implica que la educación siga igual como desde hace siglos.
A nivel educativo, de hecho, se muestra como una herramienta de respuestas rápidas puede ayudar a ejemplificar muchos temas expuestos en un salón de clase, además puede ayudar a los docentes a preparar más rápida su cátedra, sin comprometer la calidad, sino al complementar y volver más eficiente los procesos.
La perfección no existe, aunque las posibilidades de la IA son variadas, en el caso de las matemáticas la historia es otra. Hippel también muestra en una de sus investigaciones cómo el ChatGPT puede hablar de matemáticas superficialmente, pero no las “entiende” con profundidad real. No puede corregir conceptos erróneos, pero además introduce conceptos erróneos propios; y a veces comete errores matemáticos inexplicables: cosas que una hoja de cálculo básica o una calculadora manual no cometerían.
Sus creadores tratan de hacer las correcciones adecuadas para la siguiente versión. En los próximos meses se esperan nuevos escalones tras el ChatGPT, desde su siguiente iteración, GPT-4, hasta las opciones de gigantes como Google, o Sparrow, desarrollado por DeepMind, la división de IA de la compañía que señala que la gran ventaja de su Sparrow será la posibilidad de citar fuentes de información que revelen al instante el grado de fiabilidad de la información. El equipo también trabaja para que la IA decida que no puede responder una pregunta de manera fiable, dejando que el humano tome la decisión. La pregunta es si a los humanos nos sigue gustando decidir.
Nuevas puertas
Más allá de las premisas filosóficas, la realidad es que los nuevos horizontes de la IA hacen grandes aportaciones al desarrollo científico. La misma OpenAI presentó el año pasado una tecnología que causó revuelo al crear imágenes digitales detalladas que algunos calificaron de simple oportunidad de crear fotos falsas o una nueva herramienta para crear arte, pero la oferta de esta herramienta, llamada DALL-E (ahora con una nueva iteración DAL-E2), abrió un te mrreno muchoás amplio.
Según la definición de OpenAI, esta herramienta utiliza un proceso llamado “difusión”, que comienza con un patrón de puntos aleatorios con el texto que las describe y altera gradualmente hacia una imagen al reconocer aspectos específicos de ella. Desde una descripción textual, se van creando imágenes muy detalladas. Esta IA creó una ola de herramientas similares, como Stable Diffusion y Midjourney, que están dando paso a nuevos caminos para la investigación en tratamientos contra el cáncer o la creación de nuevas vacunas. Los científicos están creando planos de nuevas proteínas para intentar que el organismo se comporte de manera diferente.
Expertos como David Baker, director del Instituto para el Diseño de Proteínas de la Universidad de Washington, en Seattle, lleva tres décadas generando proteínas diferentes a las 20 mil que manejan las funciones de nuestro organismo. La meta es crear nuevas proteínas que ayuden a combatir virus eficazmente o convertirse en nuevos tratamientos. Estas herramientas de IA pueden generar proteínas tridimensionalmente basadas en pequeños compuestos, con el ahorro de muchos años de trabajo por restricciones de diseño en el análisis de cantidades masivas de datos digitales.
Hace 68 años se acuñó el término inteligencia artificial. La inversión en IA en la última década ha pasado de 10 mil a más de 200 mil mdd. Se espera que para 2030 cerca del 70% de empresas en el mundo habrán adoptado algún tipo de tecnología de IA. Sin embargo, ante una nueva herramienta ligada a la IA, se reactiva la discusión sobre la legislación y límites de este tipo de instrumentos.
El terreno es complejo, pues los algoritmos se basan en conjuntos masivos de datos, cuya recopilación, procesamiento y almacenamiento a menudo viola los derechos de protección de información personal. Jenna Burrell, investigadora de la Universidad de California, ha identificado tres tipos de problemas con estos sistemas: los que se mantienen intencionalmente opacos, los que son consecuencia del analfabetismo técnico y los que surgen de las complejas características de los algoritmos de aprendizaje automático, que ni los programadores acaban de entender a cabalidad.
En la actualidad, no existe una legislación específica diseñada para regular el uso de la IA, pues estos sistemas se regulan por otras normativas existentes. Entre ellas, las leyes de protección de datos, de protección de los consumidores y de competencia en el mercado. Europa será la primera potencia mundial en tener su propia Ley sobre Inteligencia Artificial. El Informe sobre Inteligencia Artificial en la Era Digital ha marcado las líneas de esta legislación pionera.
Este año podría concretase la legislación propuesta por la Comisión de la UE, que no está basada en el tipo específico de sector o tecnología, sino en función del riesgo que afecta derechos fundamentales, como privacidad y no discriminación. El marco ético y jurídico tendrá que irse adaptando a los rápidos cambios de una tecnología que marca el rumbo en casi todas las áreas del desarrollo humano.
Revela estudio que las ranas hembra guiñan el ojo a los machos para coquetear
La especie protagonista de este sorprendente comportamiento es la Odorrana tormota, que habita en torrentes y ríos de gran caudal en China
Por Redacción
Alista OpenAI lanzamiento de su nuevo chatbot
Se espera que supere los límites en áreas críticas como la comprensión del contexto
Por Redacción
¿La inteligencia artificial representa un riesgo para la humanidad?
Un informe ordenado por el Departamento de Estado de EU aporta nuevos datos sobre el tema
Por Redacción
Inteligencia artificial en Chihuahua no llega aún al modelo ‘Big Brother’
Sí se pueden ver desplazamientos de autos gracias a placas y chip del Repuve, pero no hay aún base de datos disponible de todos los rostros, dice SSPE
Por Teófilo Alvarado