Skip To Content
ADVERTISEMENT

Mensaje de la Presidenta

La inteligencia artificial se ha definido en broma como “el arte de hacer que los ordenadores se comporten como los de las películas”. Según esa definición, ChatGPT, la herramienta de procesamiento de lenguaje natural de OpenAI que se lanzó el 30 de noviembre de 2022, podría ser el mayor éxito de la IA hasta la fecha. Aunque debutó hace solo seis meses, el chatbot ya es una especie de estrella de cine. Ha sido entrevistado por periodistas, ha demostrado habilidades que van desde escribir código de software a componer poesía, y ha logrado un nivel de diálogo fácil con los humanos que recuerda al útil ordenador multiusos de Viaje a las Estrellas (Star Trek).

Es fácil ver cómo los modelos generativos de IA como ChatGPT, y la IA en sentido más amplio, podrían ser una fuerza para el progreso de la ciencia y la sociedad. El aprendizaje profundo y otras técnicas de IA ya están revolucionando la forma de hacer ciencia e ingeniería, en tareas que van desde el reconocimiento y análisis de imágenes hasta el diseño de redes ópticas. En un plano más mundano, cualquiera que haya sudado la gota gorda en la difícil tarea de redactar los resultados de su investigación podría agradecer la ayuda de una herramienta como ChatGPT. Se ha observado que esta ayuda podría incluso allanar el terreno para la publicación de investigaciones de autores cuya lengua materna no es el inglés. Sería, sin duda, un resultado positivo para el mundo.

Sin embargo, como ocurre con cualquier tecnología emergente, los recientes avances en IA también han generado temores y nuevos dilemas. Incluso en el estrecho ámbito de la comunicación científica, nuestra comunidad está luchando con algunas implicaciones prácticas y éticas de ChatGPT y sus primos. Por ejemplo, cómo revelar la contribución de un sistema de IA a los resultados, el texto y las imágenes de un artículo; si una herramienta de IA puede figurar como autor; cómo vigilar posibles fraudes y abusos; y si esa vigilancia es siquiera posible. Además, algunos han sugerido que estas tecnologías suscitan una mayor preocupación por la desinformación desenfrenada —incorporada en vehículos impulsados por la IA como los videos “deep fake”— que podría erosionar la confianza y dividir a la sociedad.

Creo que debemos tomarnos en serio estas preocupaciones. Pero también debemos reconocer que ya hemos estado aquí antes. Todas las tecnologías transformadoras son potencialmente de doble filo, y su impacto depende de lo que los seres humanos decidan hacer con ellas. La Internet global, nacida hace 40 años, ha reconfigurado desde entonces por completo la forma en que nos comunicamos, obtenemos información e impulsamos el progreso humano. No hay duda de que, en algunos casos, ha sido una poderosa herramienta para difundir desinformación y permitir la represión política. Pero la inmensa mayoría de los cambios que ha traído Internet han sido para bien, y pocos querrían volver a la era anterior a Internet— incluso si eso fuera posible.

Algunos creen ahora que las tecnologías de la IA tienen el potencial de provocar una perturbación similar (o mayor) a escala de Internet. Sería inútil intentar alejar esa perturbación. En su lugar, tenemos que encontrar la mejor manera de aprovechar estas tecnologías para la ciencia y el progreso humano, al tiempo que nos aseguramos de que no se conviertan en destructivas. Para lograrlo, será necesario un tipo de inteligencia diferente, muy humana— que implique un diálogo permanente entre científicos, gobiernos, industria y la sociedad en general. Es un reto que todos debemos aceptar.

—Michal Lipson,
Presidenta de Optica

Add a Comment