SOMOSMASS99
Agustín Ramírez Agundis*
Miércoles 3 de mayo de 2023
La discusión acerca de la pertinencia de continuar el desarrollo de los sistemas dotados de Inteligencia Artificial (IA) continúa y cada vez se vuelve más intensa. El pasado 22 de marzo, un grupo de prestigiados académicos, investigadores, desarrolladores de sistemas y empresarios del ramo publicaron un llamado para que las compañías que actualmente ocupan el liderazgo en la carrera por comercializar las denominadas máquinas con capacidad de aprendizaje y conversación, acuerden establecer una pausa en sus investigaciones por al menos seis meses.
A la fecha, casi 30 mil personas se han adherido a la solicitud. En su argumentación, los convocantes señalan [1]:
Los sistemas de IA dotados con inteligencia competitiva con la humana pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y ha sido reconocido por los principales laboratorios de IA. Como se establece en los Principios de IA de Asilomar [2], ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable.
Más adelante plantean una serie de interrogantes y establecen varias condicionantes:
Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los gratificantes? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, volvernos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema.
Luego de plasmar estas consideraciones, los convocantes cierran con el llamamiento:
Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.
Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.
La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales. Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA.
Sólo para ilustrar la escasa confiabilidad de estos sistemas, a continuación transcribo el resultado de una breve conversación que tuve con una computadora a través de ChatGPT en la que le planteé una petición sumamente simple:
ARA: Por favor, elabora una lista con los nombres de los directores de JUMAPA de Celaya.
ChatGPT: Lo siento, como modelo de lenguaje basado en texto, no tengo acceso a información en tiempo real y mi conocimiento se detiene en septiembre de 2021. Sin embargo, según mi base de datos, hasta esa fecha, algunos de los directores de JUMAPA (Junta Municipal de Agua Potable y Alcantarillado) de Celaya, Guanajuato, México, han sido:
1.-Alfredo Lona Eguía
2.-Juan José González Hernández
3.-Juan Manuel García López
4.-Carlos Arturo Medina Plascencia
5.-Francisco Javier Prieto Gallardo
6.-Salvador Pérez Godínez
Es posible que desde entonces haya habido un cambio en la dirección de JUMAPA de Celaya. Si necesitas información más actualizada, te sugiero que te pongas en contacto con las autoridades locales o consultes fuentes confiables en línea.
Evidentemente, la respuesta es totalmente incorrecta. Ninguno de los nombres proporcionados por ChatGPT corresponde a alguna persona que haya sido director de JUMAPA de Celaya, de modo que si alguien estuviera realizando una investigación o simplemente un trabajo de escuela correría el riesgo de que al tomar esa información como verídica obtendría pésimos resultados.
Para cerrar, reproduzco dos párrafos de un artículo publicado en el New York Times por el lingüista Noam Chomsky[3]:
A diferencia de ChatGPT y sus similares, la mente humana no es una pesada máquina estadística de comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la contestación más probable en una conversación o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que funciona con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones.
Por ejemplo, un niño pequeño que aprende un idioma está desarrollando (de manera inconsciente, automática y rápida a partir de datos minúsculos) una gramática, un sistema increíblemente sofisticado de principios y parámetros lógicos. Esta gramática puede entenderse como una expresión del “sistema operativo” innato, instalado en los genes, que dota a los seres humanos de la capacidad de generar frases complejas y largos hilos de pensamiento. Cuando los lingüistas intentan desarrollar una teoría de por qué una lengua determinada funciona como lo hace (“¿Por qué se consideran gramaticales estas frases y no aquellas?”), están construyendo consciente y laboriosamente una versión explícita de la gramática que el niño construye por instinto y con una exposición mínima a la información. El sistema operativo del niño es completamente distinto al de un programa de aprendizaje automático.
Notas:
[1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[2] Esta serie de 23 principios fueron acordados en agosto de 2017 en la Conferencia de Asilomar. https://futureoflife.org/open-letter/ai-principles/
[3] https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html
* Esta es una colaboración del Colectivo Miguel Hidalgo de Celaya, Guanajuato, al que pertenece el autor.
Foto de portada: Maximalfocus (@maximalfocus) / Unsplash.
0 Comentario