Sundar Pichai, director ejecutivo de la empresa matriz de Google, la multinacional Alphabet Inc., admitió que no «entiende completamente» cómo funciona Bard, el nuevo chatbot de la compañía.
En una entrevista al programa ’60 Minutos’ de CBS News, emitida el domingo, Pichai sostuvo que no comprende del todo el funcionamiento del nuevo programa de inteligencia artificial (IA) desarrollado por la compañía, después de que aprendiera un idioma extranjero, el bengalí, para el que no estaba capacitado y citó libros falsos para resolver un problema económico.
«Hay un aspecto de esto que llamamos […] una ‘caja negra’. Sabes, no lo entiendes del todo», reconoció Pichai. «Y no puedes decir por qué dijo esto, o por qué se equivocó. Tenemos algunas ideas, y nuestra capacidad para entender esto mejora con el tiempo. Pero ahí es donde está el estado del arte», agregó.
Su entrevistador, Scott Pelley, se sorprendió y respondió: «No entiende completamente cómo funciona. Y, sin embargo, ¿lo ha soltado a la sociedad?». «Sí. Déjame exponerlo de esta manera. Tampoco creo que entendamos completamente cómo funciona una mente humana», justificó Pichai.
Trabajar en la seguridad de la herramienta
Pichai indicó que Google está siendo responsable al no lanzar modelos avanzados de su chatbot, Bard, en parte, para que la sociedad pueda acostumbrarse a la tecnología y la compañía pueda desarrollar más capas de seguridad. Todo esto a pesar de que ChatGPT de OpenAI ha abierto una carrera para avanzar con las herramientas de IA a un ritmo mucho más rápido.
En este sentido, explicó que Bard ha incorporado filtros de seguridad para ayudar a combatir la amenaza de usuarios malintencionados. También enfatizó que la compañía necesitará actualizar constantemente los algoritmos del sistema para combatir las campañas de desinformación y detectar ultrafalsificaciones, imágenes generadas por computadora que parecen reales.
El CEO aseguró que el principio rector ‘No seas malvado’, establecido por los fundadores de Google, estaba destinado a garantizar que la empresa hiciera cosas buenas por el mundo y añadió que esta norma permanece en el código de conducta de Google.
Preguntado acerca de qué es lo que le quita el sueño en relación con la IA, Pichai señaló: «La urgencia de trabajar y desplegarla de manera beneficiosa. Pero al mismo tiempo, puede ser muy perjudicial si se implementa incorrectamente«.
La necesaria regulación
«Siempre he pensado en la IA como la tecnología más profunda en la que está trabajando la humanidad. Más profunda que el fuego o la electricidad o cualquier cosa que hayamos hecho en el pasado», comentó al periodista Scott Pelley. Esta «es una tecnología crítica que podría impactar en la seguridad nacional«, agregó.
Sin embargo, afirma, «tiene que haber una regulación». «Vas a necesitar leyes… tiene que haber consecuencias por crear videos ultrafalsos que causan daño a la sociedad«, sostuvo Pichai. «Cualquiera que haya trabajado con IA por un tiempo […] se da cuenta de que esto es algo tan diferente y tan profundo que necesitaríamos regulaciones sociales para pensar en cómo adaptarnos».
Fuente: RT