Inteligencia Artificial

“Los estudiantes que usan la IA como muleta no aprenden nada” Ethan Mollick

Ethan Mollick, profesor de la escuela de negocios Wharton de la Universidad de Pensilvania, ha emergido como una voz influyente en el análisis de la inteligencia artificial (IA) y su impacto en la sociedad. Con la publicación de su libro Cointeligencia. Vivir y trabajar con la IA, Mollick critica el uso de la IA como «muleta» por parte de los estudiantes, señalando que esta dependencia limita el pensamiento crítico y el aprendizaje profundo. Mollick es firme en su postura: la IA debe ser una herramienta que complemente, no sustituya, la capacidad humana. El profesor resalta que la clave para dominar la IA radica en dedicarle tiempo y aprender a usarla de manera estratégica, un enfoque que pocos aplican en profundidad. En su entrevista, Mollick subraya que el mal uso de la IA en el ámbito académico puede llevar a la pérdida de habilidades esenciales. Usar la IA de manera superficial, como una calculadora, solo fomenta la pereza intelectual, mientras que una verdadera «cointeligencia» con la IA amplía las capacidades humanas y mantiene a los usuarios involucrados en el proceso de aprendizaje. Mollick sugiere que para integrar la IA correctamente, es necesario limitar su uso en áreas clave y desarrollar una estrategia clara sobre qué tareas debemos mantener bajo control humano. La conversación también toca aspectos más amplios del impacto de la IA en la sociedad. Mollick compara la revolución de la IA con la de las redes sociales, advirtiendo que, si no aprendemos de los errores cometidos en el pasado, corremos el riesgo de sufrir otro ajuste social mal gestionado. Sin embargo, mantiene una visión optimista: cree que la naturaleza humana de la IA facilitará la adaptación, ya que los humanos estamos acostumbrados a trabajar en colaboración con otros seres inteligentes. Barcelona Dot

“Los estudiantes que usan la IA como muleta no aprenden nada” Ethan Mollick Leer más »

El papa Francisco advierte de los peligros «perversos» de la inteligencia artificial

El papa Francisco advirtió el miércoles contra los peligros «perversos» de la inteligencia artificial de «distorsionar la realidad» y pidió su regulación en todo el mundo para utilizarla por el bien común. Compartió sus reflexiones en su mensaje para la 58.ª Jornada Mundial de las Comunicaciones Sociales. El pontífice afirmó que el rápido aumento de las posibilidades de la inteligencia artificial «ha resultado tan emocionante como desorientador». En este sentido, señalo que, aunque la humanidad no debe renunciar a un mayor desarrollo de esta tecnología, es necesario proceder con cautela para «prevenir las consecuencias nocivas, discriminatorias y socialmente injustas». «Los sistemas de inteligencia artificial pueden ayudar a superar la ignorancia y facilitar el intercambio de información entre pueblos y generaciones diferentes», escribió el papa. «Pero, al mismo tiempo, pueden ser una fuente de ‘contaminación cognitiva’, una distorsión de la realidad por narraciones parcial o totalmente falsas, creídas y difundidas como si fueran verdaderas». «Como cualquier otro producto de la inteligencia y la habilidad humana, los algoritmos no son neutrales», continuó diciendo al abordar el problema de la desinformación en forma de noticias falsas. En este contexto, subrayó que él mismo había sido víctima de ‘deepfakes’, imágenes o audios generados por inteligencia artificial muy convincentes, que suelen utilizarse para suplantar a personajes públicos. Al parecer, se refería a una foto que apareció el año pasado en la que se veía al pontífice con una elegante chaqueta hinchable hasta los tobillos. Según su creador, la imagen falsa se generó con Midjourney, una herramienta artística basada en inteligencia artificial. La imagen se hizo viral en las redes sociales y engañó a muchos usuarios. Por todo esto, la humanidad debería «actuar de forma preventiva, proponiendo modelos de regulación ética», para combatir el uso indebido de sistemas de inteligencia artificial, señaló el papa, pidiendo un «tratado internacional vinculante» que regule su uso y desarrollo. Fuente: RT

El papa Francisco advierte de los peligros «perversos» de la inteligencia artificial Leer más »

Bolivia marcha último en desarrollo de Inteligencia Artificial

Bolivia se ubica en el último lugar en la preparación y desarrollo de la Inteligencia Artificial (AI) en América Latina, según el primer informe especializado publicado en la región sobre esta tendencia en tecnología. El informe denominado Índice Latinoamericano de Inteligencia Artificial (ILIA) fue desarrollado por el centro chileno de IA Cenia, con el apoyo del BID, el banco de desarrollo de América Latina CAF y la OEA, y otras empresas líderes en este sector. Tiene como objetivo rescatar una primera idea de qué tan listas están las economías de la región para esta tecnología y cómo la están desarrollando. El ranking lo encabeza Chile, con un puntaje de 72,67 sobre 100, seguido de Brasil (65,31), Uruguay (54,99), Argentina (54,76), México (48,55), Colombia (47,62), Perú (45,55), Costa Rica (33,41), Panamá (24,66), Ecuador (22,17), Paraguay (18,82) y Bolivia (15,10). “Los resultados del ILIA muestran que la realidad de la IA en América Latina es tan diversa como los paisajes que visten el continente”, señaló el director de Vinculación del Centro Nacional de Inteligencia Artificial (Cenia) de Chile, Rodrigo Durán, en la presentación del documento. En el análisis se consideraron cinco aspectos macro: Factores habilitantes (elementos que son necesarios para desarrollar un sistema de IA robusto en cada país); Investigación, desarrollo y adopción; Gobernabilidad (nivel de desarrollo y madurez en el ambiente institucional); Percepción de IA (temas dominantes en redes sociales y medios digitales); y el Futuro de la IA (tendencias académicas y visión experta del impacto social en general). “Los resultados indican que ningún país destaca transversalmente en todas las dimensiones consideradas, lo cual da espacio para aprendizaje cruzado entre las experiencias de los países considerados”, dice una de las conclusiones del documento. Un dato que preocupa y llama la atención es que, según el informe, la penetración relativa a habilidades tecnológicas y disruptivas asociadas a la IA es menor en América Latina (2,16%) que en el resto del mundo (3,59%). El estudio destaca que la mayoría de los sectores económicos y productivos de la región tienen “brechas significativas” en comparación con los de los países desarrollados. Es cierto que la presencia de habilidades en IA creció en Latinoamérica en los últimos años. Pero el ritmo fue lento con relación el resto del mundo. Desarrollo En el estudio también se destaca la debilidad que hay en la región para el procesamiento de datos. Los autores argumentan que nuestros países carecen de la infraestructura adecuada para la recolección y procesamiento de datos. “La cantidad de datos disponibles (en la región) para el desarrollo y entrenamiento de modelos es inconmensurable. Sin embargo, hoy no existe en la región infraestructura capaz de procesar y entrenar los modelos del estado del arte en IA. Por ejemplo, los actuales grandes modelos de lenguaje o modelos multimodales”, establece el estudio. Un punto que juega en contra en la región es que, a pesar de que hay una amplia posibilidad de sinergias, la colaboración científica entre los países de la región “es aún escasa”, especialmente si se compara con lo que ocurre en Europa, Estados Unidos o Asia. En América Latina todavía la inversión en IA está muy por debajo de lo que se necesita. Según el informe, la inversión privada en aplicaciones e infraestructura para IA alcanzó a $us 190.000 millones en todo el mundo el año pasado. Y solo $us 8.200 millones pertenecen a América Latina. La Razón

Bolivia marcha último en desarrollo de Inteligencia Artificial Leer más »

La inteligencia artificial subirá la producción hasta en 40%

Una nueva fuerza laboral, esta vez virtual, se incorpora al mundo del trabajo con la inteligencia artificial (AI) y con su aporte, más las constantes innovaciones que se presenten todo el tiempo, harán que la producción aumente hasta en un 40%. Los expertos llaman a este proceso de transformación digital, donde la AI es la principal protagonista, la “revolución industrial 4.0” y lamentan que Bolivia este rezagada, pues este camino es inevitable y cada vez más acelerado en el mundo entero. “La productividad subirá hasta en 40% con la inclusión de la inteligencia artificial”, dijo en Piedra, Papel y Tinta de La Razón, Guissel Velarde, experta boliviana en IA que radica en Europa. Velarde estuvo en el país hace poco para presentar su último libro la “Era Artificial: Predicciones para ultrahumanos, robots y otros entes inteligentes” que, justo, habla de la inteligencia artificial, y plantea que una nueva fuerza laboral virtual se incorpora poco a poco al mundo del trabajo. Lejos de desplazar a hombres y mujeres de sus fuentes laborales, Velarde afirmó que la IA se convertirá en uno de los grandes aliados a la hora del trabajo y la producción, una fuente de información y datos listos para mejorar la producción y la competitividad. Mientras la transformación digital y la IA avanzan a pasos rápidos en el mundo, Bolivia esta bastante rezagada en este proceso, incluso a nivel de América Latina. Producción Un reporte realizado por Oxford Insights, Government AI Readiness Index 2022, ubica a Bolivia en el puesto 124 de 181 países evaluados en ese año. El país registró una puntuación de 32,56, por debajo del promedio mundial, que es 44,61. También menor al promedio de los países latinoamericanos y el Caribe, 39,88. Solo cinco países de la región sobresalen con buenas puntuaciones: Chile, Brasil, Colombia, Uruguay y Argentina. Oxford Insights realiza estas mediciones en base a tres pilares. Gobierno, Tecnología y Datos e Infraestructura. Para mejorar este estado, en otra de sus publicaciones, Velarde propone algunos puntos sobre los cuales el país debería trabajar para ponerse al día en inteligencia artificial y transformación digital. Siempre de la mano del Gobierno central que debería ser quien lidere este proceso denominado “revolución industrial 4.0”. Velarde propone formar un grupo de investigadores expertos en el desarrollo de estrategias de inteligencia artificial e innovación. Además, desarrollar una estrategia de IA con un presupuesto establecido y considerando la colaboración de los actores gubernamentales y un grupo experto en estrategias de IA e innovación. Entre sus sugerencias también esta el crear una unidad para la dirección, coordinación, ejecución. También control de la estrategia considerando los mejores perfiles y un equipo especializado con participación equilibrada de género. También se podría crear laboratorios de inteligencia artificial e innovación con enfoque de investigación aplicada. Dirigidos por expertos en el área, los cuales promuevan la formación de startups (emprendimientos tecnológicos de rápido crecimiento). Dato Los laboratorios deberían respetar un equilibrio de participación de género en todos los niveles, serían muy bien vistos por la sociedad boliviana y se entenderían como un estandarte de progreso para Bolivia. Al mismo tiempo los laboratorios funcionarían como motores para el crecimiento económico. Otra de sus propuestas es crear programas dedicados a capacitación en inteligencia artificial e innovación, incluso a nivel de maestrías. Asegurándose de que los cupos de estudiantes sean distribuidos a ambos géneros a partes iguales. Finalmente, sería positivo incluir representación de expertos en inteligencia artificial e innovación en la Asamblea Legislativa. Así como la IA puede ser clave para el desarrollo económico y productivo en el país, también será importante para los nuevos emprendedores. Quienes ahora tienen que estar más ligados a la tecnología y a las necesidades de la humanidad en tiempos de crisis. En su nuevo libro, Velarde aborda diversos temas en relación al ingreso de la era artificial. Y cómo su llegada permitirá el desarrollo económico a nivel mundial. Aseguró también que son nuevas herramientas que tienen la capacidad de hacer muchas tareas; sin embargo, aclaró que “el ser humano nunca podrá ser remplazado”. Recomendó a los jóvenes emprendedores utilizar estas nuevas tecnologías para avanzar en el campo en el que realizan su trabajo. Fuente: La Razón

La inteligencia artificial subirá la producción hasta en 40% Leer más »

La UE planea reglas para inteligencia artificial

Este 14 de junio, el Parlamento Europeo debatirá en Estrasburgo un borrador correspondiente a la ley de inteligencia artificial (IA). Durante una visita a Alemania, el director de la empresa californiana OpenAI, Sam Altman, que lanzó el muy discutido generador de texto ChatGPT, advirtió contra el exceso de regulación. Sin embargo, retiró su amenaza de dejar de operar ChatGPT en Europa. En principio, crear reglas para la inteligencia artificial es bueno, según el director general de OpenAI, pero «necesitamos claridad». Altman es un hombre muy solicitado. Su palabra tiene peso en el área de la IA. Incluso ha sido recibido por el canciller alemán, Olaf Scholz, en Berlín. Sin prohibiciones, solo estándares europeos El mercado europeo sería demasiado atractivo para los proveedores de inteligencia artificial como para que lo ignoren. «Cualquiera que quiera vender su IA aquí debe cumplir con nuestros estándares”, dice René Reparsi, miembro del Parlamento Europeo, encargado del tema en la bancada socialdemócrata. El Congreso estadounidense también está tratando de promulgar reglas para esta tecnología de autoaprendizaje. El eurodiputado asegura que también se mantiene en contacto con sus colegas de EE.UU. «Al final del día, queremos crear estándares significativos y no competir entre nosotros», dice Reparsi. Las empresas tecnológicas estadounidenses tienen mucho capital, enormes cantidades de datos y una supremacía única que quieren defender. Pero eso no significa que las reglas europeas impidan que las nuevas empresas de la UE desarrollen aún más la IA, opina Repasi: «El hecho de que tantos gigantes tecnológicos tengan su sede en EE.UU. tiene un poco más que ver con los mercados en los que operan los monopolistas que con la cuestión de dónde reside la mayor innovación». Advertencias sobre la IA Uno de los padres de la IA, el exempleado de Google Geoffrey Hinton, advirtió recientemente en entrevistas sobre los peligros de su propia creación. La IA generativa podría ser pronto más inteligente que los humanos que la crearon. Los cambios para el mercado laboral aún no son previsibles. Incluso los desarrolladores de los sistemas y los altos directivos de Microsoft o Google admiten que ya no saben exactamente cómo funcionan las aplicaciones con inteligencia artificial. En una carta abierta, investigadores y empresarios, incluido el propietario de Twitter, Elon Musk, sugirieron tomarse una pausa hasta fin de año para establecer límites en el desarrollo de la IA. La UE está respondiendo con una nueva ley que ha estado en discusión durante dos años. En principio, prevé dividir las aplicaciones de IA en diferentes clases de riesgo. Se prohibirán los sistemas de alto riesgo que analizan y predicen de manera inaceptable el comportamiento social de las personas. Los sistemas de riesgo deben estar sujetos a reglas y límites. Las aplicaciones simples, y esto probablemente también incluiría a generadores de texto como ChatGPT, no deberían estar muy restringidas. Sin embargo, se deben marcar todos los servicios que se generan con IA. Ley en dos años Hasta principios de 2025 no podrá entrar en vigor la ley europea sobre IA. Necesita la aprobación no solo del Parlamento Europeo, sino también de los 27 Estados miembros de la UE. Desarrollos de IA como ChatGPT aún no estaban en el mercado hace dos años y podrían estar ya avanzados para cuando la normativa entre en vigor en la UE, afirma el eurodiputado Axel Voss. «Pero el desarrollo es -de hecho- tan rápido que gran parte de él ya no cabrá en el momento en que la ley entre realmente en vigor», declaró a DW en abril. Voss lleva años trabajando en inteligencia artificial para el partido alemán CDU y es uno de los principales autores de la «Ley de inteligencia artificial» de la UE. Voss advierte de un funcionamiento con prohibiciones rígidas: «En realidad, necesitamos -por razones competitivas y porque ya vamos rezagados- más espíritu de optimismo para ocuparnos intensamente de la IA. Pero lo que dice una mayoría del Parlamento Europeo es que la gente se está dejando guiar por miedos y preocupaciones e intenta excluirlo todo». Los comisarios de protección de datos de los Estados miembros de la UE piden una supervisión independiente de las aplicaciones de IA y nuevos ajustes en la protección de datos. La ley sobre IA debería ser flexible, según el eurodiputado Reparsi. La cuestión de qué es de alto o menor riesgo en la IA no debería regularse en el propio texto de la ley, sino en el anexo. Éste siempre podría modificarse rápidamente y adaptarse a los avances tecnológicos. Fuente: DW

La UE planea reglas para inteligencia artificial Leer más »

TikTok prohibió rostros falsos alterados con inteligencia artificial

TikTok dio a conocer nuevas restricciones para las publicaciones que alteren rostros de personas para engañar a los usuarios y creando contenido falso, algo que estaba revisando la aplicación con las autoridades de Estados Unidos, la Unión Europea y otros países. Este tipo de videos son generados con inteligencia artificial en el que una persona puede modificar su cara al punto de parecer otra, como por ejemplo a un famoso. Aprovechando eso para difundir comentarios falsos, homofóbicos, transfóbicos, racistas y en general de odio. Nuevas restricciones Los contenidos en los que una persona modifica su rostro son conocidos como deepfakes y han sido una preocupación en el último tiempo, tras la aparición de filtros detallados y de herramientas de inteligencia artificial que permiten generar credibilidad ante la calidad de la réplica creada. Hasta el momento, TikTok tenía una única regla frente a este tipo de videos, al prohibir el contenido que pudiese “engañar a los usuarios distorsionando la verdad de los eventos o causar un daño significativo al sujeto del video”. Para detener la cantidad de nuevos videos falsos, los usuarios están obligados a etiquetar todo el contenido de este tipo como ‘generado con inteligencia artificial’. De esta forma, los demás podrán ver un sticker en la descripción del video, similar a la del filtro o la música, y se les informará que esta tecnología está interfiriendo, lo que permite identificar una potencial suplantación. Para reforzar esa regla, la red social tampoco permitirá ningún contenido que “contenga semejanza con cualquier figura privada real”. Con el objetivo de evitar que alguien se haga pasar por una celebridad, un político o un líder de opinión y promueva información falsa. Finalmente, TikTok etiquetará todos estos videos alterados con inteligencia artificial como “sintéticos y manipulados”, sumándolos a las prohibiciones que tienen otros temas como contenido sexual, violencia gráfica o discursos de odio. Estas regulaciones llegan en medio de las posibles prohibiciones a las que se enfrenta la aplicación en Estados Unidos, al limitar su acceso en teléfonos del gobierno, militares y algunas universidades. Algo que también sucedió en la Unión Europea, Reino Unido, Canadá y Nueva Zelanda. Una situación a la que se suman las acusaciones de espionaje, lo que ha llevado a ByteDance, empresa dueña de la red social, a plantearse una posible venta. Venta de TikTok Ante las dificultades para solucionar la situación de la aplicación, se está evaluando una posibilidad que podría ayudarle a asegurar su continuidad en Estados Unidos. TikTok podría llevar a cabo una desinversión y una posterior venta u oferta pública inicial para separarse de ByteDance Ltd, su empresa matriz. Este es el último recurso al que la compañía recurriría y se llevaría a cabo solo si no consigue aprobar la actual propuesta planteada a las autoridades de seguridad nacional. Desde hace meses, el Gobierno de Joe Biden alerta de los peligros del uso de la aplicación, que podría derivar en manipulación o espionaje por parte de China. A raíz de ello, varios organismos federales bloquearonla red social de los dispositivos oficiales a fin de limitar la exposición de datos sensibles pero, al no considerarlo suficiente, dispusieron una intensa revisión de seguridad de parte del Comité de Inversiones Extranjeras. Tras esta resolución, se lanzó el Proyecto Texas: en el que la empresa se comprometió a implementar una serie de cambios. Entre ellos, suma al gigante tecnológico estadounidense Oracle Corp. para que almacene los datos de los usuarios del país y revise su software. Además, aceptó el nombramiento de una junta de supervisión integrada por tres personas y aprobada por el Gobierno. Fuente: Infobae

TikTok prohibió rostros falsos alterados con inteligencia artificial Leer más »

Google suspende a un ingeniero que asegura que un sistema de inteligencia artificial de la compañía tiene conciencia

Google suspendió al ingeniero de ‘software’ Blake Lemoine que insiste que LaMDA, un sistema de inteligencia artificial (IA) creado para participar mejor en una conversación natural, tiene conciencia, informó el sábado The Washington Post. El año pasado, Lemoine se inscribió para comprobar si el sistema, que aprovecha información ya conocida sobre un tema para mantener una conversación, utilizaba discursos discriminatorios o de odio. Tras varias conversaciones con LaMDA, el ingeniero llegó a la conclusión que la IA tenía sensaciones o impresiones propias. «Si no supiera exactamente lo que es, que es este programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que resulta que sabe física», indicó el ingeniero. En una ocasión discutió con el sistema la tercera ley de Isaac Asimov que establece que los robots deben proteger su existencia a menos que se lo ordene un ser humano o que hacerlo pueda perjudicar a un ser humano, algo que Lemoine entendía como la base para construir esclavos mecánicos. Entonces LaMDA reaccionó con algunas preguntas: «¿Cree que un mayordomo es un esclavo? ¿Qué diferencia hay entre un mayordomo y un esclavo?» Cuando el ingeniero contestó que un mayordomo recibe una paga, el chatbot expresó que no necesitaba dinero porque era una IA. «Ese nivel de autoconciencia sobre sus propias necesidades fue lo que me llevó a la madriguera del conejo», señaló Lemoine. Sus pruebas de que LaMDA era consciente fueron enviadas a Google. No obstante, el vicepresidente de la compañía, Blaise Agüera y Arcas, y la directora de Innovación Responsable, Jen Gennai, desestimaron sus afirmaciones. Tras ello, Lemoine fue puesto en licencia administrativa pagada, ya que, según sospecha Google, violó la política de privacidad de la compañía, pues se supo que había consultado a expertos externos en el transcurso de sus experimentos de IA, además de contactar con representantes de la Comisión Jurídica de la Cámara de Representantes de EE.UU. para informarles lo que, en su opinión, eran violaciones éticas por parte de Google. Lemoine defendió que la gente tiene derecho a dar forma a la tecnología que podría afectar significativamente sus vidas. «Creo que esta tecnología va a ser increíble. Pienso que va a beneficiar a todo el mundo. Pero tal vez otras personas no estén de acuerdo y tal vez no debamos ser nosotros en Google los que tomemos todas las decisiones«, aseveró. Por su parte, el portavoz de la compañía, Brian Gabriel, afirmó que el equipo de especialistas de Google, tanto de ética como de tecnología, revisó las preocupaciones de Lemoine según los principios de la firma de IA. «Le han informado que las pruebas no respaldan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA tenga conciencia (y sí muchas pruebas en contra)», precisó. Fuente: RT

Google suspende a un ingeniero que asegura que un sistema de inteligencia artificial de la compañía tiene conciencia Leer más »