Para que la IA cumpla sus promesas, la gente debe confiar en ella

Análisis: Las nuevas herramientas de Google, Microsoft y otros suponen que la gente está dispuesta a confiar en la IA para que haga el trabajo pesado por ellos.

Si hay que creer en Google , Microsoft y OpenAI  , la inteligencia artificial va a renovar la forma en que trabajamos, nos comunicamos y, en general, usamos nuestros teléfonos y computadoras. 

Los tres gigantes tecnológicos celebraron eventos durante las últimas dos semanas plagados de demostraciones que ilustraban el papel de la IA en la configuración de nuestras interacciones con Internet. Pero hacer realidad estas visiones requiere la confianza del público en general. 

La industria tecnológica no ha tenido un historial tan bueno en ese departamento en los últimos años, como lo demuestran episodios como el escándalo de Cambridge Analytica de Meta y la controversia sobre el seguimiento de ubicación de Google . Estos casos han planteado preguntas e inquietudes sobre la prevalencia de las grandes tecnologías, su alcance en nuestras vidas y la forma en que estas empresas manejan la información de los consumidores. 

Ya existe cierta evidencia que sugiere que la gente es escéptica sobre la creciente presencia de la IA en nuestras vidas. Un estudio de Pew Research indica que la preocupación supera el entusiasmo cuando se trata del mayor uso de la inteligencia artificial para el 52% de los estadounidenses. Un informe de la Universidad de Bentley y la firma asesora Gallup indica que el 79% de los estadounidenses  no confía en que las empresas utilicen la IA de manera responsable . 

Ganarse y mantener la confianza debe ser esencial para empresas como Google, Microsoft y OpenAI, entre otras. La forma en que la gente adopte estas nuevas herramientas de IA podría determinar quiénes serán los ganadores y perdedores del próximo gran cambio en la informática.  

«Todo este progreso podría verse disminuido si no se pueden mitigar suficientemente los riesgos y hacer que la IA sea confiable para los seres humanos», dijo Arun Chandrasekaran, analista de Gartner especializado en inteligencia artificial y computación en la nube.

Google, Microsoft y OpenAI mostraron avances significativos en sus sistemas de inteligencia artificial durante las últimas dos semanas, lo que subraya lo rápido que está evolucionando la tecnología. 

El asistente Gemini de Google fue la estrella de su conferencia Google I/O la semana pasada. Gemini se vuelve más conversacional con un nuevo modo llamado Gemini Live , una versión más conversacional de su asistente de voz para quienes se suscriben a Gemini Advanced. También podrá planificar itinerarios de viaje personalizados para usted y responder preguntas más específicas sobre lo que está haciendo en su teléfono . El modelo Gemini Nano de Google puede escuchar llamadas telefónicas y monitorearlas en busca de posibles fraudes en tiempo real mediante el procesamiento en el dispositivo. 

Pero Alphabet y el director ejecutivo de Google, Sundar Pichai, mostraron cómo podría ser la próxima versión de ayudantes de IA. Proporcionó un ejemplo de cómo un agente de AI algún día podría devolver un par de zapatos en su nombre al encontrar el número de pedido en su correo electrónico, completar el formulario de devolución y programar una recogida en UPS. Es un ejemplo inofensivo, pero que insinúa un futuro en el que los agentes de IA harán mucho más que simplemente responder preguntas.

Agentes de IA de Géminis en la pantalla de Google.
El director ejecutivo de Google, Sundar Pichai, habló sobre la visión de la empresa para los agentes de IA en Google I/O. Captura de pantalla/James Martin/CNET

El 20 de mayo, justo antes de su conferencia Build, Microsoft anunció una nueva clase de computadoras impulsadas por inteligencia artificial llamadas Copilot Plus PC . Estas computadoras están construidas según una determinada especificación para manejar el procesamiento de algoritmos de IA en el dispositivo sin depender de la nube. 

Un ejemplo de una nueva característica que es posible en estas PC es Recall, que toma instantáneas del escritorio de su PC para que pueda revisar lo que ha hecho si es necesario. La función se está posicionando como una forma más fácil de encontrar archivos, aplicaciones y sitios web que ha navegado recientemente sin tener que buscar en el contenido manualmente, y el procesamiento se realiza en el dispositivo. Puede evitar que se registren ciertas aplicaciones y sitios web, y Microsoft dice que usted » siempre tiene el control «.

OpenAI celebró su propio evento de lanzamiento de producto el 13 de mayo para presentar su último modelo insignia, GPT-4o. Entre lo más destacado estaba la voz humana de ChatGPT, que muchos compararon con la actriz Scarlett Johansson. OpenAI finalmente retiró la voz de ChatGPT sobre las similitudes, diciendo que  el parecido no era intencional . En respuesta, informó NPR,  Johansson expresó su preocupación y emprendió acciones legales contra OpenAI. OpenAI también mostró cómo el chatbot puede ayudar con problemas matemáticos y de codificación e interpretar videos además del habla. 

grabación-de-eventos-openai-13-mayo-2024-09-56-17-am-00-01-00-20-still006
OpenAI anunció GPT-4o durante un evento el 13 de mayo. Abierto AI

El hilo común entre estos desarrollos es que son más proactivos y naturales que las herramientas tecnológicas que hemos estado usando durante años. Funciones como Recall y la detección de spam en tiempo real de Google tienen como objetivo anticipar nuestras necesidades, mientras que la versión mejorada de ChatGPT de OpenAI y el asistente Gemini de Google apuntan a un futuro en el que los robots de IA se sentirán más como compañeros de trabajo amigables o compradores personales que como máquinas de preguntas y respuestas. 

La idea de confiar en la IA para devolver una compra, monitorear una llamada telefónica o ayudar con la tarea puede parecer exagerada. Después de todo, a la mayoría de las personas ni siquiera les gusta interactuar con menús automatizados de servicio al cliente, como señala una encuesta de The Conversation , que encontró que las personas normalmente intentan evitar a los agentes automatizados para hablar con un ser humano real. 

Los chatbots más nuevos como ChatGPT y Gemini son mucho más avanzados que los menús telefónicos automatizados a los que estamos acostumbrados. Pero estas nuevas herramientas todavía suponen que las personas están dispuestas a confiar en la tecnología para hacer las cosas en su nombre. 

Mohsen Bayati, profesor de operaciones, información y tecnología en la Escuela de Graduados en Negocios de Stanford, cree que la gente estará dispuesta a adoptar estas herramientas siempre que tengan algún tipo de voz, como aprobar una transacción antes de que finalice. 

«Estaría muy preocupado por aquellas aplicaciones que buscan una automatización total», dijo, y agregó que poder tener al usuario como «el último árbitro en ese ciclo» probablemente reduciría muchas preocupaciones sobre la confiabilidad. 

Ese es un punto importante porque, por muy sofisticados que sean estos sistemas de IA, no están exentos de defectos. Son propensos a sufrir alucinaciones, lo que puede dar lugar a respuestas poco fiables , y ha habido preocupaciones sobre si están obteniendo información de forma precisa y adecuada. 

Gemini de Google fue objeto de escrutinio a principios de este año por producir imágenes históricamente inexactas . Más recientemente, sus nuevos resúmenes generados por IA que aparecen encima de los resultados de búsqueda, llamados AI Overviews, fueron criticados por mostrar respuestas falsas, como señalaron los usuarios en las redes sociales . En un ejemplo particularmente notorio, AI Overview de Google sugirió poner pegamento en la pizza para evitar que el queso se resbalara. 

Una captura de pantalla de una respuesta de la descripción general de IA de Google
La función Google AI Overviews proporciona instantáneas escritas por IA destinadas a responder a su pregunta de forma rápida y conversacional. Pero no siempre son correctas. Captura de pantalla de Lisa Eadicicco/CNET

En una declaración proporcionada a CNET, un portavoz de Google dijo que los ejemplos que la compañía ha visto son «consultas generalmente muy poco comunes» y «no son representativos de las experiencias de la mayoría de las personas». Añadió que «la gran mayoría de las descripciones generales de IA proporcionan información de alta calidad».

«Realizamos pruebas exhaustivas antes de lanzar esta nueva experiencia y utilizaremos estos ejemplos aislados a medida que continuamos perfeccionando nuestros sistemas en general». decía el comunicado. 

Múltiples periódicos y medios de noticias digitales , incluido The New York Times , han presentado demandas contra OpenAI y su socio Microsoft, por utilizar material protegido por derechos de autor con fines de capacitación. 

OpenAI también disolvió recientemente su equipo de superalineación, como informaron Wired y otros medios de comunicación, y en cambio está integrando ese trabajo en otras partes de la empresa. El equipo de superalineación, que OpenAI anunció el año pasado , se creó para garantizar que los sistemas de IA súper avanzados se desarrollen de forma segura. 

El director ejecutivo de OpenAI, Sam Altman, y el presidente, Greg Brockman, publicaron una nota en X explicando su enfoque de seguridad y la estrategia general de la compañía en X en respuesta a los cambios. «Creemos tanto en lograr grandes beneficios como en trabajar para mitigar los riesgos graves; tomamos nuestro papel aquí muy en serio y sopesamos cuidadosamente la retroalimentación sobre nuestras acciones», se lee en la nota. 

Google y Microsoft también han expresado su opinión sobre sus esfuerzos de seguridad y su enfoque para crear productos de inteligencia artificial de manera responsable. Google reforzó sus principios de IA durante su conferencia I/O, que incluyen pruebas de seguridad, ser responsable ante las personas, evitar crear o reforzar prejuicios injustos y ser socialmente beneficioso, entre otros. La página de IA responsable de Microsoft establece valores similares, como equidad, inclusión, transparencia, confiabilidad y seguridad. 

Pero a menudo, los problemas sociales más importantes que surgen de los avances tecnológicos (como el impacto de las redes sociales en la salud mental , especialmente en los jóvenes ) sólo se vuelven evidentes en retrospectiva. 

«Hasta que veamos eventos que atraigan la atención del público sobre el tipo de datos que compartimos y cómo esas empresas están usando nuestros datos, entonces la gente prestará atención», dijo Hanan Hibshi, profesor asistente del Instituto de Redes de Información de la Universidad Carnegie Mellon. . 

evento-microsoft-5-20-24-20-mayo-2024-02-00-39-pm-00-08-21-09-still001
Microsoft hizo un gran esfuerzo para integrar más IA en las PC durante su conferencia Build. microsoft

Hacer esto bien es fundamental para las empresas de tecnología, considerando que la IA se vende como un cambio importante en la informática personal. Durante los últimos 10 años, la industria tecnológica ha estado buscando su próximo momento iPhone, o el próximo gran avance que cambiará nuestra relación con la tecnología como lo hizo el teléfono inteligente. Durante la última década, han surgido diferentes ideas sobre cómo podría verse eso, desde auriculares de realidad virtual hasta parlantes y relojes inteligentes.

Pero la abrumadora popularidad de ChatGPT tras su lanzamiento a finales de 2022 fue un momento decisivo. Las nuevas tecnologías pueden tardar un tiempo en ponerse de moda, tal como lo hizo el reloj inteligente, pero no pasó mucho tiempo antes de que la IA generativa llegara a todo, desde los teléfonos inteligentes hasta las PC. 

Es posible que aún esté en debate si estamos preparados para confiar en la IA. Pero eventualmente, a medida que la IA se vuelve más crítica para las tareas diarias, esas preocupaciones pueden pasar a un segundo plano frente a los beneficios. Robert Seamans, profesor de la Escuela de Negocios Stern de la Universidad de Nueva York, lo compara con ingresar información de tarjetas de crédito en línea. Si bien es posible que la gente hubiera dudado en hacerlo hace aproximadamente 25 años, muchos lo adoptan como la norma hoy y están dispuestos a aceptar cierto nivel de riesgo.

«Tal vez imaginemos formas en que la tecnología podría salir mal, o que nuestra interacción con ella podría salir mal», dijo. «Pero creo que una vez que más y más personas comiencen a usarlo, [y] una vez que nosotros mismos comencemos a usarlo, creo que muy rápidamente esos temores desaparecerán».

Fuente: cnet.com