Preocupaciones de que la inteligencia artificial pueda hacer que las personas se comuniquen con robots más que con humanos

Preocupaciones de que la inteligencia artificial pueda hacer que las personas se comuniquen con robots más que con humanos

Socializar con IA también puede hacer que los usuarios sean menos hábiles en las relaciones con humanos (analógicos).

San Francisco, Estados Unidos:

OpenAI dice que le preocupa que la característica de voz realista de su IA pueda hacer que las personas se apeguen al robot a expensas de las interacciones humanas.

La compañía con sede en San Francisco citó literatura que, según dijo, sugiere que chatear con una IA como se haría con otra persona puede generar una confianza injustificada y que la alta calidad del audio GPT-4o puede exacerbar este efecto.

«La humanización implica atribuir comportamientos y características similares a los humanos a entidades no humanas, como los modelos de IA», dijo OpenAI el jueves en un informe sobre el trabajo de seguridad que está realizando en la versión ChatGPT-4o de su IA.

«Este riesgo puede verse aumentado por las capacidades de voz de GPT-4o, que facilitan interacciones más humanas con el modelo».

OpenAI dijo que ha observado a los evaluadores hablar con la IA de maneras que indican un vínculo común, como quejándose en voz alta de que este es su último día juntos.

Dijo que estas afecciones parecen benignas, pero deberían estudiarse para ver cómo podrían desarrollarse durante períodos de tiempo más prolongados.

OpenAI especuló que socializar con IA podría hacer que los usuarios sean menos hábiles o menos inclinados en lo que respecta a las relaciones con los humanos.

«Una interacción prolongada con el modelo puede influir en las normas sociales», afirma el informe.

«Por ejemplo, nuestros modelos son respetuosos y permiten a los usuarios interrumpir y ‘tomar el micrófono’ en cualquier momento, lo que se espera de la IA, pero va contra la norma en las interacciones humanas».

Según OpenAI, la capacidad de la inteligencia artificial para recordar detalles durante una conversación y realizar tareas puede hacer que las personas dependan demasiado de la tecnología.

Alon Yamin, cofundador y director ejecutivo de la plataforma de detección de plagio Copyleaks, dijo: “Las recientes preocupaciones expresadas por OpenAI sobre la posible dependencia del modo de voz en ChatGPT apuntan a lo que muchos ya han comenzado a preguntarse: ¿es hora de detenerse y pensar en cómo hacerlo? ¿Esta tecnología está impactando el compromiso y las relaciones con la humanidad?

La IA nunca debería sustituir la interacción humana real, afirmó.

OpenAI dijo que probará más a fondo cómo las capacidades de voz en la IA pueden conectar emocionalmente a las personas.

Los equipos que probaron las capacidades de voz de ChatGPT-4o también lograron que repitiera información falsa y produjera teorías de conspiración, lo que generó preocupaciones de que se pudiera ordenar a un modelo de IA que lo hiciera de manera convincente.

OpenAI se vio obligada a disculparse con la actriz Scarlett Johansson en junio por usar algo muy similar a su voz en su último chatbot, arrojando luz sobre su tecnología de clonación de voz.

Aunque OpenAI negó que la voz que utilizó fuera la de Johansson, su caso sí recibió el apoyo del CEO Sam Altman, quien se refirió al nuevo modelo con un mensaje de una sola palabra en las redes sociales: «Ella».

Johansson da voz a un personaje de inteligencia artificial en «Her», que Altman ha dicho anteriormente que es su película favorita sobre tecnología.

La película, producida en 2013, está protagonizada por Joaquin Phoenix como un hombre que se enamora de una asistente de inteligencia artificial llamada Samantha.

(A excepción del titular, esta historia no ha sido editada por el personal de NDTV y se publica desde un canal sindicado).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *