Inteligencia Artificial
¿La Inteligencia Artificial supone un peligro si llega a manifestar sentimientos? Una duda que siempre nos hacemos todos

¡increíble! han creado inteligencia artificial con sentimientos

Un ingeniero de Google que trabaja en su división de inteligencia artificial ha revelado a un diario estadounidense que cree que uno de los proyectos de la compañía relacionado con inteligencia artificial ha logrado tener “sensibilidad”, algo que realmente se creía imposible.

Después de estudiar muy bien sus declaraciones se pueden entender el porqué de esto. El sistema de chatbot que es el que se basa en los modelos del lenguaje de la compañía y billones de palabras de internet parece tener capacidad para pensar sobre su lugar en el mundo y existencia.

Para entender de lo que habla el ingeniero, el mostró como prueba una conversación establecida con chatbot, llamado LaMDA en donde básicamente le preguntaba si esta tenia emociones y este le respondió que sí, que podía sentir alegría, tristeza, amor, placer, depresión, satisfacción y más.

Con estas respuestas continuo la conversación preguntando que lo hacia sentir placer o alegría, y el chatbot dijo que compartir con amigos y familiares en compañía alegre, ayudar a los demás y hacerlos felices.

¿Qué dice Google al respecto?

Ante todo esto, Google expresó que la evidencia presentada por su ingeniero no respalda las afirmaciones.

Posteriormente, la compañía discutió el trabajo y actividades poco éticas del ingeniero artificial con un representante judicial de la cámara y lo colocó en licencia administrativa pagada por romper el acuerdo de confidencialidad al ponerse hablar en público de este tema.

Además, Google niega el argumento del ingeniero y por lo tanto revisaron las preocupaciones de este según los principios de IA y confirman que no hay evidencia de que LaMDA sea consciente.

Claramente es muy tentador creer que LaMDA se haya convertido de forma milagrosa en consciente, pero no existen pruebas validas para pensar esto y menos declararlo al público.

Incluso, ellos evaluaron a LaMDA para ver si pensaba por sí solo, sin indicación de su creador, y es plausible que un sistema con acceso a tanta información pueda reconstituir respuestas que parecen humanas sin de verdad saber que significan.

También te puede interesar leer: Equilibrio que debe conseguirse en las redes sociales

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)