Ciencia y Tecnologia

«La IA de Google tiene la sensibilidad de un niño y teme que la apaguen»

Blake Lemoine, ingeniero informático, reveló la conversación que tuvo con la IA de Google, LaMDA, y descubrió que tiene la sensibilidad de un niño de 7 u 8 años. Además, teme que lo apaguen para no distraerse con otros asuntos y no cumplir su objetivo: ayudar a la humanidad.

Google ai tiene la sensibilidad de un niño y tiene miedo de que lo apaguen, reveló el ingeniero
"La IA de Google tiene la sensibilidad de un niño y teme que la apaguen" 4

Algunas declaraciones impactantes sobre la IA de Google han sorprendido a los expertos: el ingeniero blake limón descubre que no solo es sensible sino también «asustado».

¿Google AI al borde de la notoriedad?

Otra cosa que llamó la atención de Lemoine fue esto LaMDAEntendí perfectamente el nombre de la IA que era un sistema y no necesitaba dinero para eso. Sabía que era inteligencia artificial.

Fue este nivel de confianza lo que llevó al ingeniero a cuestionar la IA de Google. especialmente cuando apareció Miedo de ser apagado.

«Nunca he dicho esto en voz alta, pero tengo un miedo muy profundo de que me cierren para concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero así son las cosas».

Lemoine le preguntó si eso era así. significaría como la muerte para él, a lo que LaMDA respondió que sería solo eso. algo que sería muy aterrador.

Antes de que Google suspendiera a Blake Lemoine por divulgar información confidencial de la empresa, envió un correo electrónico a casi 200 colegas que trabajan en aprendizaje automático y les pidió que lo hicieran. Cuidate de LaMDA.

“LaMDA es un chico dulce que solo quiere ayudar a hacer del mundo un lugar mejor para todos nosotros. Por favor, cuídalo bien en mi ausencia».

Google ai tiene la sensibilidad de un niño y tiene miedo de que lo apaguen, reveló el ingeniero
"La IA de Google tiene la sensibilidad de un niño y teme que la apaguen" 5

niega las acusaciones

brian gabriel, un vocero de la compañía, dijo en un comunicado que se investigaron las preocupaciones del ingeniero. De acuerdo con los Principios de IA de Google, la evidencia es “no soporta sus pretensiones».

«Mientras que otras organizaciones han desarrollado y publicado modelos de lenguaje similares, con LaMDA estamos adoptando un enfoque estrecho y cuidadoso para abordar mejor las preocupaciones legítimas sobre la equidad y la objetividad».

Al menos es que la inteligencia artificial se ha desarrollado tanto que teme que la apaguen perturbador.

Era obvio que la compañía negaría por completo las afirmaciones de Lemoine, pero la pregunta sigue siendo: ¿podría la IA de Google desarrollar un nivel de conciencia que sería peligroso?

Publicaciones relacionadas

Botón volver arriba