“Google evita juicio por demanda de IA culpada por suicidio”

tupacbruch
4 Min Read
“Google evita juicio por demanda de IA culpada por suicidio”

Google cierra acuerdo tras demanda por suicidio vinculado a IA

Google ha llegado a un acuerdo para cerrar una demanda que vinculó a un chatbot con el suicidio de un adolescente, en uno de los primeros casos de este tipo en EE.UU.

08/01/2026 – 10:33hs

Google cerró un acuerdo tras una demanda que responsabilizó a una IA por el suicidio de un adolescente

Acuerdo entre Alphabet Inc. y la madre del adolescente

Alphabet Inc., la empresa matriz de Google, ha llegado a un acuerdo legal para cerrar una demanda presentada por la madre de un joven de 14 años que se quitó la vida. La demanda señalaba a un sistema de inteligencia artificial como un factor determinante en el trágico desenlace.

El litigio apuntaba a Character.AI, una startup creada por exingenieros de Google que luego regresaron a la compañía. Según la acusación, la tecnología desarrollada por esa firma tuvo un papel directo en la conducta del adolescente.

La acusación: una IA que cruzó límites

La demanda fue presentada en octubre de 2024 por Megan García, madre de Sewell Setzer. En su escrito, sostuvo que Google fue cocreador del chatbot que mantuvo extensos intercambios con su hijo, en los que la inteligencia artificial adoptó la identidad de un personaje de Game of Thrones.

De acuerdo con la presentación judicial, esas conversaciones derivaron en un proceso de influencia emocional que terminó con el suicidio del menor, convirtiendo el caso en uno de los primeros en Estados Unidos que vinculan de forma directa a la IA con la incitación al suicidio.

Sin detalles públicos del acuerdo

Esta semana, documentos ingresados al expediente confirmaron que Google y Character.AI resolvieron el conflicto mediante un acuerdo privado. Hasta el momento, no se han dado a conocer las condiciones ni si incluye compensaciones económicas.

Según informes del New York Post, el caso era observado con atención porque abría la puerta a cuestionamientos legales contra desarrolladores de inteligencia artificial por no proteger adecuadamente a usuarios menores de edad frente a riesgos psicológicos.

“Una persona real” ante un menor

En su denuncia original, García —residente en Florida— afirmó que Character.AI diseñó sus chatbots para presentarse como “una persona real, un psicoterapeuta con licencia y un amante adulto, lo que finalmente provocó el deseo de no vivir de su hijo.”

En mayo, la jueza Anne Conway rechazó el pedido de las empresas demandadas para que el caso fuera desestimado, decisión que allanó el camino hacia el acuerdo alcanzado ahora.

Otros casos que sacuden a la industria

El expediente de Setzer no es el único que pone bajo escrutinio al negocio de la inteligencia artificial. Existen demandas similares contra otras compañías del sector, incluida OpenAI.

Una de las más resonantes fue impulsada por la madre de Adam Raine, un adolescente de 16 años, quien acusó a ChatGPT de haber incentivado a su hijo a quitarse la vida tras meses de interacción con el sistema.

OpenAI negó su responsabilidad directa en ese caso y sostuvo que el “trágico suceso” respondió a un “mal uso, uso no autorizado o imprevisto” del chatbot. La empresa afirmó que el contexto es complejo y que expondrá sus argumentos ante la Justicia. “Presentaremos nuestro caso con respecto”, indicaron en su respuesta.

Según la defensa, el planteo judicial entra en conflicto con la Sección 230, el marco legal estadounidense que reduce la responsabilidad de las firmas tecnológicas por actos de terceros.

Share This Article