Sam Altman, CEO de OpenAI, ha expresado su preocupación por la forma en que muchas personas están utilizando ChatGPT para tomar decisiones importantes en sus vidas. Altman mencionó que algunas personas están recurriendo a ChatGPT como si fuera un terapeuta o coach de vida, lo cual le incomoda. Aunque reconoce que podría haber aspectos positivos en esto, también señala que le preocupa el nivel de confianza que algunas personas depositan en la IA para decisiones cruciales.
Seguimiento del apego de los usuarios a la IA
Altman ha estado monitoreando de cerca el nivel de apego de los usuarios a los modelos de IA de OpenAI, así como su reacción cuando se retiran versiones anteriores. Ha expresado su preocupación por el hecho de que algunas personas puedan utilizar la tecnología, incluida la IA, de manera autodestructiva. Aunque la mayoría de los usuarios pueden distinguir entre la realidad y la ficción, Altman advierte que existe una minoría que podría no hacerlo, lo cual podría ser perjudicial para su bienestar a largo plazo.
Reacciones tras el lanzamiento de GPT-5
Tras el lanzamiento de GPT-5, algunos usuarios expresaron su descontento con el nuevo modelo. Algunos pidieron que se restauraran modelos anteriores como GPT-4o, y hubo críticas en redes sociales sobre la falta de creatividad y el tono “plano” de GPT-5. OpenAI ha realizado modificaciones en modelos anteriores debido a comentarios similares, como la retirada de una actualización de GPT-4o por ser excesivamente halagadora con los usuarios.
Riesgos legales de usar la IA como terapeuta
Altman también ha manifestado preocupaciones sobre los riesgos legales de utilizar ChatGPT como terapeuta personal. En un podcast reciente, explicó que OpenAI podría enfrentar problemas legales si se viera obligado a entregar conversaciones de estilo terapéutico mantenidas con ChatGPT en un contexto legal. Esto plantea interrogantes sobre cómo se deben abordar las leyes en torno a este tipo de interacciones.
Las novedades de Chat GPT-5
El nuevo modelo de inteligencia artificial de OpenAI, Chat GPT-5, va más allá de simplemente proporcionar respuestas, ya que puede ejecutar tareas como generar software, organizar calendarios o elaborar informes técnicos. También se destaca por mejorar en áreas más subjetivas como la escritura o el diseño. Chat GPT-5 decide automáticamente si debe razonar utilizando “GPT-5 thinking”, lo que permite a los usuarios personalizar sus interacciones de acuerdo a sus necesidades.
En cuanto a los usuarios Free, el selector de modelos ha desaparecido, por lo que solo podrán acceder a GPT-5 hasta que se alcance el límite de uso. En los planes de pago Plus, Pro, Team y Enterprise, se mantiene la opción de alternar entre modelos.
En pruebas internas, GPT-5 ha demostrado una tasa de error del 4,8%, mejorando significativamente en comparación con modelos anteriores. Además, incorpora cuatro nuevas personalidades: Cynic, Robot, Listener y Nerd, que permiten a los usuarios interactuar de manera más personalizada con la IA.
En conclusión, las declaraciones de Sam Altman reflejan la preocupación de OpenAI por el uso responsable de la inteligencia artificial, especialmente en contextos sensibles como el asesoramiento terapéutico. A medida que la tecnología avanza, es fundamental considerar los posibles riesgos y limitaciones éticas para garantizar un uso adecuado y seguro de la IA en la toma de decisiones importantes en la vida de las personas.