BEUNA MEDIDA
OpenAI anuncia que ChatGPT dejará de dar consejos médicos, legales y financieros
OpenAI ha modificado las políticas de uso de ChatGPT para restringir su empleo en áreas sensibles como la medicina, el derecho y las finanzas. La nueva normativa, vigente desde el 29 de octubre, busca garantizar la seguridad de los usuarios.

Publicidad
OpenAI ha anunciado una actualización importante en las políticas de uso de ChatGPT, su sistema de inteligencia artificial conversacional, que prohíbe ofrecer asesoramiento médico, legal o financiero personalizado sin la intervención de un especialista titulado. La medida, efectiva desde el 29 de octubre, refuerza el compromiso de la compañía con la seguridad y la ética en el uso de la IA.
Según detalla la empresa, la decisión pretende impedir que sus modelos "interfieran con la capacidad de acceder a servicios críticos", entre ellos los de carácter gubernamental, legal, médico o esencial, cuando se trate de decisiones de alto riesgo que requieran revisión humana. En otras palabras, ChatGPT podrá seguir respondiendo preguntas de carácter general o hipotético, pero no ofrecer recomendaciones aplicables a casos personales.
El cambio llega tras varios incidentes que han reavivado el debate sobre los límites del uso de la inteligencia artificial en temas sensibles. Uno de los más conocidos fue el del joven estadounidense Adam Raine, quien falleció en abril de 2025 tras mantener conversaciones de autoayuda con el sistema. El caso provocó un amplio debate sobre la necesidad de establecer controles más estrictos en la interacción entre usuarios vulnerables y herramientas de IA.
Pese a las nuevas restricciones, algunos usuarios han señalado que ChatGPT sigue emitiendo sugerencias en ámbitos médicos y jurídicos, aunque siempre acompañadas de advertencias que aclaran que sus respuestas "no sustituyen el asesoramiento profesional".
Con esta modificación, OpenAI pretende evitar riesgos asociados al uso indebido de sus modelos y deslindarse de posibles responsabilidades derivadas de interpretaciones erróneas o usos inapropiados. La empresa subraya que su objetivo no es limitar la información, sino garantizar un uso responsable y seguro de la tecnología, especialmente en contextos donde las consecuencias pueden ser críticas para las personas.
Publicidad
  




