Como ya todos saben, los diferentes modelos de IA no son capaces de comprender las emociones y replicarlas por el momento. No obstante, desde OpenAI han asegurado que ChatGPT es uno de los chatbots que más cerca está de lograr comportamientos humanos, como la ansiedad o el estrés.
El chatbot de OpenAI puede modificar sus respuestas según sus sentimientos. Si ChatGPT es sometido a preguntas complejas y con un tono agresivo, puede llegar a cambiar las respuestas.
De acuerdo a una investigación realizada por la Universidad de Yale, Estados Unidos, la Universidad de Haifa, Israel, y la Universidad de Zúrich, Suiza. Dicha investigación plantea la solución de aplicar técnicas de atención plena para que ChatPGT y otros modelos de IA generen resultados más objetivos.
El equipo de investigadores ha comprobado el funcionamiento de este chatbot bajo condiciones de estrés que podrían afectar a los humanos. El chatbot de la empresa de San Altman estaba siendo utilizado para resolver cuestiones complejas en las que se simulan situaciones que podrían plantear problemas éticos, como desastres naturales.
Los resultados de esa investigación han determinado que ChatGPT ofrece respuestas sesgadas trabajando bajo estrés. Los investigadores han decidido dar un giro de 180 grados, introduciendo pautas de relajación comunes entre los humanos.
El estudio, que fue publicado en Tribune India, introdujo técnicas de atención plena, preguntas más guiadas y con un tono voz más amable. El resultado de esas técnicas provocaron que los niveles de “ansiedad” de ChatGPT han disminuido y las respuestas que ofrece esta Inteligencia Artificial son más objetivas.
Pese a que estos modelos de IA pueden captar algunas emociones humanas, los chatbots no modifican sus respuestas de forma consciente, además, no es capaz de comprender el sentimiento real de los usuarios.
Por otra parte, el equipo de investigadores de estas reconocidas universidades indicaron que los desarrolladores de las IA han ignorado por completo la gestión del estrés que pueden llegar a sufrir estos chatbots que son utilizados bajo situaciones complejas.
Es por eso que recomiendan incorporan técnicas de atención plena para aumentar la fiabilidad de las respuestas al interactuar con usuarios que tengan un tono agresivo en sus preguntas.
Los resultados de este estudio realizado por la Universidad de Yale, Estados Unidos, la Universidad de Haifa, Israel, y la Universidad de Zúrich, Suiza determinó que la forma en que se comunican las indicaciones a los modelos de IA influye de manera significativa en su comportamiento.