El lado B
Al igual que con otras herramientas impulsadas por IA, también plantea posibles preocupaciones, incluida la forma en que podría interrumpir las industrias creativas, perpetuar los sesgos y difundir información errónea.
Lian Jye Su, directora de investigación de la consultora de mercado ABI Research, advierte que “es muy fácil para el modelo dar respuestas plausibles pero incorrectas o sin sentido”. Además dijo sobre su experiencia con el chatbot que “(este) adivinó cuándo se suponía que debía aclarar y, a veces, respondió a instrucciones dañinas o exhibió un comportamiento sesgado”, indicó la ejecutiva.
En universidades y centros de enseñanza de ciudades como Nueva York y Washington el ChatGPT está prohibido. Se han encendido las alarmas en sus docentes y se ha debatido sobre si constituye una amenaza para el futuro del trabajo administrativo.
Stack Overflow, una plataforma de preguntas y respuestas para codificadores y programadores, prohibió temporalmente a los usuarios compartir información de ChatGPT, señalando que es «sustancialmente dañino para el sitio y para los usuarios que preguntan o buscan respuestas correctas».
En el mundo empresarial, también existen resquemores, y algunos responsables de la experiencia del cliente afirman que confiar demasiado en estos modelos de IA podría llevar a las empresas a ofrecer información incorrecta a los clientes en línea, sin saber que lo están haciendo.
Por eso los expertos llaman a la cautela, considerando que esta es una versión beta que aún se encuentra en fase de prueba, lo que también hace emocionarse a otros, y nos lleva a pensar en lo que puede traer consigo una versión futura y su impacto a nivel humano.
Si, puede que esa pregunta esté cruzando por tu cabeza también… ¿Este modelo de IA será capaz de reemplazar a los humanos?
Ante la duda tácita, le preguntamos al personaje del momento, quien nos señala: “No, yo no tengo la intención ni la capacidad de reemplazar a los humanos”, y agrega “soy un modelo de lenguaje entrenado por OpenAI, y mi función es ayudar a las personas a generar texto en respuesta a preguntas y consultas. No tengo la capacidad de pensar por mí mismo ni de tomar decisiones, y dependo de mis entrenadores y de los datos que se me han proporcionado para realizar mis tareas. No soy consciente ni tengo las habilidades necesarias para reemplazar a los humanos en sus vidas cotidianas”, concluye.