ChatGPT puede llegar a ser ofensivo. Así que OpenAI va a pulirlo e incluso dejará que lo personalicemos Xataka el 17/02/2023 a las 3:00 pm

En las últimas semanas hemos visto como ChatGPT y Bing con ChatGPT están comenzando a mostrar problemas en su funcionamiento: no es solo que estos chatbots se equivoquen: es que durante la conversación acaban tomando posturas poco objetivas, defensivas y, en algunos casos extrañas e incluso ofensivas con los usuarios.

En OpenAI (y en Microsoft) lo saben, y los responsables de estos chatbots han indicado en un artículo en el blog oficial que están desarrollando una versión mejorada para ChatGPT que tendrá una característica interesante: podremos «personalizarlo».

La firma explicaba cómo desde su lanzamiento los usuarios «han compartido resultados que consideran políticamente tendenciosos, ofensivos o censurables. En muchos casos, creemos que las preocupaciones planteadas son válidas y han puesto de manifiesto limitaciones reales de nuestros sistemas que queremos solucionar».

El funcionamiento de ChatGPT se basa en redes neuronales en las que primero se realiza un «pre-entrenamiento» con un gran conjunto de datos para luego pasar a una fase en la que se pule el modelo para ir afinando el comportamiento del chatbot gracias a la interacción con los «revisores» de esas respuestas, que van ajustándolas de acuerdo a ciertas directrices.

Los ingenieros de OpenAI reconocen que el proceso es imperfecto, y tras estas primeras semanas y lo que han aprendido, indican que «vamos a proporcionar instrucciones más claras a los revisores sobre los posibles escollos y retos relacionados con la parcialidad, así como sobre las figuras y temas controvertidos».

Se trabajará también sobre potenciales sesgos derivados de la demografía, y se aplicarán mejoras que se han descubierto recientemente con técnicas como las recompensas basadas en reglas o la llamada «IA Constitucional«. La firma sobre todo destacaba tres grandes pilares de los cambios que se llevarán a cabo.

Mejorar el comportamiento por defecto: se tratarán de eliminar los sesgos y también esos casos en los que el sistema «se inventa cosas», algo para lo que los comentarios de los usuarios —votando a las respuestas y añadiendo información adicional— contribuyen notablemente.
Personalización: ChatGPT permitirá que los usuarios personalicen su comportamiento permitiendo que se produzcan respuestas (outputs) con las que otras personas podrían no estar de acuerdo. Habrá, eso sí, límites, y el reto es definir esas barreras para evitar «usos maliciosos» de la tecnología.
Participación popular: en OpenAI quieren dar a la gente la capacidad de «influir en las reglas del sistema» e incluir «tantas perspectivas como sea posible», por ejemplo en ámbitos como el educativo.

Con estas medidas la idea es pasar de un modelo «pulido» (fine-tuned) a varios que se derivan de él y que están personalizados y ajustados a los usuarios. Desde ese punto, la idea es iterar para mejorar más y más el comportamiento de un ChatGPT que desde luego quiere aprender de estos errores iniciales.

Imagen: Javier Pastor con Midjourney


La noticia

ChatGPT puede llegar a ser ofensivo. Así que OpenAI va a pulirlo e incluso dejará que lo personalicemos

fue publicada originalmente en

Xataka

por
Javier Pastor

.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio
¿Te ayudo?