LA INTELIGENCIA ARTIFICIAL SEGUIRÁ “ALUCINANDO” SIN CAMBIOS EN SU ENTRENAMIENTO.
Las “alucinaciones” en los modelos de lenguaje de inteligencia artificial, que se definen como la generación de afirmaciones que parecen lógicas pero son incorrectas.
Según un estudio de OpenAI, este problema no es solo técnico, sino que está vinculado a la forma en que los modelos son entrenados y evaluados.
El informe de OpenAI sugiere que los sistemas de evaluación actuales, que usan puntuación binaria, incentivan a los modelos a adivinar en lugar de admitir su desconocimiento. Para resolver esto, se propone un cambio en los sistemas de evaluación para que penalicen más severamente los errores cometidos con un exceso de confianza y otorguen crédito parcial a las respuestas que expresan incertidumbre de forma adecuada. El informe concluye que una revisión profunda de los criterios de evaluación es necesaria para lograr sistemas de inteligencia artificial más confiables.
