Los modelos de inteligencia artificial tienen dificultades para identificar tonterías, según un estudio

Los modelos de inteligencia artificial que impulsan los chatbots y otras aplicaciones todavía tienen dificultades para distinguir entre tonterías y lenguaje natural, según un estudio publicado el jueves.

Los investigadores de la Universidad de Columbia en Estados Unidos dijeron que su trabajo reveló las limitaciones de los modelos actuales de IA y sugirieron que era demasiado pronto para dejarlos sueltos en entornos legales o médicos.

Pusieron a prueba nueve modelos de IA, disparándoles cientos de pares de oraciones y preguntando cuáles probablemente se escucharían en el habla cotidiana.

Pidieron a 100 personas que hicieran el mismo juicio sobre pares de oraciones como: «Un comprador también puede poseer un producto genuino / Uno versado en circunferencias de la escuela secundaria, divagaba».

La investigación, publicada en la revista Nature Machine Intelligence, comparó las respuestas de la IA con las respuestas humanas y encontró diferencias dramáticas.

Los modelos sofisticados como GPT-2, una versión anterior del modelo que impulsa el chatbot viral ChatGPT, generalmente coincidían con las respuestas humanas.

A otros modelos más simples no les fue tan bien.

Pero los investigadores destacaron que todos los modelos cometieron errores.

«Cada modelo exhibió puntos ciegos, etiquetando algunas oraciones como significativas que los participantes humanos pensaron que eran un galimatías», dijo el profesor de psicología Christopher Baldassano, autor del informe.

«Eso debería hacernos reflexionar sobre hasta qué punto queremos que los sistemas de IA tomen decisiones importantes, al menos por ahora».

Tal Golan, otro de los autores del artículo, dijo a la AFP que los modelos eran «una tecnología apasionante que puede complementar espectacularmente la productividad humana».

Sin embargo, argumentó que «dejar que estos modelos reemplacen la toma de decisiones humana en ámbitos como el derecho, la medicina o la evaluación de los estudiantes puede ser prematuro».

Entre los peligros, dijo, estaba la posibilidad de que la gente explotara intencionalmente los puntos ciegos para manipular los modelos.

Los modelos de IA irrumpieron en la conciencia pública con el lanzamiento de ChatGPT el año pasado, al que desde entonces se le atribuye haber aprobado varios exámenes y ha sido promocionado como una posible ayuda para médicos, abogados y otros profesionales.

Fuente(s): AFP, CGTN

(Visited 965 times, 1 visits today)

About The Author

Videos Relacionados

Hola 👋

Abrir chat
Chatea con nosotros
Hola Somos CSTIC TV.
¿En qué podemos ayudarte?