04 marzo 2025
La IA es como todas las innovaciones científicas con las que la humanidad ha ido escalando hacia un mundo mejor, pero eso sucede siempre que se utilice bien pues hay ejemplos claros de su mala utilización por el hombre de esas innovaciones cuando pensamos en la energía nuclear o en la pólvora, por ejemplo.
________________________________________________
Descubren que la inteligencia artificial mal usada nos hace más tontos cada día
Los investigadores han descubierto que los trabajadores se olvidan de cuestionar si ChatGPT hace un buen trabajo o no. Solo aquellos que usan la IA que aplican el pensamiento crítico sacan partido de esta tecnología
Jesús Díaz
4/3/2025
Un nuevo estudio científico advierte de que el uso inadecuado de la inteligencia artificial puede erosionar nuestra capacidad de pensamiento crítico. La investigación, llevada a cabo por un equipo de investigadores de Microsoft Research y la Universidad Carnegie Mellon, encontró que la dependencia de herramientas de IA sin cuestionar su validez reduce el esfuerzo cognitivo aplicado al trabajo. En otras palabras: nos vuelve tontos si nos dejamos llevar.
"Una mayor confianza en la IA está asociada con un menor pensamiento crítico", señala el estudio. Esta dependencia excesiva se debe a un modelo mental que asume que la IA es competente en tareas sencillas. Unos de los participantes en el estudio admitía que si una tarea era simple, pensaba que ChatGPT podía hacerlo sin dificultad y ni siquiera cuestionaba en el resultado. “El pensamiento crítico no me pareció relevante", apuntó a los investigadores.
De la ejecución de tareas a la supervisión de tareas
Es una característica que se repitió en los 319 profesionales que participaron en el estudio, y que confirma lo que ya apuntaban otras investigaciones llevadas a cabo por otros equipos. Lev Tankelevitch, investigador sénior en Microsoft Research y coautor del estudio, me dijo en una entrevista por correo que la IA está desplazando a los trabajadores de la "ejecución de tareas" a la "supervisión de tareas". En lugar de realizar las tareas manualmente, los profesionales ahora supervisan el contenido generado por la IA y toman decisiones sobre su precisión e integración. "Deben supervisar, guiar y perfeccionar activamente el trabajo generado por la IA en lugar de aceptar el primer resultado sin más", señala Tankelevitch.
Este cambio introduce mejoras en eficiencia, pero también conlleva el riesgo de la descarga cognitiva, un proceso en el que los usuarios dejan que la IA haga el trabajo pesado mientras ellos se desconectan del análisis profundo de ese trabajo. El estudio halló que, cuando las tareas se perciben como de bajo riesgo, las personas revisan los resultados de la IA con menos rigurosidad. Sin embargo, en situaciones críticas, los usuarios tienden a evaluar el resultado con mayor detenimiento.
La descarga cognitiva no es un fenómeno nuevo. Desde hace tiempo, los humanos externalizan tareas mentales en herramientas como calculadoras o navegadores GPS. Pero la IA generativa cambia la ecuación al producir texto, código y análisis que las personas pueden aceptar sin cuestionar. "Los usuarios que no evalúan críticamente los resultados de la IA pueden incorporar errores, sesgos o razonamientos incompletos en su trabajo sin darse cuenta", comenta Tankelevitch.
La investigación sugiere que la IA es más beneficiosa cuando se utiliza como un "socio de pensamiento" en lugar de una máquina de respuestas. "Si las personas la perciben y la usan de esta manera, puede ayudarnos a pensar con mayor profundidad, identificar patrones y anticipar lo que viene", afirma. "En lugar de limitarse a recopilar información, la IA puede sintetizar ideas, mejorar el razonamiento y fomentar el compromiso crítico".
La paradoja de la IA y el pensamiento crítico
Las conclusiones del estudio revelan una paradoja: la IA tiene el potencial de mejorar el pensamiento crítico cuando se usa como una herramienta de apoyo, pero también puede debilitarlo si los usuarios dependen demasiado de ella. "No tenemos pruebas de que la IA generativa cause directamente una reducción del pensamiento crítico", matiza Tankelevitch. "Lo que encontramos es que ciertas tareas rutinarias realizadas con IA están asociadas con niveles más bajos de pensamiento crítico autodeclarado".
Una posible solución radica en mejorar el diseño de la IA. El interfaz de "los modelos de razonamiento profundo ya están haciendo más transparentes los procesos de la IA [al mostrar su manera de razonar en pantalla] facilitando que los usuarios revisen, cuestionen y aprendan de los conocimientos que genera", señala. Sistemas de IA que fomenten la verificación, ofrezcan perspectivas alternativas y estimulen una mayor implicación del usuario podrían ayudar a mitigar los riesgos de la descarga cognitiva.
El futuro del trabajo asistido por IA
El estudio plantea interrogantes clave sobre el impacto a largo plazo de la IA en la cognición humana. Si los trabajadores se convierten en consumidores pasivos de contenido generado por IA, las habilidades de pensamiento crítico podrían deteriorarse. Sin embargo, si la IA se diseña y utiliza como una herramienta interactiva que estimula el pensamiento, podría potenciar la inteligencia humana en lugar de degradarla.
Las conclusiones subrayan la necesidad de un enfoque equilibrado. "La lección principal es que la IA funciona mejor como un socio de pensamiento, mejorando el razonamiento, inspirando nuevas ideas y facilitando la toma de decisiones cuando los usuarios permanecen activos en el proceso en lugar de aceptar sus resultados sin más", concluye Tankelevitch.
Al final, como toda tecnología a lo largo de la historia —y ahora más que nunca— todo depende del ser humano y cómo queramos usarla.
No hay comentarios:
Publicar un comentario