¿La inteligencia artificial supera a la humana, o lo hará pronto, en muchísimas labores? ¿En una situación grave, deberíamos fiarnos más del criterio de una inteligencia artificial que de nuestro propio criterio? Un nuevo estudio ha examinado hasta qué punto la capacidad humana de tomar decisiones difíciles está siendo relegada por los propios humanos a favor de la capacidad de la inteligencia artificial para tomar decisiones de esa clase.
El estudio lo ha realizado un equipo encabezado por Colin Holbrook, de la Universidad de California en Merced, Estados Unidos.
Holbrook y sus colegas realizaron una serie de experimentos psicológicos en los cuales los sujetos de estudio debían tomar decisiones peliagudas y para ello contaban con la ayuda de robots supuestamente dotados de inteligencia artificial, quienes podían estar de acuerdo o no con la decisión que la persona, siguiendo su propio criterio, empezaba considerando la mejor.
Se advirtió a los sujetos de estudio que la inteligencia artificial de los robots tenía limitaciones y que debido a ello los consejos que les dieran podían ser desacertados. Sin que las personas lo supieran, los consejos que daban los robots estaban escogidos al azar.
Sorprendentemente, alrededor de dos tercios de las personas permitieron que un robot les hiciera cambiar de opinión cuando no estaba de acuerdo con ellas, y acabaron tomando la decisión recomendada por el robot, una muestra alarmante de excesiva confianza en la inteligencia artificial, tal como advierten los autores del estudio.
Los resultados variaron ligeramente según el tipo de robot utilizado. En un escenario, el robot era un androide de tamaño natural y aspecto humano que podía gesticular. Otros escenarios proyectaban un robot de aspecto humano en una pantalla; y otros mostraban robots en forma de caja, sin ninguna apariencia humana.
Los sujetos de estudio se vieron ligeramente más influidos por las inteligencias artificiales de aspecto más humano cuando estas les aconsejaron cambiar de opinión. Aun así, la influencia fue muy similar en todos los casos, ya que los sujetos cambiaron de opinión aproximadamente en dos tercios de las veces, incluso cuando los robots tenían un aspecto físico nada humano.
Por otra parte, si el consejo del robot coincidía aleatoriamente con la elección inicial hecha por la persona, esta casi siempre se quedaba con esa elección hasta el final y se sentía significativamente más segura de que su decisión era correcta.
A los sujetos de estudio no se les decía si sus elecciones finales eran correctas, lo que aumentaba la incertidumbre de sus acciones. Un inciso: sus primeras elecciones fueron correctas en un 70% de las ocasiones, pero sus elecciones finales se redujeron al 50% después de que el robot les diera su consejo desacertado.
El estudio se titula “Overtrust in AI Recommendations About Whether or Not to Kill: Evidence from Two Human-Robot Interaction Studies”. Y se ha publicado en la revista académica Scientific Reports. (Fuente: NCYT de Amazings)
Comentarios