Las psicosis de la inteligencia artificial describen lúdicamente una serie de disfunciones y comportamientos imprevisibles que pueden darse en los sistemas de IA. Estos fenómenos son preocupantes, ya que pueden acarrear consecuencias graves y a menudo inesperadas. Estas "psicosis" se producen cuando los sistemas de IA se entrenan a partir de datos incompletos, erróneos o sesgados, lo que conduce a decisiones incorrectas y comportamientos inadecuados. Un ejemplo destacado de tal disfunción es el refuerzo de los prejuicios existentes. Si una IA se entrena con datos que contienen prejuicios históricos o sociales, puede adoptarlos inconscientemente y reforzarlos aún más. Esto puede dar lugar a decisiones discriminatorias, por ejemplo a la hora de conceder préstamos, contratar empleados o en el sistema de justicia penal. Estos prejuicios pueden perjudicar sistemáticamente a las minorías y los grupos marginados, cimentando aún más las desigualdades existentes. Otro ejemplo son los fallos críticos para la seguridad. En ámbitos como el diagnóstico médico, el control de vehículos autónomos o la automatización industrial, las decisiones equivocadas pueden tener graves consecuencias. Un vehículo autónomo que identifica erróneamente a un peatón y no se detiene a tiempo, o un sistema médico que no diagnostica correctamente una enfermedad, pueden tener consecuencias mortales. Reconocer y eliminar estos y otros problemas requiere un enfoque interdisciplinar. Se explican en detalle las técnicas de detección y corrección de errores. Esto incluye el uso de algoritmos avanzados de detección de anomalías y la implantación de sistemas de monitorización que analicen el rendimiento de la IA en tiempo real. Todo esto y muchos otros elementos de la investigación sobre IA son presentados de forma exhaustiva por el autor. Carl Whittaker es autor de la obra básica "La psicología de la inteligencia artificial", publicada en diciembre de 2023 (ISBN: 978-3-911075-96-1)