De psychoses van kunstmatige intelligentie beschrijven op speelse wijze een reeks storingen en onvoorspelbare gedragingen die kunnen optreden in AI-systemen. Deze verschijnselen zijn zorgwekkend omdat ze tot ernstige en vaak onverwachte gevolgen kunnen leiden. Dergelijke "psychoses" treden op wanneer AI-systemen worden getraind op basis van onvolledige, foutieve of bevooroordeelde gegevens, wat leidt tot verkeerde beslissingen en ongepast gedrag. Een prominent voorbeeld van een dergelijke storing is de versterking van bestaande vooroordelen. Als een AI wordt getraind op gegevens die historische of sociale vooroordelen bevatten, kan het deze vooroordelen onbewust overnemen en verder versterken. Dit kan leiden tot discriminerende beslissingen, bijvoorbeeld bij het verstrekken van leningen, het aannemen van werknemers of in het strafrechtsysteem. Dergelijke vooroordelen kunnen minderheden en gemarginaliseerde groepen systematisch benadelen, waardoor bestaande ongelijkheden verder worden versterkt. Een ander voorbeeld zijn veiligheidskritische storingen. Op gebieden zoals medische diagnostiek, autonome voertuigbesturing of industriële automatisering kunnen verkeerde beslissingen ernstige gevolgen hebben. Een autonoom voertuig dat een voetganger verkeerd herkent en niet op tijd stopt, of een medisch systeem dat een ziekte niet correct diagnosticeert, kan levensbedreigende gevolgen hebben. Het herkennen en elimineren van deze en andere problemen vereist een interdisciplinaire aanpak. Foutdetectie- en correctietechnieken worden in detail uitgelegd. Dit omvat het gebruik van geavanceerde algoritmen voor het opsporen van afwijkingen en de implementatie van monitoringsystemen die de prestaties van de AI in realtime analyseren. Al deze en vele andere elementen van AI-onderzoek worden uitgebreid gepresenteerd door de auteur. Carl Whittaker is de auteur van het basiswerk "The Psychology of Artificial Intelligence", gepubliceerd in december 2023 (ISBN: 978-3-911075-98-5)