Risker med allt för självständig artificiell intelligens
Alla överraskande funktioner i lärande system kan inte analyseras eller upptäckas maskinellt. Kontinuerlig uppföljning, datahantering och konsekvensbedömning är kritiskt viktiga för att det lärande systemet inte ska "gå sin egen väg" och fjärma sig från det uppställda målet.
Systemet kan fungera klanderfritt tekniskt sett, samtidigt som dess resultat är felaktiga. Inte ens den mest utvecklade artificiella intelligensen vet att något är fel, även om den skulle producera förvrängd eller "information", eller ”information” som den själv hittat på. ChatGPT har till exempel konstaterats göra så i oroväckande hög grad.
Eftersom datorn varken har medvetande eller samvete behövs människor som kontrollerar både kvaliteten på och användbarheten av resultaten.