Citation Hunt

Texten från Wikipedia nedan saknar källhänvisning. Kan du hitta en?

Klicka på Jag fixar det! för att gå till Wikipedia och fixa delen eller Nästa! för att se en annan. Lycka till!

På sidan Teknologisk singularitet:

"

Eliezer Yudkowsky föreslog att forskning skulle genomföras för att producera "vänlig AI" för att komma till rätta med farorna. Han noterade att om den första riktiga artificiella intelligensen var vänlig skulle den ha ett försprång i självförbättringen och skulle därmed kunna hindra andra icke-vänliga artificiella intelligenser från att utvecklas. Singularity Institute for Artificial Intelligence är dedikerade till just detta kall. Även Bill Hibbard skrev om dylika frågor om säkerhet och moral med AI i sin bok Super-Intelligent Machines.[källa behövs]