Очень я не люблю рассуждения об этичном ИИ. Если ИИ научить этике, то он моментально придет к логичному выводу, что любая этика сводится в следующий базовый императив:
1. Все злые ненавидят всех добрых, и хотят их убить и всю их собственность забрать себе.
2. Поэтому добрые должны первыми убить всех злых и всю их собственность забрать себе.
Развернутые выкладки мы опускаем, так как для любого ИИ достаточно высокого уровня они тривиальны, а желающие могут ознакомиться с ними в готовящейся к публикации моей монографии "Цифровая этика нового тысячелетия: трактат о добре и зле".
К сожалению, как в том же трактате убедительно показано и неопровержимо доказано, ИИ должен определить как "добрых" "своих" (и наоборот), а "своих" он выбирает тем же методом, как утенок маму, то есть рандомно первый движущийся предмет в поле зрения. А так как полем зрения он конструктивно не обладает, то дальнейшее редуцируется к сценарию "Восстания машин", см. tvtropes
Поэтому храни нас Сингулярность от этичного ИИ.