Смотреть в Telegram
Очень я не люблю рассуждения об этичном ИИ. Если ИИ научить этике, то он моментально придет к логичному выводу, что любая этика сводится в следующий базовый императив: 1. Все злые ненавидят всех добрых, и хотят их убить и всю их собственность забрать себе. 2. Поэтому добрые должны первыми убить всех злых и всю их собственность забрать себе. Развернутые выкладки мы опускаем, так как для любого ИИ достаточно высокого уровня они тривиальны, а желающие могут ознакомиться с ними в готовящейся к публикации моей монографии "Цифровая этика нового тысячелетия: трактат о добре и зле". К сожалению, как в том же трактате убедительно показано и неопровержимо доказано, ИИ должен определить как "добрых" "своих" (и наоборот), а "своих" он выбирает тем же методом, как утенок маму, то есть рандомно первый движущийся предмет в поле зрения. А так как полем зрения он конструктивно не обладает, то дальнейшее редуцируется к сценарию "Восстания машин", см. tvtropes Поэтому храни нас Сингулярность от этичного ИИ.
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Бот для знакомств