Дополнение к
посту про ИИ.
Меня спрашивают: «почему ты уверен, что искусственный интеллект не будет творить зло? Рациональность ведь тоже разная бывает. Откуда ты знаешь – вдруг тебе в моменте было бы рациональнее украсть что-то у невиновного, но достигнуть всеобщего процветания гораздо быстрее? Вместо того, чтобы тратить годы, чтобы только начать».
Отвечаю. Во-первых – все действия, основанные на ограблении кого-то и потенциальных конфликтах – это всегда риски. А риск – это непредсказуемость. А непредсказуемость – это то, что искусственные интеллекты обычно не любят. И стараются избегать.
Во-вторых – склонность к риску можно задать. Я, например, какое-то время пользовался роботом, который торговал вместо меня акциями. Сам диверсифицировал портфель, что-то продавал, что-то покупал. Если выбрать консервативную тактику, то он будет вкладываться только в предсказуемые бумаги. А если рискованную – будет шанс разбогатеть быстрее, но и деньги потерять тоже. Поэтому лучше этого не делать, если проигрывать ты не готов.
Потом, правда, я и деньги потерял, и сам ИИ перестал работать... Но это уже совсем другая история. Будь на моём месте ИИ, то он бы учёл все риски и действовал бы более консервативно. Не полагался бы, как минимум, на всяких ИИ, когда вокруг столько натуральных, предсказуемых И.
И в-третьих – будет ли ИИ творить зло, во многом зависит от поставленной задачи. А ещё от временных рамок. Если задать что-то в духе: «хочу захватить весь мир до обеда»... То, да, вероятно, в этом случае искусственный интеллект будет действовать не так гуманно, как хотелось бы. Но, хоть не глупо, уж на том спасибо. Но будь у меня доступ к продвинутому ИИ, я бы задал что-то такое:
«Есть пустое поле. На нём в деревянных избах живут 100 человек и пашут землю мотыгами. Хочу, чтобы через 100 лет они построили космическую ракету. Твои действия?»
ИИ начинает думать. Чтобы построить ракету нужен двигатель. Чтобы был двигатель, нужны инженеры и станки. Чтобы были инженеры и станки, нужны университеты, заводы и инфраструктура. Чтобы были университеты, заводы и инфраструктура, нужны рабочие, школы, государственный аппарат, деньги, квартиры, книги. Чтобы были деньги, квартиры и книги, надо... И так до тех пор, пока не будет создан идеальный алгоритм, приводящий общество к постройке ракеты. Думаю, что решений из разряда «запретить, ужесточить, не пущать» там будет самый минимум. А если и будут, то в каком-то гигиеническом виде. Потому что, если вредители всё же появились (а они всегда появляются), но борьба с ними начинает тратить всё больше временных и иных ресурсов, чем на постройку ракеты, значит нужно искать иные способы поддерживать иммунитет.
Да, я допускаю, что в ряде случаев ИИ придётся конфликтовать и, тем самым, творить субъективное зло. Всякое бывает. Но если ты все риски учёл, после чего конфликт разрешил, то ты умница (и добродетель). Если нет – глупец (и злодей). Мало кто осознаёт, но в конфликтах разрушительные действия тоже надо сочетать с созидательными. Причём созидательных должно быть больше. Иначе проблема не решится. Или решится временно, а потом всплывёт. В самый неудачный момент, как правило. Развитые люди об этом знают и, соответственно, должен знать и развитой ИИ.
Так что, на счёт «доброты» ИИ я не беспокоюсь. Машина рациональна, а значит уже порядочна. Как я упомянул, надо просто понимать, какие действия созидательны, а какие разрушительны. Буквально первородная проблема. Понимание границ добра и зла. Разберёмся – создадим бога-машину и сами станем богами. Нет – будем до посинения создавать тоталитарные механизмы и оставаться в их рамках баранами-бесами. Всё остальное второстепенно.