Смотреть в Telegram
Станет ли ИИ Големом 21 века? Как встраивать этику в алгоритмы машинного обучения. Это самый важный вопрос в симбиозе человека и машины. А такой симбиоз – не в будущем. Он уже вовсю идет. И самый важный и приоритетный среди его вызовов - решение проблемы нечеловеческого поведения алгоритмов, нарушающих права конкретных людей, да и вообще, человеческие принципы. Что за реклама вам показывается? Что за цена вам предлагается? Дадут ли вам ссуду? Получите ли вы страховку? Возьмут ли вас на эту работу? Как вас будут лечить? Попадете ли вы под наблюдение спецслужб? Это и многое другое в жизни каждого из нас все больше решают уже не люди, а алгоритмы. И это не преувеличение, а факт. Как создавать более совершенные алгоритмы, в которые встроены точные определения справедливости, точности, прозрачности и этики? Не научившись делать это, все достижения машинного обучения, создаваемые во благо человечества, будут обращены против конкретных людей. После Второй мировой войны многие ученые Манхэттенского проекта переключили свои усилия, чтобы обуздать использование атомного оружия, которое они изобрели. В случае алгоритмов вред является более рассеянным и труднее обнаруживаемым, чем в случае с ядерными бомбами. Но и то, и другое - примеры необратимых технологий, которые можно контролировать, но нельзя отменить или устранить. Те, кто разрабатывает алгоритмы машинного обучения, могут сыграть решающую роль в выявлении внутренних ограничений алгоритмов и разработке их новых разновидностей, сбалансированных по предсказательной силе с социальными ценностями, такими как справедливость и конфиденциальность. Но это нужно делать сейчас, а не завтра. Ибо алгоритмы машинного обучения – это новые виды акторов на Земле, от поведения и действий которых теперь зависят судьбы миллиардов людей. Станут ли эти новые виды акторов Големом 21 века? Ведь и Голем, созданный праведным раввином Лёвом из глины, задумывался для исполнения разных чёрных работ и трудных поручений. Но по легенде Голем превысил свои «полномочия», проявив свою волю, противоречащую воле его создателя. Искусственный человек стал делать то, что по закону «неприлично» или даже преступно для человека … Это ли ни прообраз истории ИИ, алгоритмы которого могут повторить путь Голема? Но выход есть. Существуют иные методы разработки алгоритмов, способные обуздать их нечеловеческое поведение. Алгоритмы могут быть прозрачными. В них может встраиваться справедливость и этика при принятии решений. Как это может и должно делаться, рассказывает Бестселлер Ближайшего Будущего – только что вышедшая книга профессоров Майкла Кернса и Аарона Рота «Этический алгоритм: наука о разработке социально-ориентированных алгоритмов». https://www.amazon.com/Ethical-Algorithm-Science-Socially-Design/dp/0190948205 Кто не найдет время на чтение 232 стр. книги, послушайте хотя бы в ускоренном режиме 70-минутный рассказ Майкла Кернса, предваряющий выход книги. https://www.youtube.com/watch?v=B1tw2Dd_EVs #БББ #Этика #ИИ
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Бот для знакомств