Австрийская пресса
задается грустным вопросом – отчего в Европе всё так плохо с ИИ? У американцев-то и «ОпенАИ» есть, и «Гугл» с «Метой». Чат наш Гепете скоро в американские президенты сможет баллотироваться, а где европейские продукты? Европейцы, где же ваш
Бог генеративный ИИ, где большие языковые модели?
И действительно, их нет.
(Почти, но об этом ниже)
Причины совершенно тривиальны, и «Штандарт» их называет сам: чрезвычайная зарегулированность всего в ЕС, евробюрократия, драконовские законы о «личных данных», а также совсем недавний гвоздь в киберботинок – принятый в мае регламент об искусственном интеллекте. О каком же прогрессе тут может идти речь? Пока выжившая из ума Европа пользуется бумажной почтой или скрипит факсами, передовые американцы вместе с технократами-китайцами покоряют очередной «последний фронтир». Дело раскрыто: проблемы европейцев порождены их дурацкой Европой. Опять:-)
Но что, если это не так? Вдруг странная политика ЕС в отношении ИИ имеет рациональное объяснение? Ну, то есть не сумасшедшие немцы взяли и просто так закрыли все АЭС (потому что сумасшедшие и немцы), а это
следствие некой стратегии: разумной и выгодной
в текущих условиях. Что, если и отношения ЕС и ИИ можно трактовать так же?
Давайте посмотрим на этот самый
регламент об ИИ. Прежде всего, он делит ИИ на несколько категорий риска, от «неприемлемого» до «минимального». ИИ, отнесенные к категории «неприемлемых» фактически запрещены. Речь идет системах, которые способны манипулировать поведением людей; собирать биометрические данные в общественных местах; и заниматься составлением «социального рейтинга». По мере снижения уровня риска смягчаются требования к системе; к «минимальному» риску отнесены ИИ для игр или спам-фильтров. Но это не самое главное. Куда важнее, что регламент также требует документации того, откуда берутся данные для обучения модели; чем выше степень риска, тем полнее и точнее должна быть документация.
На это в статье жалуется
Йозеф Хохрайтер, один из ведущих немецких специалистов в области ИИ: языковая модель, которую он разрабатывает, из-за регламента попадает в категорию высокого риска, что накладывает на него обязательства по подробной документации данных для обучения модели. И это одновременно лишает его возможности кормить свою модель теми же данными, что и американцы. Почему? Потому что это не может быть достаточно задокументировано.
- Мы могли бы иметь технологию лучше, чем у «ЧатГПТ», но нам не разрешают её использовать, - возмущается Хохрайтер, - Я считаю это абсурдным.
Да, абсурд, безумие, мракобесие. Но давайте ещё раз сформулируем требования ЕС:
нельзя кормить модель чем попало. И уж точно
не надо кормить её
американскими данными. На что это похоже? Совершенно верно, на
сельское хозяйство. И разный подход к нему по обе стороны океана.
Я как-то уже говорил, что американцы –
глубоко религиозные материалисты. Следствием этого является пренебрежение к нематериальным сущностям; например – информации. Если что-то нельзя пощупать, этого как бы и не существует; а несуществующие вещи нет смысла учитывать при планировании. У американцев тут слепое пятно. Положительным следствием такого подхода является американская свобода слова, совершенно невозможная в Европе. Отрицательным – пущенная на самотек культура, например. Очевидно, что к обучению ИИ американцы относятся так же, как своей пищевой промышленности
(«побольше и подешевле»); европейцы же, верные старым принципам, отправились регулировать «кривизну огурцов» и в сфере машинного обучения. Причины на то у них есть, причём самые веские. Ознакомиться с ними можно в любом школьном учебнике европейской истории, описывающем последние лет четыреста. Уж если для государств чрезвычайно важно, что говорят (и о чём думают) люди, то машины и вовсе будут ходить по струнке.
(Ну и, разумеется, нельзя забывать про частный случай такого подхода –
«коэффициент Мавроди»)
Продолжу сельскохозяйственную аналогию: США, безусловно, производят больше сыра, чем Франция и Германия. Но лучше ли он? Американцы-то убеждены, что да:-) Не буду спорить. «Жираф большой, ему видней».