AI Snake Oil - книга как бигтехи запугали мир, чтобы и больше заработать на AI, и монополизировать его. От ученых из Princeton/Netflix/Fb A.Narayanan и S.Kapoor. Snake oil - это панацея, мифическое лекарство от всего:
I. Интро
-
Проблема, что 1) словом AI стали размыто называть что угодно 2) пользуясь oversell и непониманием людей - запугивают их. До ChatGPT же был
Github Copilot и пофигу
- У AI все еще нет определения. 1) Что-то требующее от нас учебы или креативности + 2) Не код/правила, а неявная
emergence + 3) Системы с некой автономностью
- Нужно различать 2 типа AI: generative (хорош вплоть до хайпа) и predictive (часто не работает)
II. Что не так с predictive AI?
- Мы всюду окружены системами оценки нас алгоритмами, но они фэйлят, и на Netflix это безобидно, а в анализе кандидатов, студентов, пациентов, сотрудников,
подсудимых, заключенных итп - это критически влияющие на жизни "решения"
- Фирмы предиктивной аналитики НЕ тестят софт как в фарме
(рандомизированные контролируемые испытания) и получается дичь
- И уж тем более не изучают последствия продажи их софта
(в Австралии ложно обвинили в обогащении 400К получателей соцвыплат)
III. Можно ли предсказать будущее?
-
Если сделать поправки на утечку данных в datasets, то топ ML прогнозы не лучше древних регрессий. Продавцы AI запредельно оверселлят + медиа разгоняют, а по факту - херово работает. FTC
писали об обмане
- Причем рост данных
(разведки и бигтехи хотели бы трекать каждое наше слово) не улучшает прогнозы про людей. И погоду, пандемии, карьеры и до твитов, Гарри Поттера, Star Wars, Оруелла, Youtube (у акков топ1 видео в 40 раз круче медианного) итп
- Часть будущего останется в тумане безотносительно объема данных
IV. Долгий путь к GenAI
- До gen AI ехали аж с
перцептрона, а его открыли 70 лет назад.
Хинтон про deep learning
обобщил в 1986 (и получил
Turing Award - а-ля Нобель),
ImageNet в 2012, GPT2 в 2019..
- GenAI принес дипфейки, фрод, глюки, грязные и biased данные
- В генерации кода - работает, а в картинках итп - все стоит на недоплате роялти авторам, попавшим в datasets
V. AI это existential risk?
- AI паника - это башня из заблуждений и размытейших обобщений. По сути, все стоит на предпосылке, что AI якобы перешагнет некую планку автономности или superhuman intelligence. Но это противоречит всей истории технологий, они же всегда постепенно
- Кстати, уже лет 70 все прогнозы о AGI фэйлили
- Давайте лучше решать конкретные проблемы, а-ля как в инфобезопасности
VI. Почему AI не решит проблемы соцсетей
- 1. AI плохо модерирует, особенно - ложно ошибается 2. Произошла передача [цифрового] общественного пространства в руки неподотчетных частных компаний - свободу слова мочканули. Это с 2018го - Конгресс США атаковал FB,
закон 1996г дезавуировали, и основным продуктом соцсетей стала модерация
- Twitter жестко модерируется и после покупки Маском (насилие, дети, hate speech итп). Юзеры могут и жаловаться, и само алгоритмами (у FB мало в каких странах модераторы, ТГ тут не уникален)
- Знание культурных контекстов на весь мир тоже сложно
- Причем апелляции в соцсетях/Uber/DoorDash итп оч. долго - и люди теряют работы/доходы
- Соцсетям плохо от целевых атак сетей государственных ботов (типа замена слов на что люди еще поймут, а алгоритмы уже нет)
VII. Причины мифов об AI
- Широкая общественность не в курсе, что в AI
были и хайпы, и "зимы"
- Журналисты не успевают/не могут (они же не инженеры) чекать набросы бигтехов
- Богатые корпорации, без каких-либо стимулов к прозрачности, задавили академию в своих А) маркетинговых и Б) политических целях когда они говорят об AI, в тч ссылаясь на ненаучные “исследования”.
Даже Киссинджера впрягли в пропаганду =)
VIII. Что дальше?
- Нужны правила, как фирмы могут рекламировать AI продукты. Особенно в predictive AI, где большинство софта не работает
- Главные даунсайды AI - в применении. И, кстати, основной спрос на AI панацею - от поломанных, неэффективных организаций, ищущих быстрые решения всего, расходуя ценные ресурсы
- Вас не удивляет, что бигтехи активно
лоббируют регуляцию самих себя? =))