Смотреть в Telegram
Как думаете: 1) Что общего у Ильи Суцкевера и Джозефа Ротблатта? 2) Сколько приоритетных задач ставили перед разработчиками ядерного оружия до и после испытаний в пустыне Аламогордо? 3) Можно ли самому примерно оценить, превосходят ли нас LLM в глубине и ясности мышления? Наверное, многим формулировка и сочетание вопросов покажутся странными. Но дело вот в чем. В прошлом году под «Заявлением о рисках, связанных с ИИ» [1] поставили подписи сотни видных экспертов и общественных деятелей. Они писали, что снижение риска исчезновения человечества из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война. Результат – как слону дробина. Все идет, как и шло. Только процесс ускоряется. Позавчера на политическом форуме Science появилась статья «Управление экстремальными рисками ИИ на фоне быстрого прогресса» [2], среди авторов которой многие известные люди: Йошуа Бенджио, Джеффри Хинтон, Эндрю Яо и еще 22 человека. Вангую – результат будет тот же. Караван пойдет дальше, не обращая внимания и на это обращение. Как будто всех их пишут экзальтированные недоучки, а не сами разработчики ИИ-систем. Что же тогда может добавить к сказанному отцами нынешних ИИ-систем автор малоизвестного, хотя и интересного для ограниченной аудитории канала? Думаю, кое-что все же могу. Как говорил Гарри Трумэн, - If you can't convince them, confuse them ("Если не можешь их убедить, запутай их."). А запутывать можно, задавая такие вопросы, отвечая на которые ваши оппоненты будут вынуждены, либо соглашаться с вами, либо впасть в противоречие, видное им самим. Следуя совету Трумэна, я и выбрал 3 вопроса, приведенные в начале этого текста. И вот как я сам отвечаю на них. 1) То же, что у OpenAI и Манхэттенского проекта. 2) До испытаний – более 20, после – лишь одну. 3) Можно, самостоятельно пройдя «Тест Тесла». Полагаю, что наиболее пытливые читатели захотят сначала сами поразмыслить, почему вопросы именно такие, и что за интрига стоит за каждым из них. Ну а кто пожелает сразу перейти к моему разбору, - читайте его в не очень длинном лонгриде: «Так что же увидели Суцкевер и Лейке, сподвигнувшее их уйти. Попробуйте сами оценить, что прячут за закрытыми дверьми OpenAI, пройдя "Тест Тесла"» Картинка поста: https://telegra.ph/file/9623799578bb9d3c21828.jpg 1 https://www.safe.ai/work/statement-on-ai-risk 2 https://www.science.org/doi/10.1126/science.adn0117 Лонгрид: https://boosty.to/theworldisnoteasy/posts/8afdaedc-15f9-4c11-923c-5ffd21842809 https://www.patreon.com/posts/tak-chto-zhe-i-104788713 P.S. Читатели, ограниченные в средствах на подписку, могут написать мне, и я дам им персональный доступ к тексту лонгрида (очень надеюсь, что уж в этот-то раз, среди желающих прочесть лонгрид, подписчиков окажется больше 😊) #AGI #ИИриски
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Бот для знакомств