Математика Дата саентиста

Канал
Логотип телеграм канала Математика Дата саентиста
@data_mathПродвигать
11,16 тыс.
подписчиков
Заявки принимаются автоматически! ChatGPT бот в закрепе - это последнее достижение в области ИИ в одном чат-боте, который знает все и отвечает на любые вопросы https://t.center/+1w5K13rOMctmNDIy - ссылка на канал @notxxx1 - админ @data_analysis_ml - ds
👨‍🎓 Конспекты лекций от Стэнфорда по теории вероятностей (уровень кандидата наук)

https://web.stanford.edu/class/stats310a/lnotes.pdf

@data_math
✔️ FrontierMath: набор тестов по математике, который ставит в тупик модели ИИ и кандидатов наук.

Epoch AI представила FrontierMath, математический тест, который содержит сотни задач экспертного уровня. Claude 3.5 Sonnet, GPT-4o, o1-preview и Gemini 1.5 Pro показали крайне низкие результаты - менее 2%, а для решения задач теста математикам-специалистам обычно требуются часы или дни.

Набор задач в FrontierMath остается закрытым и неопубликованным, чтобы предотвратить загрязнение данных. Задачи охватывают несколько математических дисциплин, от вычислительной теории чисел до абстрактной алгебраической геометрии.
Epoch AI планирует проводить регулярную оценку моделей ИИ с помощью теста, одновременно расширяя набор задач.

📌 epoch.ai

@data_math
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 Мечтаете о карьере в IT, но не хотите программировать? Хорошая новость: это возможно!

Если стать аналитиком данных — IT-специалистом, который собирает и анализирует данные, чтобы строить прогнозы для бизнеса. Аналитики данных востребованы во многих сферах: IT, маркетинг, ритейл, банкинг и т. д.

Обучение подойдет, если вы:
🟣новичок без опыта в IT
🟣бухгалтер, финансист или экономист
🟣уже работаете с аналитикой и хотите углубить знания для роста в карьере

На курсе вы получите навыки, которые реально нужны работодателям, и овладеете самыми популярными инструментами: Python, Pandas, NumPy, Jupyter Notebook, SQL, Power BI.

🔗 Начните работать аналитиком уже через 6 месяцев! Заполните заявку, чтобы получить бесплатный доступ к первым урокам.
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Курс: Прикладное машинное обучение - Cornell CS5785

"Начинается с самых основ, рассказывается обо всех наиболее важных алгоритмах ML и о том, как применять их на практике. Готовые ноутбук Jupyter (и в виде слайдов)".

80 видеороликов!!

Видео: https://youtube.com/playlist?list=PL2UML_KCiC0UlY7iCQDSiGDMovaupqc83
Код: https://github.com/kuleshov/cornell-cs5785-2020-applied-ml

@data_math
Forwarded from Machinelearning
📌Руководство по эффективному использованию промптов для LLM от разработчиков из GoogleDeepMind.

Туториал ориентируется на нетехническую аудиторию, которая имеет опыт взаимодействия с большими языковыми моделями.

В первой половине представлены ментальные конструкции природы посттренинга и промптов. Вторая половина содержит более конкретные предписания и высокоуровневую процедуру промпт-инжиниринга.

Авторы, Varun Godbole и Ellie Pavlick подчеркивают, что поиск «идеальной» подсказки — это итеративный процесс, аналогичный настройке модели, который в лучшем случае является эмпирическим, а в худшем - алхимическим.

▶️ Содержание:

🟢Для кого предназначен этот документ?
🟢Зачем нужно это руководство?
🟢Background трейна: предварительная и последующая подготовка
🟢Рекомендации по промптам
🟢Рудиментарное "руководство по стилю" для промптов
🟢Процедура итерации новых системных инструкций
🟢Некоторые мысли о том, когда полезна LLM
🟢Дополнительные ресурсы


📌Лицензирование: Creative Commons Attribution 4.0 International Public License.


🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Prompt #Github #Tutorial
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Математические формулы с помощью Python

@data_math
🔥 Курс «Основы искусственного интеллекта» — Python, машинное обучение, глубокое обучение, наука о данных!

🕞 Продолжительность: 10:22:25

🔗 Ссылка: *клик*

#курс #ai #datascience #deeplearning

@data_math
Please open Telegram to view this post
VIEW IN TELEGRAM
🕓 Крутые часы для математика

@data_math
Forwarded from Machinelearning
🌟 Llama-3.1-Centaur-70B: модель симуляции поведения человека.

Centaur - модель, которая способная предсказывать и симулировать поведение человека в любом психологическом эксперименте, который можно описать на естественном языке.

Это первая модель, соответствующая большинству критериев Ньюэлла для универсальной теории познания, включая способность действовать как почти произвольная функция окружающей среды и работать в реальном времени.

Centaur создана на основе Llama 3.1 70B и дообучена на наборе данных Psych-101, включающем данные 60 000 участников, давших суммарно 10 000 000 ответов в 160 психологических экспериментах.

Psych-101 охватывает широкий спектр областей когнитивной науки: игровые автоматы, принятие решений, память, обучение с учителем, процессы принятия решений Маркова и др.

Centaur дообучалась методом QLoRA: к каждому слою базовой Llama 3.1 70B были добавлены низкоранговые адаптеры, при этом параметры базовой модели остались неизменными.

Обучение проводилось на всем наборе данных с использованием стандартной функции потерь кросс-энтропии. Потери маскировались для всех токенов, не соответствующих ответам людей, чтобы итоговая модель фокусировалась на моделировании поведения человека.

В большинстве проведенных экспериментов Centaur превосходит как базовую модель Llama, так и специализированные когнитивные модели, разработанные для конкретных областей психологии.

Кроме того, Centaur обобщает знания на "незнакомые" ситуации, которые не входили в датасет обучения: точно предсказывает поведение при измененных формулировках задач, структурах проблем и даже в совершенно новых областях.

Важный результат экспериментального тестирования - соответствия внутренних представлений Centaur нейронной активности человека.

Это открытие было подтверждено 2 исследованиями, в которых внутренние представления модели использовались для предсказания активности мозга. Centaur продемонстрировала улучшенную декодируемость по сравнению с Llama в задачах, связанных с чтением предложений и выполнением двухэтапных задач.

⚠️ Centaur обучена на наборе данных, в котором выбор человека выражается символами "<<" и ">>".
Для оптимальной работы рекомендуется соответствующим образом настроить промпты.

⚠️ Модель запускается на 80 GB GPU.


📌Лицензирование: Llama 3.1 Community License.

📌Лицензирование датасета : Apache 2.0 License.


🟡Модель
🟡Техотчет
🟡Датасет


@ai_machinelearning_big_data

#AI #ML #LLM #Centaur
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🛜 Находим пароль от Wi-fi из известного мема, с помощью Grok и Chatgpt.

GPT решил задачу численно, а Grok понял, что интеграл можно разбить на 2 части: первая - интеграл от нечетной функции по [-a,a] (которая равна 0), а вторая - площадь круга!

@data_math
Media is too big
VIEW IN TELEGRAM
🔥 Видео от университета Стэнфорда о создании больших языковых моделей!

💡 Это видео — краткий обзор создания модели, подобной ChatGPT, охватывающий как предварительное обучение модели, так и последующее обучение (SFT/RLHF).

В видео рассматриваются общие практики сбора данных, алгоритмы и методы оценки модели.

🕞 Продолжительность: 1:44:30

🔗 Ссылка: *клик*

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 kalmangrad — это Python-библиотека для вычисления гладких производных произвольного порядка для временных рядов с нерегулярными интервалами. Она использует байесовскую фильтрацию, что делает её устойчивой к шумам по сравнению с классическими методами численного дифференцирования

⭐️ Библиотека полезна для оценки производных в таких областях, как обработка сигналов и системы управления, и поддерживает вычисление производных вплоть до заданного порядка

🖥 GitHub

@data_math
Please open Telegram to view this post
VIEW IN TELEGRAM
🤙 Число Грэма на пальцах

Как только ребенок (а это происходит где–то года в три–четыре) понимает, что все числа делятся на три группы "один, два и много", он тут же пытается выяснить: насколько много бывает много, чем много отличается от очень много, и может ли оказаться так много, что больше не бывает. Наверняка вы играли с родителями в интересную (для того возраста) игру, кто назовет самое большее число, и если предок был не глупее пятиклассника, то он всегда выигрывал, на каждый "миллион" отвечая "два миллиона", а на "миллиард" — "два миллиарда" или "миллиард плюс один".

Уже к первому классу школы каждый знает — чисел бесконечное множество, они никогда не заканчиваются и самого большого числа не бывает. К любому миллиону триллионов миллиардов всегда можно сказать "плюс один" и остаться в выигрыше. А чуточку позже приходит (должно прийти!) понимание, что длинные строки цифр сами по себе ничего не значат. Все эти триллионы миллиардов только тогда имеют смысл, когда служат представлением какого–то количества предметов или же описывают некое явление. Выдумать длиннющее число, которое ничего из себя не представляет, кроме набора долгозвучащих цифр, нет никакого труда, их итак бесконечное количество. Наука, в какой–то образной мере, занимается тем, что выискивает в этой необозримой бездне совершенно конкретные комбинации цифр, присовокупляя к некому физическому явлению, например скорости света, числу Авогадро или постоянной Планка.

Представьте, насколько огромными могут быть числа! Вот несколько примеров невероятно больших чисел:

10^51 — это количество атомов на Земле.

10^80 — примерно столько существует элементарных частиц во всей видимой Вселенной.

10^90 — примерно столько существует фотонов во всей видимой Вселенной. Это число превышает количество элементарных частиц почти в 10 миллиардов раз.

10^100 — это гугол. Хотя это число не имеет физического смысла, оно звучит красиво и кругло. В 1998 году компания, которая поставила перед собой шутливую цель проиндексировать гугол ссылок, назвалась Google.

10^122 — это количество протонов, необходимое для заполнения всей видимой Вселенной до предела.

10^185 — это объем видимой Вселенной в планковских объемах. Планковский объем — это куб размером 10^-35 метров, наименьший известный науке размер. Скорее всего, как и у Вселенной, существуют еще более мелкие объекты, но ученые пока не нашли для них внятных формул, ограничиваясь лишь предположениями.

Но даже эти числа далеко не предел. Настоящие гиганты, такие как число Грэма, все еще ждут своего часа.

⭐️ Читать подробнее

@data_math
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram Center
Telegram Center
Канал