#nlp #про_nlp #длиннопост #ai_alignment
🌸Немного мыслей по следам полной версии выступления CEO OpenAI в Конгрессе 🌸
Вызов в Конгресс — всегда следствие большого общественного интереса к проблеме, когда уже нельзя
отписаться только в блоге.
Отвечающие: OpenAI, IBM, и почему-то Гэри Маркус.
Видео
Для всего ИИ сообщества эти показательные слушания — демонстрация того среза вопросов, с которыми у власти ассоциируется ИИ.
Это, прежде всего, увы
— дезинформация, пропаганда и влияние
— персональные данные
— выборы-выборы-выборы.
🟣Забавно отдельно, что среди отвечающих — представитель IBM, компании, которая началась с автоматизации бюллетеней.
Положения, которые можно выделить из вопросов сенаторов:
— регулироване будет, вопрос лишь в том, насколько оно будет корявым, сколько причинит нам счастья и нанесет радости
— X-риск никто не ставит под сомнение
— как технически осуществить проверку сложных, да еще и закрытых технологий, никто не знает
Решения, которые были предложены самими же отвечающими в ходе ответов:
— Гэри Маркус: дайте сторонним исследователям (
мне) доступ к чужим разработкам до их релиза! Кстати, что у вас там в датасетах? Давайте вы раскроете
— Альтман: Ничего не будет раскрывать. Давайте зарегулируем все крупные разработки, основываясь на объеме компьюта и качестве работы, не будем регулировать только слабый open source, и скажем, что это благо.
— Монтгомери: посмотрите на Европу, там уже все написали. И нужен американский аналог GDPR.
— Гэри Маркус: Нужен аналог FDA для ИИ перед выпуском продукта (полный аудит с правом узнать все и отозвать технологию назад уже даже после выпуска). Нужно агенство для мониторинга состояния технологий и их применения. Нужна международная конститутция для ИИ, регулирующая безопасность.
— Альтман: независимый аудит с учеными бы не помешал.
🟣В обсуждении неявно поприсутствовал и стартап Anthropic, так как один из сенаторов напрямую спросил про их метод
Constitutional AI: Harmlessness from AI Feedback
(вот это интеграция статьи! Слабо так толкнуть свою? Уровень.)
Еще несколько слабых научных статей были использованы как аргументы совершенно не по их назначению — например, что с помощью LLM можно помоделировать результат опроса.
Что думаете?