Экс-сотрудник OpenAI из команды Superalignment поделился 165-страничным документом о будущем ИИ. Основные поинты:
- К 2027 году ожидается еще один значительный скачок в возможностях ИИ, который может достигнуть уровня AGI (искусственный интеллект общего назначения).
- Сотни миллионов AGI могут ускорить исследования ИИ, потенциально сократив десятилетия прогресса до нескольких лет, а переход от AGI к суперинтеллекту значительно увеличит как возможности, так и риски, связанные с ИИ.
- Контроль над системами ИИ, превосходящими человеческий интеллект, является серьезной нерешенной технической проблемой.
- По мере развития ИИ, вероятно, возникнет необходимость в правительственных проектах для безопасного управления суперинтеллектом.
- Важно распознавать и готовиться к этим быстрым изменениям, чтобы не быть застигнутым ими врасплох.
#report #AI@HotDigital