Я недавно писал, как всё чаще начали использоваться
сгенерированные голоса для мошенничества. Но если задуматься, это ведь только первые ласточки.
Учёные из Стэнфорда провели очень интересное исследование и выяснили, что цифровые копии личности уже сегодня могут с
85-процентной точностью имитировать мышление конкретных людей. Созданные искусственным интеллектом "дипфейки" способны принести революцию не только в социальных науках, но и изменить наше представление о реальности.
В Стэнфордском университете провели
эксперимент, в ходе которого с высокой точностью были "смоделированы" более 1000 реальных людей. Сделано это было с использованием новой модели искусственного интеллекта, лежащей в основе ChatGPT. Как выяснилось, современные модели ИИ способны предсказывать ответы людей на различные опросники, психологические тесты на личность и мысленные эксперименты с точностью до 85 процентов, основываясь всего лишь на коротком двухчасовом "живом" общении.
Исследователи утверждают, что такая технология может стать мощным инструментом для социальных исследований и политики, позволяя моделировать реакции людей на разные политические решения. Это само по себе ставит много этических вопросов, но понятно, что
если такие "цифровые двойники" конкретных людей попадут в руки злоумышленников, они могут использовать их для манипуляций, шантажа или других неправомерных действий. Всё это приведёт к снижению доверия к любому виртуальному взаимодействию.
А как вам новый жанр - ИИ-интервью с умершими знаменитостями? (например, опубликованная на днях дискуссия одного из российских блогеров с
"виртуальным Лениным")?
Нет впечатления, что такое цифровое клонирование должно начать как-то законодательно регулироваться?
@rogozin_alexey