View in Telegram
Я недавно писал, как всё чаще начали использоваться сгенерированные голоса для мошенничества. Но если задуматься, это ведь только первые ласточки. Учёные из Стэнфорда провели очень интересное исследование и выяснили, что цифровые копии личности уже сегодня могут с 85-процентной точностью имитировать мышление конкретных людей. Созданные искусственным интеллектом "дипфейки" способны принести революцию не только в социальных науках, но и изменить наше представление о реальности. В Стэнфордском университете провели эксперимент, в ходе которого с высокой точностью были "смоделированы" более 1000 реальных людей. Сделано это было с использованием новой модели искусственного интеллекта, лежащей в основе ChatGPT. Как выяснилось, современные модели ИИ способны предсказывать ответы людей на различные опросники, психологические тесты на личность и мысленные эксперименты с точностью до 85 процентов, основываясь всего лишь на коротком двухчасовом "живом" общении. Исследователи утверждают, что такая технология может стать мощным инструментом для социальных исследований и политики, позволяя моделировать реакции людей на разные политические решения. Это само по себе ставит много этических вопросов, но понятно, что если такие "цифровые двойники" конкретных людей попадут в руки злоумышленников, они могут использовать их для манипуляций, шантажа или других неправомерных действий. Всё это приведёт к снижению доверия к любому виртуальному взаимодействию. А как вам новый жанр - ИИ-интервью с умершими знаменитостями? (например, опубликованная на днях дискуссия одного из российских блогеров с "виртуальным Лениным")? Нет впечатления, что такое цифровое клонирование должно начать как-то законодательно регулироваться? @rogozin_alexey
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Find friends or serious relationships easily