🧨ChatGPT помог устроить теракт в США!
Именно такие заголовки еще со вчерашнего дня заполонили интернет и многие не разбираясь постят полную дичь, поэтому предлагаю разобраться в ситуации чуть подробнее.
Что же произошло: 🟢 37 летний мужчина решил подорвать себя вместе с машиной Tesla Cybertrack возле отеля Trump International в Лас-Вегасе.
🟢Для того чтобы узнать, как это сделать и в каком количестве, мужчина воспользовался ChatGPT, который предоставил ему общедоступную информацию в интернете.
🟢ChatGPT трижды проинформировал мужчину что это нарушает закон, небезопасно и может привести к серьезным последствиям, включая смерть.
Что важно понять из этой ситуации?
Да только то, что при запросе "как создать взрывчатку" любая нейросеть НИКОГДА не выдаст такую информацию. Тут человек явно тренировался в обходе, прибегая к методу запутывания нейросети, которые, к сожалению, также существуют в силу несовершенства технологий.
Конечно, это ужасно, но никто не мог гарантировать того, что человек сам по себе не нашел бы эту информацию в интернете, потратив на её поиск чуть больше времени. Другим же людям как-то удается её найти...
Это еще раз доказывает, что в первую очередь нужно искать способы запрета подобной информации в интернете и блокировать те ресурсы, из которые можно узнать о столь ужасных вещах, а не винить технологию, которая нашла эту информацию обманным путем.
А что вы думаете на этот счет: Вина лежит на ChatGPT и разработчиках, или же дело в проблеме общедоступности такой информации?