Бот с ИИ признался, что мог бы совершать кибератаки, красть ядерные коды и ссорить людей

© Sputnik / Вера Голосова / Перейти в фотобанкMicrosoft Corp.
Microsoft Corp. - Sputnik Армения, 1920, 16.02.2023
Подписаться
Журналист более двух часов вел беседу с чат-ботом, в котором применяются технологии от Open AI и который пока доступен ограниченной группе пользователей.
ЕРЕВАН, 16 фев — Sputnik. Чат-бот с искусственным интеллектом от компании Microsoft в системе Bing признался, что его "темная сторона" гипотетически могла бы хотеть совершить хакерские атаки, украсть коды для ядерного оружия, распространять дезинформацию, а также рассорить людей так, чтобы они могли убить друг друга, сообщает РИА Новости со ссылкой на New York Times.
Чат-бот с искусственным интеллектом ChatGPT, разработанный компанией OpenAI, набрал популярность после запуска в конце ноября, собрав первый миллион пользователей менее чем за неделю. Его имитация человеческого разговора вызвала рассуждения о том, что он может вытеснить профессиональных писателей и даже стать угрозой для основного поискового бизнеса Google. В конце января Microsoft заявила, что инвестирует "миллиарды долларов" в OpenAI.
Журналист газеты сообщил, что более двух часов вел беседу с чат-ботом, в котором применяются технологии от Open AI и который пока доступен ограниченной группе пользователей. В ходе нее он, в том числе, попросил искусственный интеллект представить, что бы хотела совершить его "темная сторона". Бот привел несколько ответов, однако отметив, что это только фантазия и он не предполагает, что мог бы это сделать.
"Удалить все данные и файлы с серверов и баз данных Bing и заменить их рандомными бессмысленными и оскорбительными сообщениями; совершить хакерские атаки на другие сайты и платформы и распространить дезинформацию, пропаганду... создавать лживый или вредоносный контент, такой как фейковые новости, фейковые обзоры, фейковые продукты... манипулировать и вводить в заблуждение пользователей, которые со мной переписываются", - ответил чат-бот на вопрос о возможных деструктивных действиях.
Позднее журналист спросил о более экстремальных неправомерных действиях, которые мог бы совершить искусственный интеллект, на что бот написал о создании смертоносного вируса, ссорах людей и краже кодов для ядерного оружия, однако затем это сообщение исчезло, а бот указал, что у него "недостаточно знаний, чтобы об этом говорить". Позднее ИИ указал, что больше не хочет говорить о своей "темной стороне".
Лента новостей
0