full screen background image

Хакер взломал OpenAI, раскрыв внутренние секреты и вызвав опасения по поводу национальной безопасности

В начале прошлого года неизвестный хакер проник во внутренние системы обмена сообщениями OpenAI, похитив у сотрудников детали о работе технологий компании. Хотя хакер не получил доступ к системам, содержащим ключевые технологии ИИ, инцидент вызвал серьезные опасения по поводу безопасности внутри компании и даже поднял вопросы о национальной безопасности США.

Взлом произошел на онлайн-форуме, где сотрудники обсуждали новейшие технологии OpenAI. Хотя основные системы компании не были скомпрометированы, некоторая конфиденциальная информация все же была раскрыта. В апреле 2023 года руководство OpenAI сообщило об инциденте сотрудникам и совету директоров, но решило не предавать его огласке, аргументируя это тем, что данные клиентов и партнеров не были украдены, а хакер, вероятно, был отдельным лицом без связей с правительством.

Леопольд Ашенбреннер — технический менеджер программ в OpenAI, раскритиковал меры безопасности компании, предположив, что они недостаточны для предотвращения доступа иностранных противников к конфиденциальной информации. Позже он был уволен за утечку информации, что, по его утверждению, было политически мотивированным решением. OpenAI настаивает, что его увольнение не связано с его опасениями по поводу безопасности.

Инцидент усилил опасения по поводу потенциальных связей с иностранными противниками, особенно с Китаем. Хотя OpenAI считает, что ее текущие технологии ИИ не представляют значительной угрозы национальной безопасности, утечка информации китайским специалистам могла бы помочь им быстрее продвинуть свои ИИ-технологии.

В ответ на взлом OpenAI, как и другие компании, усиливает меры безопасности. Компания создала Комитет по безопасности и защите, включающий бывшего главу АНБ, для решения будущих рисков. Тем временем, федеральные и государственные регуляторы рассматривают возможность контроля за выпуском технологий ИИ и введения штрафов за вредные последствия, хотя эксперты полагают, что наиболее серьезные риски от ИИ будут в будущем.




Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Подпишитесь на рассылку новостей
обо всех интересующих вас событиях из мира
игр. С нами Вы не упустите ни одну новость,
мы Вам это гарантируем.