Стратегический ход OpenAI: Приветствуя экспертизу в области кибербезопасности в Совете
OpenAI, ведущая исследовательская организация в области искусственного интеллекта, назначила в свой совет директоров генерала армии США в отставке Пола М. Накасоне, бывшего директора Агентства национальной безопасности (АНБ). Накасоне, который дольше всех занимал пост руководителя киберкомандования США и АНБ, привносит в OpenAI обширный опыт в области кибербезопасности. Это назначение подчёркивает приверженность OpenAI обеспечению безопасной и полезной разработки общего искусственного интеллекта (AGI).
В качестве важного шага по укреплению своих возможностей в области кибербезопасности OpenAI, ведущая компания по исследованиям и разработкам в области искусственного интеллекта, назначила генерала армии США в отставке Пола М. Накасоне членом своего совета директоров. Накасоне, который ранее занимал пост директора Агентства национальной безопасности (АНБ) и командующего киберкомандованием США, обладает обширным опытом в области кибербезопасности и обеспечения национальной безопасности. Его назначение подчёркивает приверженность OpenAI обеспечению безопасной и полезной разработки общего искусственного интеллекта (AGI).
Военная карьера Накасонэ длилась более трех десятилетий, в течение которых он сыграл ключевую роль в формировании системы кибербезопасности вооружённых сил США. Как самый продолжительный руководитель киберкомандования США, он руководил созданием командования и сыграл важную роль в развитии возможностей киберзащиты страны. Его пребывание в АНБ привело к созданию Центра безопасности искусственного интеллекта, который занимается защитой цифровой инфраструктуры страны и развитием её возможностей киберзащиты.
В OpenAI Накасоне первоначально войдёт в состав Комитета по охране и безопасности, который отвечает за принятие важнейших решений для всех проектов и операций OpenAI. Его идеи внесут значительный вклад в усилия компании по лучшему пониманию того, как искусственный интеллект может быть использован для укрепления кибербезопасности путём быстрого обнаружения угроз кибербезопасности и реагирования на них. Опыт Накасоне будет бесценен для руководства OpenAI в достижении её миссии по обеспечению того, чтобы AGI приносил пользу всему человечеству.
Это назначение было встречено положительной реакцией отраслевых экспертов. Многие считают, что опыт Накасонэ в военной сфере и кибербезопасности даст бесценную информацию, особенно по мере того, как технологии искусственного интеллекта становятся все более неотъемлемой частью стратегий национальной безопасности и обороны. Его опыт в области кибербезопасности поможет OpenAI ориентироваться в сложном ландшафте безопасности искусственного интеллекта и гарантировать, что её системы искусственного интеллекта устойчивы к различным формам киберугроз.
Хотя назначение Накасоне является значительным шагом вперёд, OpenAI по-прежнему сталкивается с проблемами в обеспечении безопасной и ответственной разработки искусственного интеллекта. Недавно из компании ушли ключевые сотрудники по безопасности, в том числе соучредитель и главный научный сотрудник Илья Суцкевер и Ян Лейке, которые были откровенно обеспокоены приоритетностью процессов безопасности в компании. Роль Накасоне будет иметь решающее значение в решении этих проблем и обеспечении того, чтобы системы искусственного интеллекта OpenAI разрабатывались с учётом требований безопасности.