WarBulletin.cc - это ведущая онлайн-платформа, посвященная индустрии компьютерных и консольных игр, а также онлайн играм, многопользовательским ролевым играм (RPG) и многим другим аспектам игрового мира. Мы предлагаем самые свежие новости, глубокие обзоры, полезные гайды, прохождения

Contacts

  • Owner: SNOWLAND s.r.o.
  • Registration certificate 06691200
  • 16200, Na okraji 381/41, Veleslavín, 162 00 Praha 6
  • Czech Republic

В каждом федеральном агентстве США теперь должен быть главный директор по искусственному интеллекту

Вице-президент США Камала Харрис объявила о новых требованиях к федеральным агентствам в связи с внедрением искусственного интеллекта (ИИ) в государственной службе. Согласно новым правилам, каждое федеральное агентство должно назначить старшего руководителя, ответственного за все используемые ими системы ИИ. Это должно обеспечить безопасное и ответственное использование ИИ в государственном секторе.

Помимо назначения главного директора по ИИ, агентства также обязаны создать советы по управлению ИИ для координации использования технологий. Кроме того, агентства должны ежегодно предоставлять в Административно-бюджетное управление (OMB) отчеты со списком всех используемых ими систем ИИ, возможных рисков и планов по их смягчению.

Главный директор по ИИ не обязательно должен быть политиком — это зависит от структуры конкретного агентства, однако советы по управлению ИИ должны быть созданы уже к этому лету.

Эти требования расширяют ранее объявленную политику администрации Байдена в отношении ИИ, которая обязывала федеральные ведомства создавать стандарты безопасности и увеличивать количество талантливых специалистов по ИИ, работающих в правительстве. Правительство США планирует нанять около 100 профессионалов в области ИИ к лету.

Агентства должны регулярно контролировать свои системы ИИ и предоставлять в OMB их подробный список. Если какие-либо системы считаются слишком «чувствительными» для включения в список, агентство должно публично обосновать причины исключения. Агентства также должны самостоятельно оценивать риски безопасности каждой используемой ими платформы ИИ.

Федеральные агентства обязаны удостовериться, что применяемые системы ИИ соответствуют гарантиям, «снижающим риски алгоритмической дискриминации и

Подробнее читайте на beltion-game.com