1 минуты
На ПМЭФ обсудили безопасность разработок и внедрения искусственного интеллекта
Основатель GDA Group Ярослав Богданов: «Попытки монополизировать искусственный интеллект увеличивают угрозы кибербезопасности».
В рамках работающего в эти дни Петербургского международного экономического форума состоялась панельная дискуссия «Международный и национальный опыт регулирования сферы искусственного интеллекта». Темой для обсуждения на организованной МИД РФ сессии стали подходы к регулированию искусственного интеллекта как на национальном, так и на международном уровне.
В настоящее время искусственный интеллект (ИИ) активно развивается и интегрируется во все сферы человеческой жизнедеятельности. Однако, отсутствие должного регулирования в этой передовой области может привести к серьезным последствиям и угрозам для общества.
Особое внимание было уделено попыткам отдельных государств установить монополию на технологический прогресс, связанный с активными разработками в области генеративных нейросетей. Этот фактор в разы увеличивает угрозы, связанные с бесконтрольными и закрытыми процессами обучения ИИ. Об этом сказал принимающий участие в работе ПМЭФ-2024 основатель GDA Group Ярослав Богданов.
-Попытки ограничить доступ к информации, манипуляции и стремление к доминированию в инновационной сфере IT увеличивают риски. Отсутствие международного сотрудничества может привести к тому, что западные страны будут стремиться к накоплению материальных и политических ресурсов в одних руках, игнорируя интересы всего человечества.
Эксперт добавил также, что отсутствие регулирования может привести к росту угроз кибербезопасности. Искусственный интеллект уже используется злоумышленниками для атак на цифровую инфраструктуру и кражи персональных данных. Без соответствующих законов и механизмов контроля масштаб кибератак и утечек информации продолжит расширяться и угрожает перекинуться на государственный сектор. Отдельные подобного рода инциденты уже фиксируются в разных точках мира.
-Регулирование разработок искусственного интеллекта является необходимым для обеспечения безопасности на глобальном уровне. Политизация, нарушение этики и юридических норм недопустимы в использовании инновационных технологий такого уровня. Государства и международные организации должны активно работать над выработкой стандартов и норм, которые обеспечат устойчивое и справедливое для всех развитие искусственного интеллекта. Сотрудничество стран по этой проблематике должно выстраиваться открыто и прозрачно, без каких-либо предвзятых или дискриминационных подходов, - сказал Ярослав Богданов.
Решения по обеспечению международной информационной безопасности и регулированию искусственного интеллекта должны стать результатом совместных усилий бизнеса, государства и экспертного сообщества на международном уровне. Ранее основанная Ярославом Богдановым GDA Group выразила готовность выступить в качестве площадки для координации этих усилий.