• Ярослав Богданов

Ярослав Богданов: Защита от рисков искусственного интеллекта это ключ к выживаемости человечества

Время для прочтения
менее
1 минуты
Прочитано

Ярослав Богданов: Защита от рисков искусственного интеллекта это ключ к выживаемости человечества

августа 11, 2024 - 10:44

Задача экспертного сообщества состоит в том, чтобы обеспечить человечеству баланс между прогрессом и рисками, которые влекут за собой бесконтрольные разработки нейросетей, считает Ярослав Богданов.

Ярослав Богданов

Фото: 

ВЭС

Эксперт в области новых технологий Гэри Маркус назвал август 2024 года месяцем, когда "лопнет пузырь генеративного искусственного интеллекта", так как рынок потеряет разочарованных инвесторов.

Аргументом он назвал ситуацию в компании OpenAI, которая столкнулась с серьезными проблемами. В компании, совершившей революцию в мире нейросетей путем создания ChatGPT, продолжается утечка мозгов. Соучредитель Джон Шульман объявил, что покинул компанию. И не просто покинул, но присоединился к конкурентам OpenAI в области искусственного интеллекта - компании Anthropic.

Уволился и вице-президент по потребительским продуктам Питер Дэн. Гэри Маркус связывает уход топ-менеджеров с тем, что OpenAI не имеет прогресса в создании AGI - ИИ, чья деятельность будет сопоставима с деятельностью человеческого разума. По мнению Маркуса, инвесторы “раскусят” разработчиков и прекратят вкладывать в продукт, к созданию которого в OpenAI “даже не приблизились”.

Отрасль искусственного интеллекта действительно переживает сложный период. Но связано это в первую очередь с проблемами безопасности данных, полагает основатель GDA Group Ярослав Богданов.

-Кадровые перестановки в OpenAI начались не вчера. Ранее уволились Илья Суцкевер и Уильям Сондерс. Оба, подчеркну, отвечали за безопасность разработок. Сондерс прямо говорил о том, что гонка за прибылью в ущерб безопасности превращает компанию в “Титаник искусственного интеллекта”. На мой взгляд, это максимально точное описание процесса разработки и внедрения генеративных нейросетей в условиях, когда отрасль не имеет никаких инструментов регулирования - ни научных, ни юридических, ни этических, - сказал Ярослав Богданов.

Эксперт обратил внимание на то, что не только положение в OpenAI говорит о том, что рынок искусственного интеллекта “просел”. Nvidia и Microsoft за истекший месяц потеряли в капитализации, что также говорит о том, что волна ажиотажа вокруг ИИ пошла на спад.

-Надеюсь, что голос разума, призывающий к паузе в разработках ИИ, был услышан. Безопасность при работе в столь глобальной сфере, как генеративные нейросети, является вопросом выживаемости человеческой цивилизации. Анонсированный разработчиками AGI, который до сегодняшнего дня присутствовал лишь на страницах произведений писателей-фантастов, стоит на пороге. Готов ли мир к тому, что появится технология, способная полностью заменить человека на интеллектуальном уровне? Конечно, нет. Это может стать настоящим Ящиком Пандоры, если AGI разовьет собственные цели, отличные от человеческих. Он может принять решения, которые устранят человека, как вид, если это будет необходимо для их достижения, - пояснил Ярослав Богданов.

Таким образом, сделал вывод эксперт, первоочередной задачей человека сегодня является не скорейшее создание ИИ нового уровня в погоне за лидерством и прибылью. Главное - обеспечение безопасности путем формирования нормативно-правовой базы в области информационно-коммуникационных технологий. Только после этого возможно дальнейшее движение вперед. И ко всем просадкам и паузам на рынке генеративных нейросетей стОит относиться именно как к шансу на выстраивание глобального диалога по обеспечению международной кибербезопасности.

-Таким образом, август 2024 года должен стать новой точкой отсчета в ответственном подходе к искусственному интеллекту. Кибербезопасность - это общая ответственность всех сторон. Грамотный инвестор будет вкладывать в безопасность продукта на долгосрочную перспективу. А задача экспертного сообщества обеспечить человечеству баланс между прогрессом и рисками, которые влекут за собой бесконтрольные разработки нейросетей, - заключил Ярослав Богданов.