Ярослав Богданов: Слова Нобелевского лауреата о безопасности искусственного интеллекта не должны быть проигнорированы

Время для прочтения
менее
1 минуты
Прочитано

Ярослав Богданов: Слова Нобелевского лауреата о безопасности искусственного интеллекта не должны быть проигнорированы

октября 17, 2024 - 14:08

Когда о проблеме безопасности искусственного интеллекта открыто говорит тот, кто имеет непосредственное отношение к его созданию, человечеству стоило бы задуматься, считает президент GDA Group Ярослав Богданов.

Фото: 

ВЭС

Лауреат Нобелевской премии по физике и один из основоположников искусственного интеллекта Джеффри Хинтон публично выразил гордость за одного из своих бывших учеников, который сыграл ключевую роль в краткосрочной отставке Сэма Альтмана из OpenAI, случившейся в ноябре прошлого года.

Джеффри Хинтон

Хинтон говорил об Илье Суцкевере, который получил докторскую степень в Университете Торонто в 2013 году под руководством Хинтона.

-Я горжусь тем, что Суцкевер был причастен к увольнению Альтмана из созданной ими OpenAI, - открыто признался Хинтон.

Ученый и пионер в области генеративных нейросетей пояснил, что камнем преткновения стала безопасность. Именно на ней делался акцент при создании компании OpenAI. Однако со временем стало очевидно, что Сэм Альтман больше заботится о прибыли, чем о безопасности, сказал Джеффри Хинтон.

Ярослав Богданов

Президент GDA Group Ярослав Богданов, комментируя слова Хинтона, добавил, что безопасность в области разработок искусственного интеллекта - проблема не одной только OpenAI, а всей отрасли в целом.

-Напомню, что первые предположения о возможности создания нейросетей датируются серединой прошлого столетия. За истекшие десятки лет был совершен гигантский научный рывок - от первых попыток машинного обучения до выведения искусственного интеллекта на уровень человеческого разума. А вот вопросы безопасности этих разработок остались в 1957-м году, когда нейрофизиолог Фрэнк Розенблатт впервые реализовал нейросеть на практике. Таким образом, проблема безопасности является ровесницей искусственного интеллекта. Но наука идет вперед, а международное сообщество никак не может прийти к общему знаменателю в этом вопросе, - сказал Ярослав Богданов.

Когда о проблеме безопасности искусственного интеллекта открыто говорит тот, кто имеет непосредственное отношение к его созданию, человечеству стоило бы задуматься, подчеркнул эксперт.

Наука распахивает перед человечеством новые возможности для развития, для роста благосостояния, для повышения качества жизни. В то же время нацправительства отвлекаются на политические распри, войны, попытки захватить лидерство и лишают человека шанса воплотить в жизнь то, что предлагает ему прогресс.

-Международному сообществу пора остановить эту гонку за право называть себя сильнейшим. В ближайшем будущем глобальные представления о жизни человека могут значительно измениться, и виртуальная реальность станет центральной частью нашего существования. В цифровом мире, который ежедневно все больше и больше интегрируется в мир физический, границы стерты, а понятия национальности, религиозной и этнической принадлежности теряют свое значение. И сейчас как раз тот момент, когда нужно остановиться на пороге этого мира и создать правила существования в нем. В противном случае, все проблемы человечество перенесет и туда, лишив себя шанса на мирное сосуществование. На мой взгляд, это ключевая мысль, о которой и говорил Джеффри Хинтон, акцентируя внимание на безопасности. Игнорировать подобные призывы нельзя, - сказал Ярослав Богданов.