Ярослав Богданов: Человечество не готово к реализации концепции «суперинтеллекта»

Время для прочтения
менее
1 минуты
Прочитано

Ярослав Богданов: Человечество не готово к реализации концепции «суперинтеллекта»

октября 08, 2024 - 07:48

До тех пор, пока человечество в полной мере не освоит уже имеющиеся инструменты ИИ, концепция AGI должна оставаться в теории, уверен президент GDA Group Ярослав Богданов.

Фото: 

ВЭС

Генеральный директор OpenAI Сэм Альтман заявил, что человечество сможет получить «сверхразум» уже через несколько тысяч дней. Под «сверхразумом» он имел в виду Artificial general intelligence (AGI) - искусственный интеллект высшего уровня, сопоставимый с человеческим интеллектом.

В своих размышлениях Альтман сравнивает AGI с «волшебством», в которое верили наши предки. Он проводит параллели с тем, как технологии перенесли человеческую цивилизацию из каменного века к индустриализации.

Далеко не всем будущее человека, вооруженного потенциальным «сверхразумом», кажется настолько радужным. Например, экс-глава Google Эрик Шмидт предупредил, что никто не может себе даже представить, какими будут последствия появления AGI.

Президент GDA Group Ярослав Богданов также задался вопросом о соотношении науки и научной фантастики в том, как Сэм Альтман описывает будущее человека после появления общего искусственного интеллекта. Особенно, если учитывать тот факт, что интеллект уровня человеческого разума потенциально способен в какой-то момент осознать себя.

-Появление суперинтеллекта станет научной революцией. С этим фактом спорить не имеет смысла. Но нет ответа на вопрос, насколько положительными будут плоды этой революции. Мир не готов к такому прорыву - с научной, этической, юридической точек зрения. Эрик Шмидт поднял важную тему - на каких данных будет обучаться AGI? На сегодняшний день практически все массивы данных для ИИ исчерпаны. Если предлагать для машинного обучения синтетические данные, они не будут отражать реальную картину окружающего мира. Важно тщательно контролировать качество и достоверность закладываемой информации, чтобы обеспечить эффективное и безопасное обучение ИИ. Но в мире не существует единой структуры, которая отслеживала бы эти процессы. Соответственно, на выходе нас ожидает появление модели, потенциально способной мыслить, но делать это она будет на базе искаженной картины мира, заложенной в нее на этапе обучения, - сказал Ярослав Богданов.

Миллиардные инвестиции ввергают мир в гонку за «суперразумом». Тогда как основное, на чем сейчас стоит сосредоточиться, это обеспечение кибербезопасности.

Все уже созданные языковые модели должны быть систематизированы и подведены под общую международную нормативно-правовую базу. Человек должен извлекать пользу из научного прогресса, а не разрабатывать системы защиты от него, уверен президент GDA Group.

-Реальная сила ИИ – не в имитации человеческого интеллекта, а в его способности повысить качество человеческой жизни. Сегодня человечеству не нужны машины, думающие, как люди. Нужны машины, способные изменить жизнь людей к лучшему. Концепция AGI имеет право на существование. Но до тех пор, пока человечество в полной мере не освоит уже имеющиеся инструменты ИИ, суперинтеллект должен оставаться только в теории. Международному сообществу необходимо время на то, чтобы объединить научные, юридические и этические аспекты разработок и применения языковых моделей в единую систему, которая будет регулировать эту отрасль. Потенциал ИИ, способный кардинально изменить наше общество, требует коллективного подхода, чтобы обеспечить его пользу для всего человечества, - сказал Ярослав Богданов.