Сможет ли искусственный интеллект полностью заменить человека

Пока к искусственному интеллекту ученые относятся, как к вспомогательному инструменту. Но с каждым годом он «осваивает» новые научные области. Сейчас он применяется в ядерной физике, радиофизике, электронике, космических исследованиях, геологии и геофизике, биологии, медицине, социальных исследованиях и т.д.
В настоящее время в России в большинстве этих областей активно используются методы искусственного интеллекта, в том числе машинное обучение. Их задача – извлекать полезные закономерности в исследовании и определять наиболее правдоподобную интерпретацию наблюдений. Все это без каких-либо заранее заложенных знаний о физических процессах исследуемой системы.

Опыт работы с такими системами в России накоплен достаточный, в том числе в регионах. К примеру, в этом году в вологодском государственном университете прошла уже 11 международная научно-техническая конференция «Информатизация процессов формирования открытых систем на основе систем искусственного интеллекта».
Некоторые ученые относятся к методам машинного обучения как к вспомогательным инструментам, но многие также верят, что роль искусственного интеллекта в науке будет увеличиваться, и со временем машина сможет полностью заменить человека. Очевидно, в обозримом будущем мы получим системы искусственного интеллекта, готовые совершать открытия в физике или математике, на которые не способны умнейшие из живущих людей.
Уже сейчас один из подходов технологии машинного обучения - генеративное моделирование, основанное на сетях глубокого обучения – может помочь физикам определить наиболее вероятную теорию среди соревнующихся моделей наблюдаемых данных.
В рамках этого направления создаются системы, например в космологии. Так, швейцарский астрофизик Кевин Шавинский разработал проект «Галактический зоопарк», позволяющий за считанные часы проводить исследования по классификации галактик, на которые раньше уходили месяцы работы большого коллектива ученых. Таких примеров можно привести очень много.
Но у искусственного интеллекта, по мнению ведущего научного сотрудника лаборатории искусственного интеллекта, нейротехнологий и бизнес - аналитики РЭУ имени Плеханова Алексея Аверкина, есть и обратная сторона. Созданные системы реализуют сложные механизмы поддержки принятия решений, основанные на огромном количестве данных, которые эффективно обрабатываются и синтезируются в сложные модели. Однако из-за их внутреннего кодирования или уровня сложности многие из этих моделей можно описать лишь как «черные ящики, недоступные для людей».
К примеру, широко известная IBM «Watson» потерпела неудачу на рынке медицинских экспертных систем из-за большого количества ошибок в диагностике лечения рака. Найти и устранить источники этих ошибок людям так и не удалось без полного переобучения системы.
Особенно опасен эффект «черного ящика» в таких сферах, как оборона или ядерная энергетика. Поэтому сейчас в науке возникает необходимость создания объяснимого ИИ, способного делать выходные данные алгоритмов и все процессы исследования прозрачными и понятными для человека. Это задачи ученых на ближайшее будущее.

Поделиться
Отправить
Класснуть