Георгий Клейнер: «Искусственный интеллект: как отличить добро от зла?»

Почему нельзя полностью доверять системам, основанным на нейросетях? Может ли искусственный интеллект потеснить на рынке труда живых специалистов – дизайнеров, журналистов и пр.? 

Размышляет Георгий Клейнер, член-корреспондент Российской академии наук, руководитель научного направления Центрального экономико-математического института РАН, заведующий кафедрой «Системный анализ в экономике» Финансового университета при Правительстве РФ.

Расскажу о своем опыте общения с чатом GPT. Я долго и безуспешно искал публикации о силах отталкивания в макроэкономике. Наконец написал запрос в этот чат. И был просто счастлив, когда он выдал мне имена нескольких авторов статей по этой теме. Но счастье длилось недолго. Вскоре выяснилось, что этих авторов либо никогда не существовало в природе, либо они не занимались этой тематикой. 

Георгий Клейнер.jpgЧлен-корреспондент РАН Георгий Клейнер 

Этот мой опыт ставит вопрос об опасности полного доверия искусственному интеллекту. Должен сразу сказать, что есть некоторая терминологическая путаница, которую надо прояснить. И нейросети, и искусственный интеллект – это метафоры, так же, как, заметим, и всемирная паутина – интернет. 

Так вот, искусственный интеллект демонстрирует нам не только реальные данные, но и воображаемые. 

Я не специалист в психиатрии, но мне кажется, что в таком сочетании реального и воображаемого есть сходство с шизофренией. Больные демонстрируют очень хорошие логические последовательности и выводы, но они не укладываются в понимание обычного нормального человека, и поэтому полагаться на их выводы нельзя. 

Нейросети – безусловно, важный элемент не только информационной, но и вообще социально-экономической среды. Развитие их было вполне предсказуемо, потому что всегда есть очень большой соблазн структурировать действительность в соответствии с образцами – есть такой весьма распространенный метод осмысления реальности. Он является совершенно нормальным, законным, когда мы пытаемся каждое новое явление, данное нам, сопоставляя с образцами, понять, формирует ли оно какой-то новый тренд или его расширение, или укладывается в имеющиеся тренды. Другими словами, понять – это правило или исключение. 

Попытка использовать компьютерные системы для усиления возможностей такого способа мышления и общения – это и было предпосылкой к развитию нейронных сетей. Они называются нейронными, потому что будто бы имитируют деятельность нейронов головного мозга человека. Это тоже не более чем метафора. Потому что нейроны, которые в голове – это одно, а компьютеры и системы – совсем другое.  Но в этом тоже ничего страшного нет, аналогии уместны и необходимы.

В чем суть деятельности нейросетей? Они запоминают имеющиеся в их доступности кейсы и могут их классифицировать. Если им попадаются новые явления, они встраивают их в свою классификацию. Это примитивное математическое моделирование, если это вообще можно назвать моделированием. Это, скорее, фитинг, подгонка. Например, у вас есть на планшете или графике несколько точек, и вы по ним рисуете некую кривую понятного содержания. Потом появляется нечто новое, и вам нужно понять, как оно будет себя вести. Но поскольку ваши заданные точки уже кончились, вы (точнее – нейросеть) рисуете новую точку на той же кривой. Это и есть подгонка нового явления под имеющиеся точки. Другими словами, с помощью более или менее сложных алгоритмов нейросети анализируют кейсы, позволяют сопоставить новую ситуацию со старыми и дают некое решение проблемы. Затем нейросеть предлагает вам использовать результаты такой подгонки. 

Понятно, что такой способ мышления можно увидеть во всех профессиях сегодняшней экономической и социальной жизни. 

Те, кто говорит, что искусственный интеллект может вытеснить людей из дизайна, журналистики, низшего менеджмента и других профессий, понимают их (профессии) на весьма примитивном уровне.

Нейросети.jpg

Поясню на примере журналистики. Что делает журналист, когда перед ним ставят задачу проинтервьюировать нового человека? Он делает то же самое, что делают нейросети. Используя свой опыт, он условно «строит» некую кривую по известным точкам, то есть по опубликованным материалам составляет основу заметки. И он может обойтись без живого контакта с этим человеком, написав заметку, основываясь на его прошлых высказываниях. Здесь журналист из того, что было, компилирует то, чего не было. Это и есть принцип деятельности искусственного интеллекта. Если журналист пишет, что условный Иван Иванович что-то говорил, это Ивану Ивановичу может не понравиться. Раньше за это вызывали на дуэль. Сейчас подают в суд за клевету. Риск немалый.

Есть ли риск для тех представителей других профессий, кто будет поступать так же, основываясь на заключениях нейросетей? Конечно. И это будет касаться не только автора ложной информации, но и всего предприятия, всей системы, которая стоит за человеком, воспользовавшимся подобной экстраполяцией.  

Полностью доверять системам, основанным на нейросетях, опасно. Да, можно пользоваться их предположениями, но нельзя принимать автоматически их выводы за истину, потому что это не более чем предположения. 

Не спешите доверять нейросетям.jpg

Я хорошо помню период внедрения ЭВМ в СССР и других странах. Очень часто мы слышали аргумент: ну, это же машина нам рекомендует, она же не врет! Конечно, не врет, она делает то, что ей предписано алгоритмом. Если ее обучили на каких-то данных, то она будет поступать так, как этого требовало обучение. Но можно ли этому верить? Мы доверяем прогнозу метеорологов только на три дня. Конечно, они могут дать и долгосрочный прогноз, только верить ему – большой риск. 

Говорят, что нейросети – «самообучающиеся» системы. На чем они учатся? Хорошо, если на материалах из энциклопедий, хоть люди уже это слово начинают забывать, считая, что «все есть в интернете». Каждая статья, каждый факт в энциклопедиях были многократно и тщательно выверены. Если бы нейросети поступали так же, может, и проблемы не было бы. Но ведь нейросети берут данные из всего интернета, где нет возможности контролировать истинность абсолютно всех утверждений, где нельзя отличить ложь от правды, обнаружить фейк, то есть фальсификацию с целью ввести кого-либо в заблуждение. Память системы загромождена информацией о множестве явлений, которых попросту не существует. Поэтому всякая информация, полученная от искусственного интеллекта, требует контроля со стороны человека. 

Человек в течение жизни тоже обучается, но он не может знать и помнить все. Он изучает факты, усваивает данные, в том числе энциклопедические, научные, социальные и т.д. Все это может превращаться в его знания в течение сложного извилистого пути взросления. Вот в этом главное отличие человека от нейросети.  

Родители, воспитатели в детских садах, учителя в школах учат детей жизни. Иногда учат с помощью информации, но она – не цель обучения. Да и жизнь – это не информация и не поведение. Жизнь – это развитие человека в развивающейся среде. Цель воспитания – научить отличать ложь от правды, понимать разницу между добром и злом. 

Если в человеке это умение воспитано, сформировано, тогда он может контролировать результаты деятельности нейросетей. Повторю, для контроля искусственного интеллекта важно не количество усвоенной информации, а умение отличать добро от зла. Если этого нет, то реакция человека на результаты нейросетей будет такой же неадекватной, как и сама их продукция.