Сетевое издание
Международный студенческий научный вестник
ISSN 2409-529X

ABILITY OF ARTIFICIAL INTELLIGENCE TO EVOLVE OR AUTOPOIESIS AS A BORDER BETWEEN ALIVE AND INANIMATE WORLD

Maslennikov A.G. 1 Lemeshevskij M.A. 1 Mikhailova T.L. 1
1 Nizhny Novgorod State Technical University n.a. R.E. Alekseev
2452 KB
This article is a discourse about artificial intelligence as a part of our living world. The decisive criterion of distinction between alive and not alive worlds became the concept of autopoiesis as one of the most acknowledged in scientific community. In this article modern methods of constructing artificial intelligence systems are considered and analysis of compliance of those methods to criterion of autopoiesis is carried out, which allows us to treat AI systems corresponding to autopoiesis criterion, like organized alive creatures. Also questions about limit of artificial intelligence are considered, which is going to be reached in evolution process and questions about difference between person and machine are discussed as well as the main question about ability of artificial intelligence to attain the way of thinking that belongs to human. The result of the article is a conclusion about the unattainability of the personal status of artificial intelligence due to the impossibility of learning to become an individuality for the computer.
artificial intelligence
strong intellect
life
autopoiesis
way of thinking ,boundary
evolution

В настоящее время технологический прогресс достиг немыслимых масштабов. Человечество неумолимо движется к сингулярности – точке во времени, с которой человек потеряет возможность контролировать и понимать развитие технологий [5]. Поэтому в это время возникает вопрос: «Сможем ли мы отличить в будущем компьютер от живого существа?»

Если подойти к этой проблеме с другой стороны, то можно сформулировать следующую мысль: «Можно ли считать искусственный интеллект формой существования жизни?»

Предпосылки к созданию ИИ возникали еще при зарождении эры компьютеров, когда Джон Фон Нейман сформулировал принципы построения вычислительных машин, которые основывались на структуре человеческого мышления.

С развитием компьютерных технологий, возникла философия искусственного интеллекта, которая задавалась следующими вопросами:

– Способна ли машина совершать разумные действия, находить решения проблем, достигаемых человеком с помощью размышлений?

– Способна ли машина иметь разум и сознание в той мере, в которой ими обладает человек?

– Одна ли природа у человеческого и ИИ? Является ли сам человеческий мозг компьютером по своей структуре?

Ответы на эти вопросы могут быть различными в зависимости от того, что считать «интеллектом» и «сознанием», и какие именно «машины» являются предметом обсуждения. Несмотря на то, что многие программы и алгоритмы в настоящее время решают многие интеллектуальные задачи быстрее и точнее, чем человек; невозможно дать однозначный ответ на эти вопросы.

Проблема ИИ состоит в том, что до конца не ясно, какие процессы называть интеллектуальными. Человечеству ясны лишь некоторые особенности работы интеллекта, к тому же определение интеллекта и понимание интеллекта у человека – вещи абсолютно разные, поэтому под интеллектом мы можем понимать только вычислительную способность программы достигать поставленных целей. Также не решён в философии вопрос о природе и статусе человеческого интеллекта. Нет и точного критерия определения разумности компьютера, однако в начале развития ИИ был выдвинут ряд предположений, в частности, тест Тьюринга. Скорость вычислений у электронных машин на данный момент значительно превосходит человеческую, поэтому также возникает вопрос о границах возможностей компьютерного интеллекта и о том, может ли они достичь человеческого уровня
развития.

Один из главных вопросов в философии ИИ сформулировал британский ученый Алан Тьюринг: «Могут ли машины мыслить?» [6]. Важность этого вопроса состоит в том, что в отличие от устоявшегося подхода к данной проблеме, когда сначала пытаются определить понятия «интеллект» и «машина», Тьюринг пошел по совершенно другому пути: он заменил вопрос о том, думают ли машины, вопросом: «Могут ли машины делать то, что можем делать мы как мыслящие создания?». На этот вопрос существуют две основные точки зрения: гипотезы сильного и слабого ИИ.

Автор термина «сильного интеллекта» Джон Серль охарактеризовал свой подход следующим образом: «Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум – это разум» [4, с.186]. Суть позиции Серля заключается в следующем: человек руководствуется семантическими (смысловыми) показателями, в то время как компьютерный алгоритм руководствуется своей заранее заданной структурой. Поэтому нельзя считать разумом только работу алгоритма. Порождение разума обязано различать причинно-следственные связи, подобно тому, как это делает человеческий мозг.

Однако уровень развития технологий на данный момент не позволяет говорить о симуляции работы человеческого мозга с помощью компьютера. Но, может быть, для того, чтобы достичь уровня развития человека, искусственный интеллект должен эволюционировать, точно так же, как эволюционировали простейшие организмы при зарождении жизни на Земле? Что, если можно создать искусственную систему, подобную простейшим животным, так, чтобы она оказалась «живой»? Однако, для того, чтобы ответить на этот вопрос, нужно понять, нельзя ли отнести живые организмы к понятию ИИ? Для этого необходимо определить, можно ли сгруппировать живых существ в систему, которая подчиняется жестким правилам и вписывается в концепцию ИИ.

Свой взгляд на эту проблему предложили Умберто Матурана и Франсиско Варела, определившие понятие аутопоэзиса. Согласно им, организация, отличающая живые существа – это процесс постоянного непрерывного самовоспроизводства. «Организация порождает в качестве продукта только их самих, без разделения на производителя и продукт. Бытие и сотворение аутопоэзного единства нерасторжимы, и в этом заключается присущий только им способ организации» [1, с. 37]. Также простейших живых существ можно отнести к системе, обладающей операционной замкнутостью [2, с.31], то есть такой, что процессы и взаимодействия внутри этой системы не выходят за ее рамки.

Единый критерий разграничения между живыми организмами и неживой материей в настоящее время отсутствует, и аутопоэзис является одним из ряда критериев этого разграничения, используемых большинством учёных. Таким образом, можно считать живой искусственную систему, являющуюся аутопоэзной.

Применение такого подхода к построению ИИ позволило создать один из самых эффективных на данный момент алгоритмов – генетический. Этот алгоритм основан на имитации генетических процедур развития популяции в соответствии с принципами эволюционной динамики. С помощью этого алгоритма создается некая начальная популяция, обладающая своим «геномом», на основе результатов деятельности которой с помощью использования механизмов естественного отбора создается новая популяция, перед которой стоит та же задача. Повторение цикла осуществляется до тех пор, пока объекты популяции не выработают устойчивую стратегию поведения [7].

Построение новой популяции имитирует процесс размножения живых организмов. В новые поколения передаются геномы только лучших членов популяции, хотя и здесь возможен элемент случайности, реализующийся через механизмы мутации. Главное свойство генетического алгоритма – постоянное самовоспроизводство, при котором не образуются принципиально новые сущности, но члены определенной строгой системы.

Таким образом, данная концепция позволяет строить системы, обладающие свойством аутопоэзиса, что очень важно при рассмотрении данной проблемы и позволяет нам судить о данных системах как об организованных живых сущностях.

Однако, считая искусственный интеллект живой сущностью, можем ли мы полагать его действительно «живым»? Какое различие лежит между личностью и машиной?

В своем произведении «Спонтанность сознания» В.В.Налимов ставит следующие вопросы:

– Можно ли реализовать в искусственном интеллекте весь смысл человеческого сознания, изначально существующий в неограниченном континууме?

– Сможет ли компьютер обрести дар «слышать»?

– Человек в каждый момент времени может давать оценку своим поступкам, анализировать их, вступать в диалог с самим собой. Может ли машина достичь такой семантической многомерности [3]?

Так или иначе, в рамках рассмотрения данной проблемы, можно переформулировать эти вопросы: «Может ли машина обрести индивидуальность и способна ли она к рефлексии?»

При попытке ответить на данный вопрос обнаруживается пропасть, разделяющая человека и строгую спроектированную систему: в действиях, процессах, происходящих в вычислительной машине, никогда не будет спонтанности. Мир, который описан в алгоритме машины, строго формализован и никогда не выходит за рамки этой формализации. Поэтому компьютер всегда будет «честным» исполнителем, но не мыслителем. К тому же, информация, которую хранит в себе компьютер, не является знанием. Знание с помощью машины получает человек путем интерпретации этой информации.

Таким образом, в завершение статьи сформулируем следующие выводы.

На данном этапе развития технологий невозможно симулировать работу сложного живого существа, подобного человеку, однако агентные системы, обладающие свойством аутопоэзиса, можно считать формой жизни. Вид дальнейшего развития представлений об искусственном интеллекте определит технический прогресс, но, в любом случае, компьютер нельзя будет научить быть индивидуальностью, личностью, действующей вне рамок своей программы, компьютер не сможет обладать сознанием.