Loe raamatut: «Философские проблемы развития искусственного интеллекта»
© Коллектив авторов, 2019
© Издательство «Прометей», 2019
Введение
Традиционно показателем общей успешности в области разработки систем искусственного интеллекта считается способность внешне смоделировать типичные человеческие функции, качества и свойства, тем самым превзойдя человека в типично человеческих видах деятельности. Проявления и «самореализация» разработанных образцов воспринимаются сквозь призму человеческого фактора и так называемого «эффекта ИИ» (обессмысливание и «депсихологизация» деятельности), что являет собой латентную, но, тем не менее, глобальную проблему данной сферы. Проблема особенно актуализируется в связи с отсутствием критериев интерпретирования и «понимания» того, что мы имеем в качестве результатов деятельности в области разработки искусственного интеллекта: сугубо алгоритмизированный, лишённый возможностей понимания и осмысления механизм, или же – психо-машину с потенциалом возникновения прото-психических качеств, то есть задатков психики и, возможно, интеллекта. Несмотря на терминологические особенности самого понятия «искусственный интеллект», в мировом научном сообществе принято считать, что наличие именно сознания, а не интеллекта станет необходимым и достаточным основанием для признания машины разумной [1].
Если рассмотреть динамику своеобразной оппозиции организм-механизм (человек-машина), очевидным станет всеобщее признание превосходства первого над вторым: за организмом признается безусловное наличие сознательных качеств. Механизм остается вторичным, производным от организма. И неизвестно, что должно на самом деле произойти, для того чтобы механизм заслужил признание организма. Парадигма междисциплинарности в данном случае только усложняет проблему.
Детерминантой возникновения подобного восприятия машинной деятельности является совокупность двух векторов общечеловеческого нарциссизма, один из которых не позволяет организму признавать что-либо иное, кроме себя, в качестве достойного для обладания высшими привилегиями. Данный подход существенно затрудняет интерпретирование достижений техногенеза. Другой вектор – техно-дискриминация, т. е. гипертрофированный антропный принцип в виде постулата «долженствования»: механизм «должен» служить человеку и заменять его в наиболее сложных, небезопасных, монотонных областях деятельности.
Литература:
1. Скиба И.Р. Проблема искусственного интеллекта: человек и машина [Электронный ресурс] https://neuronus. com/stat/1392-problema-iskusstvennogo-intellekta-chelovek-i-mashina.html
Глава 1
Фундаментальные проблемы создания и развития искусственного интеллекта
1.1. Философские проблемы развития искусственного интеллекта
Современный этап научно-технической революции ассоциируется с широким внедрением технологий, основанных на развитом искусственном интеллекте. Понятие искусственного интеллекта стало тривиальным для современного мира, но его контуры и фундаментальные проблемы, связанные с его созданием, очерчиваются философией искусственного интеллекта. Философия искусственного интеллекта (ИИ) охватывает широкий круг фундаментальных проблем, связанных с созданием искусственного интеллекта. В чём сущность разума? Каковы принципы его работы? И, наконец, – возможно ли создание искусственного интеллекта? Несмотря на огромные успехи в создании программ и алгоритмов, способных решать многие интеллектуальные задачи гораздо эффективнее человека, мы не можем найти ясного и однозначного ответа на эти вопросы.
Ответ на вопрос о возможности существования искусственного интеллекта определялся мировоззренческой ориентацией мыслителя: дуалистическая традиция, восходящая к Р. Декарту, постулировала невыразимость мышления через телесное, тогда как материалистическая традиция считала мышление производным от телесного. Декарт, исходя из своей дуалистической системы, считал мышление атрибутом лишь человека (даже животных он описывал как «автоматы»), тогда как материалистическая традиция теоретически оставляла возможность существования мышления не только у людей.
Что же можно считать критерием наличия разума? Обыденное сознание, как правило, воспринимает в качестве критерия разумности поведение. Мы считаем нечто разумным или неразумным, оценивая его поведение. Но какова связь между сущностью разума человека и его внешним проявлением – разумным поведением? Какое поведение будет разумным? Как по чьему-либо поведению можно определить, обладает ли это существо разумом?
Ещё в XVIII в. Дени Дидро в своих «Философских размышлениях» заявлял, что если он найдёт попугая, способного ответить на любой вопрос, то этого попугая, без сомнения, придётся считать разумным существом.
В 1936 году философ А. Айер рассмотрел вопрос касательно других разумов: как узнать, что другие люди имеют тот же сознательный опыт, что и мы? «Единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания» [1].
«Могут ли машины мыслить?» – такой вопрос поставил в 1950 г. британский математик и логик Алан Тьюринг. Он подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Тьюринг, однако, выбрал другой путь; вместо этого он заменил исходный вопрос другим, «который тесно связан с исходным и формулируется относительно недвусмысленно». По существу, он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?». «Компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Преимуществом нового вопроса, как утверждает Тьюринг, является то, что он проводит «чёткую границу между физическими и интеллектуальными возможностями человека», для чего Тьюринг предлагает эмпирический тест.
Суть теста Тьюринга в следующем. В разных комнатах находятся судья, человек и машина. Судья ведёт переписку с человеком и машиной, заранее не зная, кто из собеседников является человеком, а кто – машиной. Время ответа на вопрос является фиксированным, так что судья не может определить машину по этому признаку (во времена Тьюринга машины работали медленнее человека, а сейчас реагируют быстрее). Если судья не может определить, кто из его собеседников является машиной, то машина смогла пройти тест Тьюринга и может считаться мыслящей. Причём, машина не просто будет подобием разума человека – она будет именно разумом, т. к. у нас не будет никакой возможности отличить её поведение от поведения человека. Такая трактовка искусственного интеллекта как полноправного эквивалента естественного получила название «сильного Искусственного интеллекта».
Обратим внимание на то, что тест Тьюринга вовсе не подразумевает, что машина должна «понимать» суть тех слов и выражений, которыми она оперирует. Машина должна лишь должным образом имитировать осмысленные ответы.
В 1980 г. Дж. Сёрл предлагает мысленный эксперимент, критикующий тест Тьюринга и представление о возможности существования разума без понимания. Суть эксперимента в следующем. Сёрл пытается имитировать знание китайского языка, которого не понимает.
«…Педположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов, и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов» [2].
Таким образом, Сёрл проходит подобие теста Тьюринга на знание китайского языка, которого на самом деле не знает. Очевидно, что в данном случае Сёрл выполняет исключительно механическую работу и легко может быть заменён машиной. Сёрл показывает, что тест Тьюринга вовсе не является критерием наличия сознания, а лишь критерием способности манипулировать символами.
Суть позиции Сёрла по вопросу искусственного интеллекта сводится к следующему: разум оперирует смысловым содержанием (семантикой), тогда как компьютерная программа полностью определяется своей синтаксической структурой. Следовательно, программы не являются сущностью разума и их наличия недостаточно для наличия разума. Разум не может сводиться лишь к выполнению компьютерной программы. То, что порождает разум, должно обладать, по крайней мере, причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга. Т. е. Сёрл отметает прочерченный Тьюрингом прямой путь к искусственному интеллекту.
Впрочем, против мысленного эксперимента Сёрла было приведено немало возражений. Вот основные из них.
• Для того, чтобы гарантировано пройти тест, в книге должны содержаться адекватные ответы на ВСЕ существующие вопросы, т. е. книга должна обладать всезнанием, иначе вероятность того, что необычный вопрос вгонит систему в ступор, будет ненулевой.
• На самом деле, тест на знание китайского языка проходит система, состоящая из Дж. Сёрла, книги правил и людей, которые эту книгу правил составляли. А вот люди, составлявшие книгу, несомненно, обладают знанием китайского языка. Хотя другие части системы язык не понимают.
Также, аргументом против теста Тьюринга как критерия наличия разума является то, что тест Тьюринга на самом деле является тестом на человекоподобие, а не на разумность вообще. При прохождении теста машина должна вести себя как человек – но ведь далеко не всё человеческое поведение разумно, а многие интеллектуальные задачи машина может решать гораздо эффективнее человека (например, математические вычисления). Стремление же пройти тест Тьюринга заставляет машины быть «не слишком умной». Можно привести такое сравнение: если бы инженеры начала XX в., создавая самолёт, пытались сделать его точной копией птицы, они были бы похожи на современных учёных, которые пытаются создать машину, мыслящую точно так же, как мыслит человек. Это совершенно непрактично. Самолёты летают не как птицы, тем не менее, они летают гораздо быстрее, дальше и выше птиц. Т. е. тест Тьюринга не раскрывает сущности разума, а лишь указывает на успешную имитацию его внешнего проявления, причём проявления не самого значимого. «Способность болтать – еще не признак интеллекта» – резюмируют эту позицию сценаристы фильма «Звёздные войны».
Эти теоретические рассуждения подтверждаются и практикой создания интеллектуальных программ. Например, типична история машинного перевода, возможности которого еще несколько десятилетий считались значительно превосходящими возможности переводчика-человека. Но на практике, несмотря на немыслимые объёмы информации, которые способна хранить машина, перевод в лучшем случае настолько стилистически «коряв» и уродлив, что «машинный перевод» стал своеобразной темой комедийного интернет-искусства. Любому хорошему переводчику известно, что для настоящего перевода (даже технического) мало словаря и грамматики. Тут еще нужны знания в той области, к которой относится текст – переводчик должен понимать, о чём в тексте идёт речь. Т. е. синтаксис без семантики не даёт возможности решать большую часть интеллектуальных задач, доступных разуму человека.
Поэтому, для разработчиков современных интеллектуальных программ тест Тьюринга не стал универсальным критерием их успеха. Зато получил огромное распространение «тест Тьюринга наоборот» – назойливая CAPTCHA1.
Как мы видим, поиск возможности создания искусственного интеллекта в любом случае упирается в вопрос: что такое разум?
В 1963 г. А. Ньюэлл и Г. Саймон, основываясь на анализе языка, предположили, что сущность разума заключается в способности оперировать символами. Такой подход позволил создать программу, способную решить любую интеллектуальную задачу в том случае, если задача могла быть формализована (например, доказывать теоремы, играть в шахматы и т. п.). Способность выполнять символьные вычисления вполне достаточна для решения интеллектуальных задач, а без таких вычислений разумное поведение невозможно. Таким образом, разум может быть рассмотрен как устройство, оперирующее информацией в соответствии с формальными правилами. В рамках данного подхода искусственный интеллект создаётся по аналогии с мозгом и нервной системой человека, т. е. по принципу нейросети. Нейросети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения – одно из главных преимуществ нейросетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение.
Этот подход подвергся критике со стороны философа Х. Дрейфуса. Суть его возражений в следующем:
• знание человека о мире состоит не только и не столько из объективных знаний о мире, сколько из нашего субьективного отношения к нему и склонности воспринимать и интерпретировать события так или иначе. Даже если мы используем символическую систему для выражения наших мыслей, мысли всё равно формируются во многом под воздействием бессознательных факторов. Следовательно, рассмотрение разума может как устройства, оперирующего информацией в соответствии с формальными правилами, недостаточно для понимания сущности разума и создания искусственного интеллекта;
• не всё знание и не все задачи могут быть формализованы. Значительная часть восприятия человека не может быть адекватно выражена в символах. Следовательно, искусственный интеллект, построенный как символическая система, сможет решать лишь небольшой круг формализуемых задач, не являясь разумом.
Практика создания искусственного интеллекта подтвердила правоту скептицизма Дрейфуса. Современные нейрокомпьютеры способны эффективно решать многие задачи, но до возможностей человеческого разума им бесконечно далеко. Таким образом, сведение разума к оперированию символами по формальным правилам не привело к пониманию его сущности.
Хотя качественного прорыва в создании сильного искусственного интеллекта не произошло, количественно вычислительные возможности ЭВМ возрастали экспоненциально, и в данный момент сложность современных ЭВМ неумолимо приближается к сложности мозга человека. Возможно ли, что количественный рост сложности вычислительных систем приведёт к их качественному скачку?
В 1993 г. математик и писатель В. Виндж предложил концепцию, описывающую последствия возникновения искусственного интеллекта, превосходящего по вычислительным возможностям человеческий разум. С того момента, как искусственный интеллект будет открывать новое знание быстрее человека, искусственный интеллект сможет создавать всё более и более совершенные вычислительные машины, которые будут ускорять рост знания в ещё большей степени, т. е. процесс будет нарастать как снежный ком, становясь недоступным пониманию человека. После этого развитие искусственного интеллекта станет настолько стремительным, что даже самые приблизительные прогнозы о том, что произойдёт дальше, теряют смысл. Виндж назвал этот момент «технологической сингулярностью».
Технологическая сингулярность характеризуется появлением нового вида знания – т. н. машинного знания, т. е. знания, доступного лишь машине. Как это может выглядеть? Например, как математическая теорема, доказанная машиной. Первая крупная математическая теорема, доказанная с помощью компьютера, – теорема о четырех красках. Ее формулировка элементарна: для того чтобы раскрасить географическую карту так, чтобы никакие два граничащих региона не были одного цвета, достаточно всего четырех разных красок. Два региона считаются граничащими, если они имеют протяженную границу, то есть состоящую больше чем из одной точки. Доказательство теоремы о четырех красках – прецедент использования компьютера при решении классических математических задач. В то же время оно примечательно своей длиной и сложностью. Даже после применения компьютера, позволившего значительно сократить вычисления, текст доказательства элементарно формулируемого утверждения имеет астрономическую длину. Нетрудно представить себе появление такой теоремы, доказательство которой будет слишком длинным, для того, чтобы человеческой жизни хватило на его проверку. И тогда развитие знания и получение его плодов окажутся прерогативой искусственного разума.
Насколько вопрос создания сильного искусственного интеллекта является на данный момент актуальным? То, что интерес к данной проблеме сохраняется, видно хотя бы по той бурной дискуссии, которую вызвали публикации Р. Пенроуза. Опираясь на теорему К. Геделя о неполноте формальных систем, он обосновывал вывод о принципиальной невозможности создания машинных алгоритмов, способных имитировать во всем объеме интеллектуальные способности человека. Но нельзя не признать, что вопрос создания искусственного мышления, равного человеческому, больше не будоражит умы и воображение людей так, как это было в середине XX в. Снижение остроты интереса к проблеме создания сильного искусственного интеллекта человеческого уровня объясняют недостаточным пониманием природы человеческого разума. При этом, однако, обычно неявно предполагают, что механизм человеческого мышления в принципе может быть прояснен и представлен в виде некоторого алгоритма, хотя решение этой задачи отодвигается на неопределенное будущее. Вполне возможно такое положение дел, что природа человеческого интеллекта такова, что «прояснить» его механизмы, свести деятельность интеллекта к некоторому набору «функций» или «операций», невозможно в принципе. Но всё же плоды создания сильного искусственного интеллекта слишком сладко манят современных учёных и инженеров. Ведь создание сильного искусственного интеллекта позволило бы сразу решить практически неограниченное число прикладных задач – поскольку не нужно было бы каждый раз заново разрабатывать «интеллектуальные» программы для решения очередной задачи: подлинно «интеллектуальная» машина была бы способна самостоятельно найти эффективный путь решения любой (или почти любой) поставленной перед ней задачи. Ведь именно эту способность – находить решения (и ставить сами задачи) самостоятельно мы, собственно, и называем интеллектом.
Но наиболее важным значением философских проблем искусственного интеллекта представляется не создание пусть и весьма совершенных алгоритмов для решения практических задач, а те новые горизонты в понимании природы и сущности сознания, которые открываются в процессе решения вопросов создания искусственного интеллекта. Таким образом, философия искусственного интеллекта в полной мере следует максиме Сократа «познай самого себя».
Ученое сообщество рассуждает о сроках появления умных машин и сходится в следующем: развитие технологий безусловно окажет сильное влияние на общество, экономику и отношения между людьми в будущем. Уже сейчас раздаются призывы обдумать этические принципы разработки искусственного интеллекта, удостоверившись в том, что искусственный интеллект будет развиваться только в безопасном для людей направлении. И все-таки стоит ли человеку опасаться искусственного разума?
Прежде чем начать рассуждать о проблемах создания искусственного интеллекта, его влиянии на человека и общество, попробуем разобраться, что мы понимаем под ним. Итак, что же такое искусственный разум и почему его так многие опасаются?
Ученые не могут конкретно выразить суть интеллекта в каком-то одном определении. В начале 80-х гг. ученые в области теории вычислений Барр и Файгенбаум предложили следующее определение искусственного интеллекта. Искусственный интеллект – это область информатики, которая занимается разработкой интеллектуальных компьютерных систем, то есть систем, обладающих возможностями, которые мы традиционно связываем с человеческим разумом, – понимание языка, обучение, способность рассуждать, решать проблемы и т. д. На наш взгляд искусственный интеллект – это не какой-то определенный компьютер или робот-человек, а это целая научная область, целью которой является разработка способов создания так называемых машин, автоматов или роботов, которые бы обладали свойством человеческого интеллекта.
Несмотря на последние достижения в области искусственного интеллекта, до появления разумных машино-существ еще далеко, признают ученые и специалисты. Ведь в создании данного мощного искусственного интеллекта существует огромное количество проблем: этических, психологических и даже юридических и т. д.
Как известно, изобретение искусственного интеллекта связывают с созданием нейронных сетей. Нейронные сети – это одно из направлений исследований в области искусственного интеллекта, основанное на моделировании биологических процессов, которые происходят в человеческом мозгу. Именно им мы обязаны появлению впечатляющих результатов в распознавании речи и изображений, постановке медицинских диагнозов, переводе текста и создании изображений, генерации речи и музыкальных композиций. Сегодня, как признают специалисты, нейронные сети признаны одним из лучших алгоритмов машинного обучения, а решения на их основе показывают на данный момент самые выдающиеся результаты. Однако, даже в этой области существует большое количество проблем. Дело в том, что нейроны, моделируемые в нейронных сетях, значительно проще устроены, нежели нейроны в человеческом мозге к тому же это всего лишь программы. А создавать искусственные нервные клетки современная наука пока не научилась. Даже если бы это удалось, то воссоздать человеческий мозг все равно бы не получилось, потому что его структура крайне сложна. Кроме того, все возможности человеческого мозга до конца не изучены. Но если в ближайшие пару сотен лет и это станет возможным, исследователи столкнутся с новой проблемой. Как наделить такой мозг знаниями и опытом? Ведь на самом деле человеческий мозг развивается только благодаря деятельности человека на протяжении всей его жизни. Также существует еще одна необъяснимая до сих пор проблема так называемого паралича сети. Существует своеобразная аритмия сигналов, поступающих с нейронов, в результате чего все нейроны начинают вырабатывать ошибочные сигналы. Ошибка в сигнале одного нейрона выводит из строя всю сеть.
Современные нейронные сети устроены в полторы тысячи раз проще, чем, например, головной мозг крысы. Сейчас создаются специализированные процессоры для обучения таких сетей (так называемые нейроморфические процессоры), которые позволят увеличить скорость вычислений на несколько порядков. На сегодняшний день разработчики не просто заняты увеличением количества нейронов в сети, но и изменением их конструкции.
В создании искусственного интеллекта также существует психологическая проблема. Дело в том, что систему искусственного интеллекта необходимо наделить самооценкой, само отношением и самоанализом. Данной системе нужно каким-либо образом дать понять, что она существует. А продвижений в этом вопросе до сих пор нет. Кроме того, чтобы система считалась интеллектуальной, она должна обладать мотивацией. Такие системы должны уметь сами ставить перед собой цели и находить способы их достижения. Таким образом, система, претендующая на звание интеллектуальной должна обладать способностью к самоанализу для того, чтобы иметь возможность выявлять мотивы к своей деятельности для постановки целей и решения задач. На данный момент существуют лишь гипотетические способы создания таких систем в виде многопроцессорных пространств, в которых информация накапливается и используется с помощью определенного свода правил. Что касается последствий искусственного интеллекта для человека и общества в целом, то как известно, человечеству свойственно саморазрушение. Из истории мы знаем, что многие научные изобретения принесли изначально огромное количество бед, прежде чем их научились использовать разумно, во благо общества. Поэтому стоит хорошо задуматься, к чему приведет человечество создание искусственного разума.
Первым последствием, о котором беспокоится большинство людей – в результате создания искусственного интеллекта многие люди лишатся своих рабочих мест. Люди все больше будут перекладывать часть своих служебных заданий и многие рутинные задачи на машину, что позволит им сосредоточиться на творческой работе, но с применением сильного искусственного интеллекта неизбежно пострадают менее квалифицированные кадры, и уже сейчас необходимо задуматься, как их защитить, переучить и подготовить к новой жизни. Пострадать, как показывает практика, могут не только синие воротнички, но и работники умственного труда, особенно это будет заметно в условиях «глобализации, где все основные потребности каждого человека будут удовлетворены, а сам человек будет в целом избавлен от тяжелой монотонной физической работы». Искусственный интеллект сам по себе не тождественен автоматизации процессов, но развитие искусственного интеллекта приведет к тому, что все больше задач будет по силам компьютерной программе. Кроме того, существуют такие специальности, которые как раз и появились благодаря созданию автоматизированных линий производства. Например, системные администраторы, программисты. На наш взгляд появятся новые профессии, которые будут обслуживать искусственный интеллект. Однако, он принесет гораздо меньше рабочих мест, чем было бы до применения искусственного интеллекта. Также вопрос встанет в переобучении людей, не все смогут быстро приспособиться к новым профессиям. Второе возможное последствие для общества – может уменьшиться или, наоборот, увеличиться количество свободного времени, имеющегося в распоряжении людей. Говоря об автоматизации и всеобщем, глобальном применении искусственного интеллекта, с одной стороны, всем может показаться, что, если за человека все будет выполнять автоматическая разумная система, ему нечем будет заниматься. Однако в настоящий момент такая тенденция не подтверждается. Современные интеллектуальные системы снимают с человека часть нагрузки, но не делают все за него. Поэтому данной проблемы опасаться не стоит. Важной юридической проблемой также является то, что люди могут потерять некоторые из своих прав на личную жизнь. Дело в том, что развитие технологии распознавания речи может привести к широкому распространению средств прослушивания телефонных разговоров и поэтому потере гражданских свобод. Однако подобные технологии могут так же принести и пользу в предотвращении террористических актов и преступлений.