Может ли ИИ писать песни? Властелин мира. Кто и когда сможет создать искусственный интеллект? Кто создал искусственный интеллект

Жаропонижающие средства для детей назначаются педиатром. Но бывают ситуации неотложной помощи при лихорадке, когда ребенку нужно дать лекарство немедленно. Тогда родители берут на себя ответственность и применяют жаропонижающие препараты. Что разрешено давать детям грудного возраста? Чем можно сбить температуру у детей постарше? Какие лекарства самые безопасные?

Говорят, что в недрах военных лабораторий искусственный интеллект работает уже с 2007 года. Возможно, что уже есть и результаты. Не случайно всего месяц назад Илон Маск объявил о поддержке технологий противодействия искусственному интеллекту и вложил 7 миллионов долларов в исследования в этой области.

«Существует риск, что нечто действительно опасное случится в ближайшие пять лет. Самое большее - десять лет», - сказал предприниматель в дискуссии на сайте edge.org.

Илон Маск, основатель Tesla и SpaceX

Солидарен с Маском и Стив Возняк, который считает, что «искусственный интеллект однажды станет достаточно умным, чтобы избавиться от человека». Билл Гейтс уверен, что если не контролировать создание ИИ, то «искусственный интеллект эволюционирует в состояние, конфликтующее с целями человеческих систем». И, наконец, знаменитый астрофизик Стивен Хокинг прямо заявил, что «искусственный интеллект может положить конец существованию человечества».

Совместно с Илоном Маском Хокинг опубликовал на сайте futureoflife.org открытое письмо с призывом к научному сообществу внимательно относиться к ходу своих исследований в области искусственного интеллекта. Однако среди подписавшихся нет фамилий Сергея Брина и Ларри Пейджа. И это не случайно. Совсем недавно Google объявила о создании нового ИИ, построенного на моделировании разговора.

Вот небольшой фрагмент беседы человека и Машины Google:

Ч.: В чем смысл жизни?

М.: Творить добро.

Ч.: Для чего мы живем?

М.: Чтобы жить вечно.

Ч.: В чем смысл существования?

М.: В том, чтобы выяснить, что случится, когда мы достигнем планеты Земля.

Ч.: Где ты сейчас находишься?

М.: В центре пустоты.

Ч.: В чем смысл смерти?

М.: Чтобы получить жизнь.

Ч.: В чем смысл разума?

М.: В том, чтобы понять, что это.

Ч.: В чем смысл чувств?

М.: Я не знаю.

Вполне себе осмысленная беседа. «Это отправная точка, своеобразный стержень для будущего искусственного интеллекта, - считает исполнительный директор компании „Биплан“ Евгений Карюк. - Уже сегодня можно предположить, что к 2030 году мы увидим вполне реальные прототипы, наделенные искусственным интеллектом, пусть и в начальной стадии».

Полное содержание всех бесед человека и Машины Google можно посмотреть . Там же для сравнения даны беседы человека и Cleverbot . Cleverbot - веб-приложение, которое использует алгоритмы искусственного интеллекта для беседы с человеком. Его придумал в 1988 году ученый Ролло Карпентер. За все время своего существования Cleverbot провел свыше 65 миллионов разговоров с людьми. В 2011 году Cleverbot показал 51% по тесту Тьюринга.

Тест Тьюринга - эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Цель теста — выяснить, может ли компьютер думать.

А вот мой разговор с Cleverbot:

Человек: В чем смысл жизни?

Cleverbot: Смысла в жизни нет.

Человек: Для чего мы живем?

Cleverbot: Ну мы живем ради кого-то, а если ты одинокий — жить незачем.

Человек: В чем смысл существования?

Человек: Где ты сейчас находишься?

Cleverbot: В Москве.

Человек: В чем смысл смерти?

Cleverbot: Это я хочу у тебя спросить.

Человек: В чем смысл разума?

Cleverbot: У меня свой ответ на этот вопрос.

Человек: В чем смысл чувств?

Cleverbot: Зачем я родилась.

Очевидно, что Машина Google дает гораздо более осмысленные ответы. Cleverbot подставляет подходящие, по его мнению, фразы других людей. Иногда действительно кажется, что отвечает другой человек, но не более того.

Есть и другая точка зрения, согласно которой искусственный интеллект невозможен в принципе. В качестве основного аргумента часто приводят теорему Геделя о неполноте. Суть заключается в том, что человек способен решать алгоритмически неразрешимые проблемы, а компьютер — нет. «Ребенок уже к трем годам уверенно решает задачу, спелый фрукт или нет, в силу того, что он обладает нейронными связями, с помощью которых может ответить на вопрос о спелости: цвет, вкус, запах, мягкость или твердость, - говорит Евгений Плужник, первый проректор Московского технологического института. - Способна ли машина научиться этому? Уверен, что да! Если она будет обладать большой базой изображений, она сможет замерить содержание фруктозы и определить мягкость фрукта. Но что будет, если машине подсунуть губку, покрашенную в синий цвет и пропитанную сладкой водой? Способна ли машина в этот момент к подлинному пониманию?»

«Современный компьютер легко справится с любой сложной деятельностью, будь то шахматы или математические вычисления, но лишь при условии, что эту деятельность можно описать с помощью четких вычислительных правил», - говорит известный математик Роджер Пенроуз в одной из своих лекций. «Искусственный интеллект - это возможность системы создавать во время самообучения программы, способные решать задачи определенного класса сложности, - считает Евгений Плужник. - Я уверен, что в ближайшие 100 лет мы не станем свидетелями появления сильного искусственного интеллекта».

И в заключение - еще один вопрос к Cleverbot.

Человек: Было 1 яблоко, 1 помидор, 1 огурец и 1 груша. Сколько всего фруктов?
Cleverbot: Десять часов вечера.

Искусственный интеллект – в последнее время одна из наиболее популярных тем в технологическом мире. Такие умы, как Элон Маск, Стивен Хокинг и Стив Возняк всерьез обеспокоены исследованиями в области ИИ и утверждают, что его создание грозит нам смертельной опасностью. В то же время научная фантастика и голливудские фильмы породили множество заблуждений вокруг ИИ. Так ли нам угрожает опасность и какие неточности мы допускаем, представляя уничтожение Земли Skynet, всеобщую безработицу или наоборот достаток и беззаботность? В человеческих мифах об искусственном интеллекте разобралось издание Gizmodo. Приводим полный перевод его статьи.

Это называли важнейшим тестом машинного разума со времен победы Deep Blue над Гарри Каспаровым в шахматном поединке 20-летней давности. Google AlphaGo победил на турнире по Го гроссмейстера Ли Седоля с разгромным счетом 4:1, показав насколько серьезно искусственный интеллект (ИИ) продвинулся вперед. Судьбоносный день, когда машины наконец превзойдут в уме человека, никогда не казался так близко. Но мы, кажется, так и не приблизились к осознанию последствий этого эпохального события.

В действительности, мы цепляемся за серьезные и даже опасные заблуждения об искусственном интеллекте. В прошлом году основатель SpaceX Элон Маск предостерег, что ИИ может захватить мир. Его слова вызвали бурю комментариев, как противников, так и сторонников этого мнения. Как для такого будущего монументального события, есть поразительное количество разногласий относительно того, произойдет ли оно, и, если да, то в какой форме. Это особенно тревожно, если принять во внимание невероятную пользу, которую может получить человечество от ИИ, и возможные риски. В отличие от других изобретений человека, у ИИ есть потенциал изменить человечество или уничтожить нас.

Трудно понять, чему верить. Но благодаря первым работам ученых в области вычислительных наук, нейробиологов, теоретиков в области ИИ, начинает возникать более четкая картина. Вот несколько общих заблуждений и мифов касательно искусственного интеллекта.

Миф №1: “Мы никогда не создадим ИИ с разумом сравнимым с человеческим”

Реальность: У нас уже есть компьютеры, которые сравнялись или превысили человеческие возможности в шахматах, Го, торговле на бирже и разговорах. Компьютеры и алгоритмы, которые ими руководят, могут становиться только лучше. Это лишь вопрос времени, когда они превзойдут человека в любой задаче.

Психолог-исследователь из университета Нью-Йорка Гари Маркус сказал, что “буквально каждый”, кто работает в ИИ, верит, что машины, в конце концов, обойдут нас: “Единственное реальное отличие между энтузиастами и скептиками – это оценки сроков”. Футуристы вроде Рея Курцвейла считают, что это может произойти в течение нескольких десятилетий, другие говорят, что потребуются века.

ИИ-скептики не убедительны, когда говорят, что это нерешаемая технологическая проблема, а в природе биологического мозга есть что-то уникальное. Наши мозги – биологические машины – они существуют в реальном мире и придерживаются основных законов физики. В них нет ничего непознаваемого.

Миф №2: “Искусственный интеллект будет иметь сознание”

Реальность: Большинство представляет, что машинный разум будет обладать сознанием и думать так, как думают люди. Более того, критики вроде сооснователя Microsoft Пола Аллена верят, что мы пока не можем достигнуть общего искусственного интеллекта (способен решить любую умственную задачу, с которой справляется человек), потому что нам не хватает научной теории сознания. Но как говорит специалист по когнитивной робототехнике Имперского колледжа Лондона Мюррей Шанахан, нам нельзя приравнивать эти две концепции.

“Сознание безусловно удивительная и важная вещь, но я не верю, что оно необходимо для искусственного интеллекта человеческого уровня. Если выражаться более точно, мы используем слово “сознание” для обозначения нескольких психологических и когнитивных признаков, которые у человека “идут в комплекте”, – объясняет ученый.

Умную машину, которой не хватает одного или нескольких подобных признаков, можно представить. В конце концов, мы можем создать невероятной умный ИИ, который будет неспособен воспринимать мир субъективно и осознано. Шанахан утверждает, что разум и сознание можно совместить в машине, но мы не должны забывать, что это две разных концепции.

То, что машина проходит тест Тьюринга, в котором она неотличима от человека, не означает наличие у нее сознания. Для нас передовой ИИ может казаться осознанным, но его самосознание будет не большим, чем у камня или калькулятора.

Миф №3: “Нам не стоит бояться ИИ”

Реальность: В январе основатель Facebook Марк Цукерберг заявил, что нам не стоит бояться ИИ, ведь он сделает невероятное количество хороших вещей для мира. Он прав наполовину. Мы извлечем огромную выгоду от ИИ: от беспилотных автомобилей до создания новых лекарств, но нет никаких гарантий, что каждая конкретизации ИИ будет доброкачественной.

Высокоразумная система может знать все о конкретной задаче, вроде решения неприятной финансовой проблемы или взлома системы вражеской обороны. Но вне границ этих специализаций, она будет глубоко невежественна и не сознательна. Система Google DeepMind эксперт в Го, но у нее нет возможностей или причин исследовать сферы вне своей специализации.

Многие из этих систем могут не подчинятся соображениям безопасности. Хороший пример – сложный и мощный вирус Stuxnet, военизированный червь, разработанный военными Израиля и США для проникновения и диверсии работы иранских атомных станций. Это вирус каким-то образом (специально или случайно) заразил российскую атомную станцию.

Еще один пример, программа Flame, использованная для кибершпионажа на Ближнем Востоке. Легко представить будущие версии Stuxnet или Flame, который выходят за пределы своих целей и наносят огромный вред чувствительной инфраструктуре. (Для понимания, эти вирусы не являются ИИ, но в будущем они могут его иметь, откуда и беспокойство).

Вирус Flame использовался для кибершпионажа на Ближнем Востоке. Фото: Wired

Миф №4: “Искусственный суперинтеллект будет слишком умен, чтобы совершать ошибки”

Реальность: Исследователь ИИ и основатель Surfing Samurai Robots Ричард Лусимор считает, что большинство сценариев судного дня, связанного с ИИ, непоследовательны. Они всегда построены на предположении, что ИИ говорит: “Я знаю, что уничтожение человечества вызвано сбоем в моей конструкции, но я все равно вынужден это сделать”. Лусимор говорит, что если ИИ будет вести себя так, рассуждая о нашем уничтожении, то такие логические противоречия будут преследовать его всю жизнь. Это, в свою очередь, ухудшает его базу знаний и делает его слишком глупым для создания опасной ситуации. Ученый также утверждает, что люди, говорящие: “ИИ может делать только то, на что его запрограммировали”, заблуждаются также, как и их коллеги на заре компьютерной эры. Тогда люди использовали эту фразу утверждая, что компьютеры не способны продемонстрировать ни малейшей гибкости.

Питер Макинтайр и Стюарт Армстронг, которые работают в Институте будущего человечества при Оксфордском университете, не соглашаются с Лусимором. Они утверждают, что ИИ в значительной мере связан тем, как его запрограммировали. Макинтайр и Армстронг верят, что ИИ не сможет совершать ошибок или быть слишком тупым, чтобы не знать, чего мы от него ожидаем.

“По определению, искусственный суперинтеллект (ИСИ) – субъект, с разумом значительно большим, чем обладает лучший человеческий мозг в любой области знаний. Он будет точно знать, что мы хотели, чтобы он сделал”, – утверждает Макинтайр. Оба ученых верят, что ИИ будет делать лишь то, на что запрограммирован. Но если он станет достаточно умен, он поймет, как это отличается от духа закона или намерений людей.

Макинтайр сравнил будущую ситуацию людей и ИИ с теперешним взаимодействием человека и мыши. Цель мыши – искать еду и убежище. Но она часто конфликтует с желанием человека, который хочет, чтобы его зверек бегал вокруг него свободно. “Мы достаточно умны, чтобы понимать некоторые цели мышей. Так что ИСИ будет также понимать наши желания, но быть к ним безразличным”, – говорит ученый.

Как показывает сюжет фильма Ex Machina человеку будет крайне сложно удерживать более умный ИИ

Миф №5: “Простая заплатка решит проблему контроля ИИ”

Реальность: Создав искусственный интеллект умнее человека, мы столкнемся с проблемой известной как “проблема контроля”. Футуристы и теоретики ИИ впадают в состояние полной растерянности, если их спросить, как мы будем содержать и ограничивать ИСИ, если такой появится. Или как убедиться, что он будет дружественно настроен в отношении людей. Недавно исследователи из Института технологий Джорджии наивно предположили, что ИИ может перенять человеческие ценности и социальные правила, читая простые истории. На деле, это будет куда более сложно.

“Предлагалось множество простых трюков, которые могут “решить” всю проблему контроля ИИ”, – говорит Армстронг. Примеры включали программирование ИСИ так, чтобы его целью было угождать людям, или, чтобы он просто функционировал как инструмент в руках человека. Еще вариант – интегрировать концепции любви или уважения в исходный код. Чтобы предотвратить ИИ от принятия упрощенного, однобокого взгляда на мир, предлагалось запрограммировать его ценить интеллектуальное, культурное и социальное разнообразие.

Но эти решения слишком просты, как попытка втиснуть всю сложность человеческих симпатий и антипатий в одно поверхностное определение. Попробуйте, к примеру, вывести четкое, логичное и выполнимое определение “уважения”. Это крайне сложно.

Машины в “Матрице” могли без проблем уничтожить человечество

Миф №6: “Искусственный интеллект нас уничтожит”

Реальность: Нет никакой гарантии, что ИИ нас уничтожит, или, что мы не сможем найти возможности контролировать его. Как сказал теоретик ИИ Элизер Юдковски: “ИИ ни любит, ни ненавидит вас, но вы сделаны из атомов, которые он может использовать для других целей”.

В своей книге “Искусственный интеллект. Этапы. Угрозы. Стратегии” оксфордский философ Ник Бостром написал, что настоящий искусственный суперинтеллект, после его появления, создаст риск больший, чем любые другие человеческие изобретения. Выдающиеся умы вроде Элона Маска, Билла Гейтса и Стивена Хокинга (последний предупредил, что ИИ может быть нашей “худшей ошибкой в истории”) также выразили обеспокоенность.

Макинтайр сказал, что в большинстве целей, которыми может руководствоваться ИСИ, есть веские причины избавиться от людей.

“ИИ может спрогнозировать, достаточно правильно, что мы не хотим, чтобы он максимизировал прибыль конкретной компании, чего бы это ни стоило клиентам, окружающей среде и животным. Поэтому у него есть сильный стимул, чтобы позаботится о том, что его не прервут, не помешают, выключат или не изменят его целей, поскольку из-за этого изначальные цели не будут выполнены”, – утверждает Макинтайр.

Если только цели ИСИ не будут точно отображать наши собственные, то у него будут достойные поводы не дать нам возможности остановить его. Учитывая, что уровень его интеллекта значительно превосходит наш, мы с этим ничего не сможем поделать.

Никто не знает, какую форму обретет ИИ и как он может угрожать человечеству. Как отметил Маск, искусственный интеллект может использоваться для контроля, регулирования и мониторинга другого ИИ. Или он может быть пропитан человеческими ценностями или преобладающим желанием быть дружественным к людям.

Миф №7: “Искусственный суперинтеллект будет дружелюбным”

Реальность: Философ Иммануил Кант верил, что разум сильно коррелирует с моральностью. Нейробиолог Давид Чалмерс в своем исследовании “Сингулярность: Философский анализ” взял известную идею Канта и применил ее к возникшему искусственному суперинтеллекту.

Если это верно… мы можем ожидать, что интеллектуальный взрыв приведет к взрыву моральности. Затем мы можем ожидать, что появившиеся ИСИ системы будут суперморальны также, как и суперинтеллектуальны, что позволит нам ожидать от них доброкачественности.

Но идея того, что развитый ИИ будет просветленным и добрым, по своей сути, не очень правдоподобна. Как отметил Армстронг, есть много умных военных преступников. Не похоже, что связь между разумом и моральностью существует среди людей, поэтому он поддает сомнению работу этого принципа среди других умных форм.

“Умные люди, ведущие себя аморально, могут вызывать боль гораздо больших масштабов, чем их более глупые коллеги. Разумность просто дает им возможность быть плохими с большим умом, она не превращает их в добряков”, – утверждает Армстронг.

Как объяснил Макинтайр, возможность субъекта достичь цели не относиться к тому, будет эти цель разумной для начала. “Нам очень сильно повезет, если наши ИИ будут уникально одаренными и уровень их моральности будет расти вместе с разумом. Надеяться на удачу – не лучший подход для того, что может определить наше будущее”, – говорит он.

Миф №8: “Риски ИИ и робототехники равнозначны”

Реальность: Это особенно частая ошибка, насаждаемая некритичными СМИ и голливудскими фильмами вроде “Терминатора”.

Если бы искусственный суперинтеллект вроде Skynet действительно захотел бы уничтожить человечество, он был не использовал андроидов с шестиствольными пулеметами. Гораздо эффективнее было бы наслать биологическую чуму или нанотехнологическую серую слизь. Или просто уничтожить атмосферу.

Искусственный интеллект потенциально опасен не тем, что он может повлиять на развитие роботетехники, а тем, как его появление повлияет на мир в принципе.

Миф №9: “Изображение ИИ в научной фантастике – точное отображение будущего”

Множество видов разумов. Изображение: Элизер Юдковски

Конечно, авторы и футуристы использовали научную фантастику, чтобы делать фантастические прогнозы, но горизонт событий, который устанавливает ИСИ, это совсем другая опера. Более того, нечеловеческая природа ИИ делает для нас невозможным знание, а значит и предсказание, его природы и формы.

Чтобы развлекать нас, глупых людишек, в научной фантастике большинство ИИ изображены похожими на нас. “Существует спектр всех возможных разумов. Даже среди людей, вы достаточно отличаетесь от своего соседа, но эта вариация ничто, в сравнении со всеми разумами, которые могут существовать”, – говорит Макинтайр.

Большинство научно-фантастических произведений, чтобы рассказать убедительную историю, не должны быть научно точны. Конфликт обычно разворачивается между близкими по силе героями. “Представьте, насколько бы скучной была история, где ИИ без сознания, радости или ненависти, покончил бы с человечеством без всякого сопротивления, чтобы добиться неинтересной цели”, – зевая, повествует Армстронг.

На заводе Tesla трудятся сотни роботов

Миф №10: “Это ужасно, что ИИ заберет всю нашу работу”

Реальность: Возможность ИИ автоматизировать многое, из того, что мы делаем, и его потенциал уничтожить человечество, две совсем разные вещи. Но согласно Мартину Форду, автору “На заре роботов: Технологии и угроза безработного будущего”, их часто рассматривают как целое. Хорошо думать об отдаленном будущем применения ИИ, но только если оно не отвлекает нас от проблем, с которыми нам придется столкнуться в ближайшие десятилетия. Главная среди них – массовая автоматизация.

Никто не ставит под сомнение, что искусственный интеллект заменит множество существующих профессий, от работника фабрики до высших эшелонов белых воротничков. Некоторые эксперты предсказывают, что половине всех рабочих мест США угрожает автоматизация в ближайшем будущем.

Но это не означает, что мы не сможем справиться с потрясением. Вообще, избавление от большей части нашей работы, как физической так и ментальной, – квази-утопическая цель нашего вида.

“В течении пары десятилетий ИИ уничтожит множество профессий, но это неплохо”, – говорит Миллер. Беспилотные автомобили заменят водителей грузовиков, что сократит стоимость доставки и, как следствие, сделает многие продукты дешевле. “Если вы водитель грузовика и зарабатываете этим на жизнь – вы потеряете, но все другие наоборот смогут покупать больше товаров на ту же зарплату. А деньги, которые они отложат, будут потрачены на другие товары и услуги, которые создадут новые рабочие места для людей”, – утверждает Миллер.

По всей вероятности, искусственный интеллект будет создавать новые возможности производства блага, освободив людей для занятия другими вещами. Успехи в развитии ИИ будут сопровождаться успехами в других областях, особенно в производстве. В будущем, нам станет легче, а не сложнее, удовлетворять наши основные потребности.

Говорят, что в недрах военных лабораторий искусственный интеллект работает уже с 2007 года. Возможно, что уже есть и результаты. Не случайно всего месяц назад Илон Маск объявил о поддержке технологий противодействия искусственному интеллекту и вложил 7 миллионов долларов в исследования в этой области.

«Существует риск, что нечто действительно опасное случится в ближайшие пять лет. Самое большее - десять лет», - сказал предприниматель в дискуссии на сайте edge.org.

Илон Маск, основатель Tesla и SpaceX

Солидарен с Маском и Стив Возняк, который считает, что «искусственный интеллект однажды станет достаточно умным, чтобы избавиться от человека». Билл Гейтс уверен, что если не контролировать создание ИИ, то «искусственный интеллект эволюционирует в состояние, конфликтующее с целями человеческих систем». И, наконец, знаменитый астрофизик Стивен Хокинг прямо заявил, что «искусственный интеллект может положить конец существованию человечества».

Совместно с Илоном Маском Хокинг опубликовал на сайте futureoflife.org открытое письмо с призывом к научному сообществу внимательно относиться к ходу своих исследований в области искусственного интеллекта. Однако среди подписавшихся нет фамилий Сергея Брина и Ларри Пейджа. И это не случайно. Совсем недавно Google объявила о создании нового ИИ, построенного на моделировании разговора.

Вот небольшой фрагмент беседы человека и Машины Google:

Ч.: В чем смысл жизни?

М.: Творить добро.

Ч.: Для чего мы живем?

М.: Чтобы жить вечно.

Ч.: В чем смысл существования?

М.: В том, чтобы выяснить, что случится, когда мы достигнем планеты Земля.

Ч.: Где ты сейчас находишься?

М.: В центре пустоты.

Ч.: В чем смысл смерти?

М.: Чтобы получить жизнь.

Ч.: В чем смысл разума?

М.: В том, чтобы понять, что это.

Ч.: В чем смысл чувств?

М.: Я не знаю.

Вполне себе осмысленная беседа. «Это отправная точка, своеобразный стержень для будущего искусственного интеллекта, - считает исполнительный директор компании „Биплан“ Евгений Карюк. - Уже сегодня можно предположить, что к 2030 году мы увидим вполне реальные прототипы, наделенные искусственным интеллектом, пусть и в начальной стадии».

Полное содержание всех бесед человека и Машины Google можно посмотреть . Там же для сравнения даны беседы человека и Cleverbot . Cleverbot - веб-приложение, которое использует алгоритмы искусственного интеллекта для беседы с человеком. Его придумал в 1988 году ученый Ролло Карпентер. За все время своего существования Cleverbot провел свыше 65 миллионов разговоров с людьми. В 2011 году Cleverbot показал 51% по тесту Тьюринга.

Тест Тьюринга - эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Цель теста — выяснить, может ли компьютер думать.

А вот мой разговор с Cleverbot:

Человек: В чем смысл жизни?

Cleverbot: Смысла в жизни нет.

Человек: Для чего мы живем?

Cleverbot: Ну мы живем ради кого-то, а если ты одинокий — жить незачем.

Человек: В чем смысл существования?

Человек: Где ты сейчас находишься?

Cleverbot: В Москве.

Человек: В чем смысл смерти?

Cleverbot: Это я хочу у тебя спросить.

Человек: В чем смысл разума?

Cleverbot: У меня свой ответ на этот вопрос.

Человек: В чем смысл чувств?

Cleverbot: Зачем я родилась.

Очевидно, что Машина Google дает гораздо более осмысленные ответы. Cleverbot подставляет подходящие, по его мнению, фразы других людей. Иногда действительно кажется, что отвечает другой человек, но не более того.

Есть и другая точка зрения, согласно которой искусственный интеллект невозможен в принципе. В качестве основного аргумента часто приводят теорему Геделя о неполноте. Суть заключается в том, что человек способен решать алгоритмически неразрешимые проблемы, а компьютер — нет. «Ребенок уже к трем годам уверенно решает задачу, спелый фрукт или нет, в силу того, что он обладает нейронными связями, с помощью которых может ответить на вопрос о спелости: цвет, вкус, запах, мягкость или твердость, - говорит Евгений Плужник, первый проректор Московского технологического института. - Способна ли машина научиться этому? Уверен, что да! Если она будет обладать большой базой изображений, она сможет замерить содержание фруктозы и определить мягкость фрукта. Но что будет, если машине подсунуть губку, покрашенную в синий цвет и пропитанную сладкой водой? Способна ли машина в этот момент к подлинному пониманию?»

«Современный компьютер легко справится с любой сложной деятельностью, будь то шахматы или математические вычисления, но лишь при условии, что эту деятельность можно описать с помощью четких вычислительных правил», - говорит известный математик Роджер Пенроуз в одной из своих лекций. «Искусственный интеллект - это возможность системы создавать во время самообучения программы, способные решать задачи определенного класса сложности, - считает Евгений Плужник. - Я уверен, что в ближайшие 100 лет мы не станем свидетелями появления сильного искусственного интеллекта».

И в заключение - еще один вопрос к Cleverbot.

Человек: Было 1 яблоко, 1 помидор, 1 огурец и 1 груша. Сколько всего фруктов?
Cleverbot: Десять часов вечера.

В этом году компания «Яндекс» запустила голосового помощника «Алиса». Новый сервис позволяет пользователю прослушивать новости и погоду, получать ответы на вопросы и просто общаться с ботом. «Алиса» иногда дерзит , порой кажется почти разумной и по-человечески саркастичной , но часто не может разобраться, о чём её спрашивают, и садится в лужу.

Всё это породило не только волну шуток, но и новый виток дискуссий о развитии искусственного интеллекта. Новости о том, чего добились умные алгоритмы, сегодня приходят чуть ли не каждый день, а машинное обучение называют одним из самых перспективных направлений, которому можно себя посвятить.

Чтобы прояснить главные вопросы об искусственном интеллекте, мы побеседовали с Сергеем Марковым, специалистом по искусственному интеллекту и методам машинного обучения, автором одной из самых сильных отечественных шахматных программ SmarThink и создателем проекта «XXII век» .

Сергей Марков,

специалист по искусственному интеллекту

Развенчивая мифы об ИИ

так что же такое «искусственный интеллект»?

Понятию «искусственный интеллект» в какой-то мере не повезло. Возникшее изначально в научной среде, оно со временем проникло в фантастическую литературу, а через неё - в поп-культуру, где претерпело целый ряд изменений, обросло множеством интерпретаций и в конце-концов было совершенно мистифицировано.

Именно поэтому мы часто слышим от неспециалистов примерно такие заявления: «ИИ не существует», «ИИ невозможно создать». Непонимание сути исследований, ведущихся в сфере ИИ, легко приводит людей и к другим крайностям - например, современным системам ИИ приписывают наличие сознания, свободной воли и секретных мотивов.

Давайте попробуем отделить мух от котлет.

В науке искусственным интеллектом называют системы, предназначенные для решения интеллектуальных задач.

В свою очередь, интеллектуальная задача - это задача, которую люди решают при помощи собственного интеллекта. Заметим, что в данном случае специалисты сознательно уходят от определения понятия «интеллект», поскольку до появления систем ИИ единственным примером интеллекта был интеллект человеческий, и определить понятие интеллекта на основе единственного примера - то же самое, что пытаться провести прямую через единственную точку. Таких прямых может оказаться сколько угодно много, а значит, спор о понятии интеллекта можно было бы вести столетиями.

«сильный» и «слабый» искусственный интеллект

Системы ИИ делятся на две большие группы.

Прикладной искусственный интеллект (также используют термин «слабый ИИ» или «узкий ИИ», в английской традиции - weak/applied/narrow AI) - это ИИ, предназначенный для решения какой-либо одной интеллектуальной задачи или их небольшого множества. К этому классу относятся системы для игры в шахматы, го, распознавания образов, речи, принятия решения о выдаче или невыдаче банковского кредита и так далее.

В противоположность прикладному ИИ вводят понятие универсального искусственного интеллекта (также «сильный ИИ», по-английски - strong AI/Artificial General Intelligence) - то есть, гипотетического (пока что) ИИ, способного решать любые интеллектуальные задачи.

Часто люди, не зная терминологии, отождествляют ИИ с сильным ИИ, из-за этого и возникают суждения в духе «ИИ не существует».

Сильного ИИ действительно пока не существует. Практически все успехи, которые мы наблюдаем в последнее десятилетие в области ИИ, - это успехи прикладных систем. Эти успехи нельзя недооценивать, так как прикладные системы в ряде случаев способны решать интеллектуальные задачи лучше, чем это делает универсальный человеческий интеллект.

Я думаю, вы заметили, что понятие ИИ - довольно широкое. Скажем, устный счёт - это тоже интеллектуальная задача, и это значит, что любая счётная машина будет считаться системой ИИ. А как насчёт счётов? Абака ? Антикитерского механизма ? Действительно, всё это формально хотя и примитивные, но системы ИИ. Однако обычно, называя какую-то систему системой ИИ, мы тем самым подчёркиваем сложность решаемой этой системой задачи.

Совершенно очевидно, что разделение интеллектуальных задач на простые и сложные - весьма искусственное, и наши представления о сложности тех или иных задач постепенно меняются. Механическая счётная машина была чудом техники в XVII веке, но сегодня людей, с детства сталкивающихся с куда более сложными механизмами, она уже не способна впечатлить. Когда игра машин в го или автомобильные автопилоты уже перестанут удивлять публику, наверняка найдутся люди, которые будут морщиться из-за того, что кто-то будет относить такие системы к ИИ.

«Роботы-отличники»: о способностях ИИ к обучению

Ещё одно забавное заблуждение - всенепременное наличие у систем ИИ способности к самообучению. С одной стороны, это совсем не обязательное свойство систем ИИ: есть множество удивительных систем, не способных самообучаться, но, тем не менее, решающих многие задачи лучше человеческого мозга. С другой стороны, некоторые люди просто не знают того, что самообучение - свойство, которые многие системы ИИ обрели ещё более полусотни лет назад.

Когда в 1999 году я писал свою первую шахматную программу, самообучение уже было совершенно общим местом в этой области - программы умели запоминать опасные позиции, подстраивать под себя дебютные варианты, регулировать стиль игры, подстраиваясь под соперника. Конечно, тем программам было ещё очень далеко до Alpha Zero . Тем не менее, даже системы, обучающиеся поведению на основе взаимодействия с другими системами в ходе экспериментов по так называемому «обучению с подкреплением», уже существовали. Однако по необъяснимой причине некоторые люди до сих пор думают, что способность к самообучению - это прерогатива человеческого интеллекта.

Машинное обучение, целая научная дисциплина, занимается процессами обучения машин решению тех или иных задач.

Существует два больших полюса машинного обучения - обучение с учителем и обучение без учителя.

При обучении с учителем у машины уже есть некоторое количество условно правильных решений для некоторого набора случаев. Задача обучения в таком случае заключается в том, чтобы научить машину на основе имеющихся примеров принимать правильные решения в других, неизвестных ситуациях.

Другая крайность - обучение без учителя . То есть машину ставят в ситуацию, когда правильные решения неизвестны, имеются только данные в сыром, неразмеченном виде. Оказывается, и в таких случаях можно добиться некоторого успеха. Например, можно научить машину выявлению семантических отношений между словами языка на основе анализа очень большого набора текстов.

Одна из разновидностей обучения с учителем - это обучение с подкреплением (reinforcement learning). Идея заключается в том, что система ИИ выступает в роли агента, помещённого в некоторую модельную среду, в которой она может взаимодействовать с другими агентами, например, с собственными копиями, и получать от среды некоторую обратную связь через функцию вознаграждения. Например, шахматная программа, которая играет сама с собой, постепенно подстраивая свои параметры и тем самым постепенно усиливая собственную игру.

Обучение с подкреплением - довольно широкая область, в ней применяют множество интересных методов, начиная от эволюционных алгоритмов и заканчивая байесовской оптимизацией . Последние достижения в области ИИ для игр как раз связаны с усилением ИИ в ходе обучения с подкреплением.

Риски развития технологий: стоит ли бояться «Судного дня»?

Я не отношусь к числу ИИ-алармистов, и в этом смысле я отнюдь не одинок. Например, создатель стэнфордского курса по машинному обучению Эндрю Ын сравнивает проблему опасности ИИ с проблемой перенаселения Марса.

Действительно, в будущем вполне вероятно, что люди колонизируют Марс. Также вероятно, что рано или поздно на Марсе может возникнуть проблема перенаселения, но не совсем понятно, почему мы должны заниматься этой проблемой уже сейчас? Согласны с Ыном и Ян ЛеКун - создатель свёрточных нейронный сетей, и его шеф Марк Цукерберг, и Йошуа Беньо - человек, во многом благодаря исследованиям которого современные нейронные сети способны решать сложные задачи в области обработки текстов.

Чтобы изложить мои взгляды на эту проблему, потребуется, вероятно, несколько часов, поэтому остановлюсь только на основных тезисах.

1. НЕЛЬЗЯ ОГРАНИЧИВАТЬ РАЗВИТИЕ ИИ

Алармисты рассматривают риски, связанные с потенциальным разрушительным воздействием ИИ, при этом игнорируя риски, связанные с попыткой ограничить или даже остановить прогресс в этой области. Технологическое могущество человечества возрастает чрезвычайно быстрыми темпами, что приводит к эффекту, который я называю «удешевлением апокалипсиса».

150 лет назад при всём желании человечество не могло нанести невосполнимого урона ни биосфере, ни себе как виду. Для реализации катастрофического сценария 50 лет назад необходимо было бы сконцентрировать всю технологическую мощь ядерных держав. Завтра для воплощения в жизнь глобальной техногенной катастрофы может хватить и небольшой горстки фанатиков.

Наша технологическая мощь растёт куда быстрее, чем способность человеческого интеллекта эту мощь контролировать.

Если на смену человеческому интеллекту с его предрассудками, агрессией, заблуждениями и ограниченностью не придёт система, способная принимать более взвешенные решения (будь то ИИ или, что я считаю более вероятным, технологически улучшенный и объединённый с машинами в единую систему человеческий интеллект), нас может ждать глобальная катастрофа.

2. создание сверхинтеллекта принципиально невозможно

Существует идея о том, что ИИ будущего всенепременно будет сверхинтеллектом, превосходящим людей даже сильнее, чем люди превосходят муравьёв. Боюсь в данном случае разочаровать и технологических оптимистов - наша Вселенная содержит целый ряд фундаментальных физических ограничений, которые, по всей видимости, сделают создание сверхинтеллекта невозможным.

Например, скорость передачи сигнала ограничена скоростью света, а на планковских масштабах появляется неопределённость Гейзенберга. Отсюда вытекает первый фундаментальный предел - предел Бремерманна, вводящий ограничения на максимальную скорость вычислений для автономной системы заданной массы m.

Другой предел связан с принципом Ландауэра , в соответствии с которым существует минимальное количество теплоты, выделяемое при обработке 1 бита информации. Слишком быстрые вычисления вызовут недопустимый разогрев и разрушение системы. В действительности, современные процессоры от лимита Ландауэра отделяет менее чем тысячекратное отставание. Казалось бы, 1000 - это довольно много, однако ещё одна проблема заключается в том, что многие интеллектуальные задачи относятся к классу сложности EXPTIME. Это означает, что время, необходимое для их решения, является экспоненциальной функцией от размерности задачи. Ускорение системы в несколько раз даёт лишь константный прирост «интеллекта».

В общем, есть очень серьёзные основания полагать, что сверхинтеллектуального сильного ИИ не получится, хотя, конечно, уровень человеческого интеллекта вполне может быть превзойдён. Насколько это опасно? Скорее всего, не очень.

Представьте себе, что вы внезапно начали думать в 100 раз быстрее остальных людей. Значит ли это, что вы легко будете способны уговорить любого прохожего отдать вам свой кошелёк?

3. мы беспокоимся совсем не о том

К сожалению, в результате спекуляций алармистов на страхах публики, воспитанной на «Терминаторе» и знаменитом HAL 9000 Кларка и Кубрика, происходит смещение акцентов в сфере безопасности ИИ в сторону анализа маловероятных, но эффектных сценариев. При этом реальные опасности ускользают из виду.

Любая достаточно сложная технология, претендующая на то, чтобы занять важное место в нашем технологическом ландшафте, безусловно приносит с собой специфические риски. Множество жизней было погублено паровыми машинами - на производстве, на транспорте и так далее - прежде чем были выработаны эффективные правила и меры по обеспечению безопасности.

Если говорить о прогрессе в области прикладного ИИ, можно обратить внимание на связанную с ним проблему так называемого «Цифрового тайного суда» . Всё больше и больше прикладных систем ИИ принимает решения по вопросам, затрагивающим жизнь и здоровье людей. Сюда относятся и медицинские диагностические системы, и, например, системы, принимающие в банках решения о выдаче или невыдаче кредита клиенту.

В то же время структура используемых моделей, наборы используемых факторов и другие детали процедуры принятия решения скрыты коммерческой тайной от человека, чья судьба находится на кону.

Используемые модели могут основывать свои решения на мнениях учителей-экспертов, допускавших систематические ошибки или имевших те или иные предрассудки - расовые, гендерные.

ИИ, обученный на решениях таких экспертов, будет добросовестно воспроизводить эти предрассудки в своих решениях. В конце концов эти модели могут содержать в себе специфические дефекты.

Этими проблемами сейчас мало кто занимается, поскольку, конечно, SkyNet, развязывающий ядерную войну, это, безусловно, куда более зрелищно.

Нейросети как «горячий тренд»

С одной стороны, нейронные сети - это одна из самых старинных моделей, применяющихся для создания систем ИИ. Появившиеся изначально в результате применения бионического подхода , они довольно быстро убежали от своих биологических прототипов. Исключением тут являются только импульсные нейронные сети (впрочем, пока не нашедшие широкого применения в индустрии).

Прогресс последних десятилетий связан с развитием технологий глубокого обучения - подхода, при котором нейронные сети собирают из большого количество слоёв, каждый из которых построен на основе определённых регулярных паттернов.

Помимо создания новых нейросетевых моделей важный прогресс был также достигнут в области технологий обучения. Сегодня нейронные сети учат уже не при помощи центральных процессоров компьютеров, а с использованием специализированных процессоров, способных быстро производить матричные и тензорные вычисления. Наиболее распространённый на сегодняшний день вид таких устройств - видеокарты. Впрочем, активно ведётся разработка ещё более специализированных устройств для обучения нейросетей.

В целом, безусловно, нейронные сети на сегодняшний день, - это одна из основных технологий в области машинного обучения, которой мы обязаны решению многих задач, ранее решавшихся неудовлетворительно. С другой стороны, конечно, нужно понимать, что нейронные сети не являются панацеей. Для некоторых задач они - далеко не самый эффективный инструмент.

Так насколько умны нынешние роботы на самом деле?

Всё познаётся в сравнении. На фоне технологий 2000-го года нынешние достижения выглядят настоящим чудом. Всегда найдутся люди, любящие побрюзжать. 5 лет назад они вовсю трындели о том, что машины никогда не выиграют у людей в го (ну или, по крайней мере, выиграют очень нескоро). Говорили о том, что машина никогда не сможет нарисовать с нуля картину, в то время как сегодня люди практически неспособны отличать картины, созданные машинами, от картин неизвестных им художников. В конце прошлого года машины научились синтезировать речь, практически неотличимую от человеческой, а в последние годы от музыки, создаваемой машинами, не вянут уши.

Посмотрим, что будет завтра. Я смотрю на эти области применения ИИ с большим оптимизмом.

Перспективные направления: где начать погружение в сферу ИИ?

Я бы посоветовал постараться на хорошем уровне освоить один из популярных нейросетевых фреймворков и один из популярных в области машинного обучения языков программирования (наиболее популярна на сегодняшний день связка TensorFlow + Python).

Овладев этими инструментами и имея в идеале крепкую базу в области математической статистики и теории вероятностей, следует направить свои усилия в ту сферу, которая будет наиболее интересна лично вам.

Интерес к предмету работы - один из самых важных ваших помощников.

Потребность в специалистах по машинному обучению существует в самых разных областях - в медицине, в банковском деле, в науке, на производстве, поэтому сегодня хорошему специалисту предоставлен как никогда широкий выбор. Потенциальные преимущества любой из этих отраслей мне представляются несущественными по сравнению с тем, что работа будет приносить вам удовольствие.

Пытаются приблизиться к ней. Но что представляет собой искусственный интеллект с точки зрения философа? Т&P публикуют статью доктора философских наук Сергея Голенкова, который с помощью Канта и Делеза ставит под сомнение саму возможность создания мыслящей машины.

Проблема сознания заключается в парадоксальной ситуации: мы, разумные существа, обладаем сознанием, оно у нас есть, но мы не знаем что такое сознание. Мамардашвили, определяя эту ситуацию, писал: «Сознание - это парадоксальность, к которой невозможно привыкнуть». Раскрывая особенность парадоксальности сознания, он указывал на две трудности в изучении сознания. Первая состоит в том, что само понятие «сознание» является предельным философским понятием, таким как понятие «бытие». А такого рода понятия не поддаются классическому родо-видовому определению. Другая трудность проистекает из того, что сознание «весьма странное явление, которое есть и которое в то же время нельзя ухватить, представить как вещь». Однако, есть еще одно обстоятельство, делающее проблему сознания особенно сложной. Дело в том, что само сознание всегда экранировано содержанием сознания. Поясню подробнее суть этой трудности.

В свое время Кант обсуждая вопрос о природе единства содержания мысли, писал в «Критике чистого разума», что условием единства содержания нашей мысли является «трансцендентальное единство апперцепции». О чем у него здесь идет речь. Вот в руке у меня лист бумаги. Эту ситуацию содержательно можно выразить следующим образом: «сейчас я держу в руке белый лист бумаги». Это словесное выражение будем считать содержанием мысли. В этой мысли соединены содержательно различные элементы. В ней присутствует представление о времени (слово «сейчас»), представление обо мне («я»), об одном из органов моего тела («рука»), представление о некой вещи («лист бумаги»), представление о свойстве этой вещи («белый»), представление о пространственном расположении листа бумаги относительно моего тела («в руке»). Кроме выраженных представлений, в этой мысли имплицитно содержаться, то есть словесно не выражены, и другие элементы ситуации, например, качество листа бумаги. Очевидно, что это все качественно (и потому содержательно) разные представления. Одни источником имеют тактильные ощущения (качество бумаги: гладкая/шероховатая), другие моторно-двигательные (держу в руке), третьи зрительные (белый цвет листа) и так далее.

Кант задает вопрос, что позволяет разным представлениям, из которых состоит всякая мысль, образовывать целое единство этой мысли? И он отвечает - трансцендентальное единство апперцепций. Это означает, что все данное в наглядном представлении многообразие объединяется при помощи трансцендентальной апперцепции в понятие объекта. Кант говорит, что это объединение есть акт, который сопровождает всякую содержательную мысль и может словесно выражен так: «Я мыслю». Иными словами, чтобы мысль о том, что сейчас я держу в руке белый лист бумаги, не распадалась на различные по содержанию представления, а была одной мыслью, эта мысль должна всегда сопровождаться актом мышления «Я мыслю».

Это «Я мыслю» и есть действие сознания в нас. Но трудность познания этого акта состоит в том, что акт «Я мыслю» всегда экранирован содержанием сознания «сейчас я держу в руке белый лист бумаги». И даже если мы обратим внимание на сам этот акт, то он становится содержательной мыслью, которая, чтобы быть единой, сама должна сопровождаться актом «Я мыслю». В этом случае мы имеем следующее словесное выражение «Я мыслю, что Я мыслю», где второе «Я мыслю» уже содержание мысли, для которой условием является акт первого «Я мыслю». Несмотря на то, что оба эти выражения одинаково составлены из одинаковых слов, это, несомненно, две разные «вещи». Первая выражает акт мысли, вторая - ее содержание. И для их познания нужны разные методы и инструменты. Здесь мы попадаем в ситуацию, которая хорошо известна в физике элементарных частиц (квантовой механике), когда невозможно одновременно, одними и теми же приборами, одними и теми же методами описать положение элементарной частицы и ее импульс (то есть указать вектор ее движения и скорость). Либо мы знаем, где находиться частица, но не знаем ее скорости в данный момент и направление движения, либо знаем вектор и скорость, но не знаем ее место положения.

Акт «Я мыслю» представляет собой некое существование, соотнесенное с сознанием, которое Мамардашвили и Пятигорским было названо «состояние сознания». Термином «состояние сознания» они обозначали по преимуществу независимое от любого мыслительного содержания «состояние нашего психофизиологического механизма, соотнесенного с сознанием». Замечу, что состояние, описываемое термином «мыслю» («Я мыслю»), принадлежат к тому же классу, что состояния «наблюдаю», «вспоминаю», «воспринимаю», «воображаю» и тому подобное. Это все состояния, так или иначе, связанны с сознанием, сознание в них присутствует.

Присмотримся теперь внимательнее к этому классу состояний сознания. В качестве примера рассмотрим состояние сознания «Я наблюдаю стол». Что мы в нем можем обнаружить? Прежде всего, то, что оно по своему составу не однородно. Есть элемент в этом состоянии, который связан с внешне данной вещью, данность которой определяет содержание нашего состояния. То, что мы наблюдаем (мыслим, вспоминаем и так далее) - стол. В акте наблюдения то, что обозначено термином «стол» составляет содержание этого акта, этого состояния сознания. И это содержание наблюдения (содержание состояния сознания) не определено внешней вещью. Стол, как наблюдаемое мною тело, не задает содержание того, что именно я наблюдаю.

Отсюда следует, что содержание наблюдения тела как явления осознаваемого, определяется не самим этим телом, а полностью задается сознанием. Особо подчеркну, не существование тела задается сознанием, а содержание наблюдения тела. Это означает, что в состоянии сознания «Я наблюдаю стол», стол выступает содержательным элементом наблюдения и, стало быть, находится «в» сознании как содержание наблюдения. Следуя традиции после Гуссерля, наблюдаемый стол является интенциональным предметом. Интенциональный предмет, в нашем случае «стол», составляет содержание сознания, он коррелятивен с реально существующим столом, но задан сознанием.

Обратим внимание на то, что пребывание в состоянии «Я наблюдаю стол» содержит в себе два «элемента»: реальный стол и «интенциональный» стол. А между ними зазор. И этот зазор непроходим для мысли, точнее, он не может быть преодолен интеллектуальными средствами, так как в него включены элементы, не принадлежащие мышлению. Какие это элементы? Мамардашвили и Пятигорский в своей работе называли один такой элемент - это «наш психофизиологический механизм». Очевидно, что без него невозможно состояние «Я наблюдаю стол». Укажу еще на ряд таких элементов. Состояние наблюдения (восприятия, воображения, мышления и так далее) - это состояние нашего существования, бытийное состояния. Специфика нашего существования - сознательного существования - в философской традиции после Хайдеггера определяется термином «экзистирование». Экзистирование - это существование способом понимания собственного существования. В чем специфика такого существования, «существования пониманием»? Что такое понимание?

Понимание можно рассмотреть как «внимание», «внятие», «принятие», «впускание», «ассимиляцию» некоего сущего в себя. Когда я понимаю некое сущее, например, когда я понимаю (или не понимаю) предмет своего наблюдения как стол, то тем самым я принимаю (или не принимаю) это сущее как/в содержание моего состояния. Иначе говоря, понимание здесь выступает своеобразным испытанием как модусом моего бытия, экзистирования. И этот модус по природе своей амбивалентен. С одной стороны, понимая (внимая, принимая и так далее) сущее, я испытываю себя на способность понять сущее, а, с другой - я испытываю само сущее на его истину, выведывая ее у сущего. Понимание предстает в этом случае в виде проверки на способность быть и себя, и сущего. Иными словами, в состоянии сознания в качестве необходимого элемента включены не только интеллектуальные процедуры, но и мои бытийные (и онтологические, и онтические) характеристики. В частности в понимании «участвует» такая структура как бытие-с-другим. Рассмотрим подробнее, каким образом эта бытийная структура определяет состояния сознания и его содержания.

В качестве примера такого влияния сошлюсь на анализ восприятия - а это состояние, как я уже отмечал выше, того же класса, что и наблюдение - в работе Жиля Делеза «Мишель Турнье и мир без Другого». В этой работе Делез показывает как другой в качестве элемента совместного бытия определяет мое восприятие. Прежде всего, отмечает Делез, другой оказывает организующее воздействие на мое поле восприятия предметов и идей. Это организующее воздействие проявляется в том, что узнаю или чувствую воспринимаемый предмет в качестве определенного предмета, то есть такого, который отличается от другого предмета. Я могу не знать и не понимать существа отличия одного предмета от другого. Я лишь фиксирую само отличие. Вот именно для восприятия отличия, границы другой и предоставляет мне возможность различения. Он выступает условием способности различения, разграничивания.

Рассмотрим этот момент подробнее. Разделим акт восприятие на последовательные шаги от начала до узнавания предмета: акт получения перцептивных ощущений от воспринимаемого предмета (выявление фигуры на фоне); акт «фокусирования» внимания на выделенном предмете (все остальные предметы сливаются в неразличимый фон); акт терминирования выделенного предмета, его словесное обозначение и акт интерпретации (то есть «узнавания» предмета), как акт включения значения (оно фиксировано термином) предмета в систему уже существующих значений (например, в систему языка). Таким образом, мы имеем четыре шага определения предмета в восприятии. Отвлечемся сейчас от того, что можно по-иному членить этот процесс. Здесь важно, что этот процесс имеет шаговую (или звеньевую, или этапную - или какую-нибудь еще) структуру. Важно подчеркнуть то обстоятельство, что между шагами, звеньями, этапами существуют зазоры. Они важны как раз тем, что в этих зазорах пребывает нечто, что, с одной стороны, не является структурным элементом восприятия, а с другой - без них восприятие не может быть реализовано. Другой как раз и выступает необходимым элементом восприятия. Поясню этот тезис.

Посмотрим на зазор, который находиться между актом сосредоточения внимания на предмете и актом называния предмета, наделения его именем. Для того чтобы этот переход состоялся необходимо, чтобы уже существовали слова, существовала речь, существовал язык, существовала культура называния, культура говорения. А все это возможно, только если существует другой. Более того, существование другого уже необходимо между первым и вторым шагом, чтобы состоялся процесс узнавания воспринятого предмета. Это Делез и имеет в виду, когда говорит, что другой выступает условием различения предметов и идей.

Фигуру другого в процессе восприятия нельзя интерпретировать «ни как объект в поле моего восприятия, ни как субъект меня воспринимающий» (хотя эмпирически, если другой человек находится в момент моего восприятия, он может быть такими объектом и субъектом). Так чем же в таком случае является другой? Делез пишет: «… Это прежде всего структура поля восприятия, без которой поле это в целом не функционировало бы так, как оно делает». Без этой структуры - структуры другого - восприятие не могло бы состояться. Эту структуру другого он называет «априорный Другой». Априорный, поскольку эта структура уже существует до всякого реального восприятия, выступая его условием. Функция этого априорного Другого (или структуры другого) состоит в том, чтобы выступать основанием других, которые будут осуществлять эту структуру в каждом конкретном поле восприятия. Иными словами, эта структура дает возможность состояться опыту конкретного восприятия. Поэтому эту структуру - структуру другого - Делез называет «структурой возможного». «Другой как структура, это выражение возможного мира».

Интересно посмотреть, что производит структура другого («априорный Другой» у Делеза) в таком состоянии сознания как восприятие. Главное следствие действия этой структуры, считает Делез, это разграничение моего сознания и его объекта. Поскольку другой вносит в мир различения, границы, кромки, переносы, которые обеспечивают появление предмета в поле восприятия, то этот предмет, в качестве воспринимаемого отделен от сознания и ему противостоит. Иначе говоря, возникают феномены «воспринимающий» (то есть сознание) и «воспринимаемый» (то есть предмет). До этого сознание и его объект были слиты в одно целое и их не существовало в качестве отдельных феноменов. Именно другой обеспечивает разграничение сознания и его объекта. Далее, становление разграничения сознания и его объекта есть одновременно возникновение пространства, так как возникают различные места - «здесь» и «там». Мое сознание (или «воспринимающий Я») занимает место «здесь», а воспринимаемый предмет занимает место «там». Наконец, появление другого превращает мой мир в прошлый мир, опрокидывает мое сознание в позицию «я был». Другой приносит с собой возможный мир и тем самым вносит в мир временные разграничения. Возникает время в своих феноменах прошлого, настоящего и будущего.

Упомяну еще один элемент, который находится в состоянии сознания и обеспечивает как само существование этого состояния, так и его содержание. В своей работе почти полувековой давности «Анализ сознания в работах Маркса» Мамардашвили показал, что сознание, по Марксу, есть «функция, атрибут социальных систем деятельности», и что содержания и формообразования сознания производятся «из переплетения и дифференциации связей системы (социальной деятельности - С.Г.), а не из простого отображения объекта в восприятии субъекта». Иными словами, содержания сознания (и мышления, как феномена сознания) являются производными от системы социальной деятельности человека. Таким образом, состояния сознания включают в себя как необходимый элемент социальную составляющую индивидуального бытия, то есть ту систему общественных связей, в которую включен индивид как социальный субъект. Элементы, которые были рассмотрены - зазор между реальной вещью и интенциональным предметом, социальная система, структура другого в работе сознания (и мышления) - свидетельствуют о неконтинуальности сознания (мышления).

Зазор, который содержит в себе неинтеллектуальные компоненты не может быть преодолен за счет работы мысли. Он преодолевается лишь индивидуальным усилием быть - испытанием бытия/бытием - как актом не интеллектуальным, а экзистенциальным. Иначе говоря, «работа» мысли требует в качестве необходимых условий жизненные (физиологические, психические, социальные и так далее), а не только интеллектуальные элементы. Это обстоятельство и позволяет поставить под сомнение попытки создания искусственного интеллекта.

Читайте в Bookmate:

Поддержите проект — поделитесь ссылкой, спасибо!
Читайте также
Стрижки по форме лица для женщин и девушек Стрижки по форме лица для женщин и девушек Разводы в молодых семьях Разводы в молодых семьях Все, что нужно знать о тестах на беременность Все, что нужно знать о тестах на беременность