Проблема соотношение интеллекта компьютера и человеческого мышления
Люди умеют мыслить абстрактно, то есть на основе небольшого числа примеров выводить рабочие обобщения. Искусственный интеллект не способен на это от слова совсем: чтобы научить нейросеть определять породы собак, ей пришлось скормить тонны картинок. Издание Quanta поговорило с исследовательницей Мелани Митчелл о том, почему она хочет научить ИИ проводить аналогии, в чем трудность аналогий для нейросетей и почему для полноценного обучения алгоритмам нужен телесный опыт.
Книга «Гедель, Эшер, Бах: эта бесконечная гирлянда», удостоенная в 1979 году Пулитцеровской премии, вдохновила многих информатиков. В их числе была и Мелани Митчелл, которая на тот момент работала учителем математики в одной из нью-йоркских школ. После прочтения внушительной 777-страничной книги она решила посвятить себя изучению искусственного интеллекта. Митчелл связалась с автором, исследователем ИИ Дугласом Хофштадтером, и убедила его взять ее к себе стажером. К тому моменту за плечами у Митчелл было всего несколько курсов по информатике, но Хофштадтеру понравилась ее напористость.
Подав документы в магистратуру в последний момент, девушка смогла пройти и приступила к работе в новой лаборатории Хофштадтера в Мичиганском университете в Анн-Арбор. В течение последующих шести лет Митчелл и Хофштадтер совместно разработали программу Copycat, задача которой, по словам ее создателей, заключалась в том, чтобы «обнаруживать интересные аналогии так, как это делают люди».
Copycat искала аналогии среди простых наборов букв, как в заданиях стандартизированных тестов. Например: «Если последовательность „abc“ меняется на „abd“, то как меняется последовательность „pqrs“?» Хофштадтер и Митчелл считали, что понимание сути аналогий — то есть связей между схожими идеями — это ключ к созданию реалистичного ИИ.
Митчелл утверждает, что установление подобия — намного более сложный процесс, чем поиск закономерностей: «Проведение аналогий подразумевает понимание смысла ситуации и сопоставление ее с другой ситуацией. Если вы рассказываете мне историю, а я отвечаю: „Со мной случилось то же самое!“, это не означает, что с нами обоими произошли одинаковые события, но они всё же достаточно похожи, чтобы можно было провести между ними параллель. Люди делают это постоянно, пусть и не всегда замечают».
За время работы в Институте Санта-Фе Митчелл расширила рамки своих исследований и теперь занимается не только машинным обучением. Сейчас она возглавляет проект «Основы интеллекта в естественных и искусственных системах». В течение следующего года в его рамках пройдет серия междисциплинарных семинаров, посвященных изучению того, как биологическая эволюция, коллективное поведение (социальных насекомых вроде муравьев) и физическое строение тела способствуют развитию разума. Роль аналогий в ее работе очень велика — особенно в области ИИ, развитие которого за последние десять лет было обусловлено преимущественно глубоким обучением нейросетей — технологией, имитирующей многоуровневую сетевую структуру мозга млекопитающих.
«Современные нейросети очень хорошо справляются с определенными задачами, — говорит Митчелл. — Но им редко удается перенести то, чему они научились в одной ситуации, на другую». А в этом и состоит суть аналогии.
— Почему проведение аналогий настолько важно для ИИ?
— Аналогии — это фундаментальный когнитивный механизм, который поможет ИИ достичь результатов, которые мы хотим получить.
Одни говорят, что для ИИ главное — это способность прогнозировать, другие — что владеть здравым смыслом, третьи — что находить полезную для данной ситуации информацию. Но аналогии играют ключевую роль в каждом из этих процессов.
Возьмем, к примеру, беспилотные автомобили. Одна из главных трудностей в их создании — это то, что они могут столкнуться с ситуацией, лишь слегка отличающейся от тех, на которых они обучались, и тогда машины окажутся в затруднении.
Откуда люди знают, как поступать в ситуациях, в которых они никогда ранее не оказывались? Благодаря умению проводить аналогии с предыдущим опытом. То же самое должны уметь делать и ИИ-системы.
— Вы пишете, что аналогии — это «недостаточно изученная тема в ИИ». Почему, если они настолько важны?
— Прежде всего потому, что люди до сих пор не осознавали ключевую роль аналогий в мышлении. Ранний ИИ был основан на логике. Но в последние годы акцент сместился на обучение посредством множества примеров — считается, что ИИ сможет вывести из них знания о вещах, с которыми никогда прежде не сталкивался.
Исследователи надеялись, что способность к обобщению возникнет сама собой из набора данных, но этого не произошло. Можно показать глубокой нейросети миллионы изображений мостов, и тогда она, скорее всего, сумеет распознать следующее изображение моста. Но она не в состоянии сформировать на их основе образное представление о мосте и перенести его на выражения вроде «наводить мосты».
Нейросети не способны мыслить образно. Исследователи ИИ только сейчас начинают это понимать.
— Нейросети никогда не научатся абстракциям?
— В последнее время появились новые подходы: в частности, метаобучение и самостоятельное обучение. Новые системы (например, GPT-3) учатся подбирать пропущенные слова в предложениях, что затем позволяет им более реалистично генерировать речь. Некоторые утверждают, что при наличии достаточного количества данных подобные системы со временем научаться абстрагировать. Но я так не считаю.
— По вашим словам, ИИ на данном этапе не может преодолеть «барьер значения»: в определенных условиях он способен имитировать понимание, но в других условиях становится ненадежным. Почему вы считаете, что аналогии помогут решить эту проблему?
— Интуиция подсказывает мне, что решение проблемы ненадежности кроется в понимании значения. Причина ненадежности систем именно в том, что они не понимают (в человеческом смысле) данные, которыми оперируют.
«Понимание» — одно из тех слов, в которые каждый человек вкладывает свой смысл. Это «слово-чемодан», экземплификант для обозначения когнитивного феномена, который мы пока не можем объяснить.
Я считаю, что механизм абстрагирования и проведения аналогий составляет основу того, что мы зовем пониманием, ведь понимание — это способность перенести то, что мы уже знаем, на что-то еще неизвестное.
— Другими словами, именно проведение аналогий позволяет живым организмам не вести себя как роботы, а иметь гибкий ум?
— В определенной степени — да. Способность проводить аналогии присуща не только людям. Некоторые животные действительно ведут себя как роботы, но другие способны примерять уже имеющийся опыт на новые ситуации. Возможно, способность проводить аналогии даже может служить критерием для оценки степени разумности живых организмов.
Есть мнение, что люди выработали этот вид мышления благодаря своей социальности. Для нас очень важно уметь моделировать мысли других людей, понимать их цели и прогнозировать их дальнейшие действия. Всё это достигается проведением аналогий с самим собой. Мы ставим себя на место другого человека и проецируем собственное мышление на него.
— Ваша программа Copycat была первой попыткой достичь этого при помощи компьютера. Остается ли она единственной?
— Кен Форбус и его коллеги использовали знаменитую аналогию (авторство которой принадлежит Эрнесту Резерфорду) между солнечной системой и атомом. Они составили набор предложений, описывающих строение солнечной системы и атома, а затем сопоставили эти предложения не на основе их содержания, а на основе структуры. Мне кажется, это верный ход мыслей. Когда люди пытаются установить сходство, они обращают внимание скорее не на конкретные объекты, а на их взаимосвязи.
— Почему этот подход не прижился?
— Используемые исследователями системы не были способны к обучению. Например, брались фразы вроде «земля вращается вокруг солнца» и «электрон вращается вокруг ядра» и сопоставлялись друг с другом. Но значение словосочетания «вращается вокруг» в систему не закладывалось. Это был всего лишь символ. Copycat хорошо справлялся с последовательностями букв, но мы не знали, как перенести этот успех в область высказываний, наделенных смыслом.
— Глубокое обучение известно тем, что очень хорошо масштабируется. Оказалось ли оно более успешным в проведении осмысленных аналогий?
Считается, что между входным и выходным слоями глубоких нейросетей творится магия. Люди думают, что если нейросети распознают породы собак лучше, чем люди — а это действительно так, — то они должны уметь проводить простые аналогии. Исследователи создают большой набор данных, на котором обучают свою нейросеть, а затем публикуют статью, утверждая, что им удалось достичь точности распознавания 80%. Тогда другие исследователи возражают, что этот набор данных имеет статистические свойства, позволяющие машине научиться решать задачи, не прибегая к обобщению. И так продолжается без конца.
Проблема в том, что если вы вынуждены обучать нейросеть на тысячах примеров, то это уже провал. Суть абстрагирования не в этом. Абстрактное мышление подразумевает использование метода few-shot learning, то есть обучения на малом числе примеров.
— Так чего же нам не хватает? Почему мы не можем совместить разные подходы?
— У нас нет инструкции, в которой можно было бы прочитать, как это сделать. Но я считаю, что их нужно совместить. Цель нынешних исследований — понять, что в каждом из подходов главное и как они могли бы дополнить друг друга.
Многие возлагают большие надежды на Abstraction and Reasoning Corpus (ARC) — сложный набор задач, призванный тестировать машины на обладание «базовыми знаниями», которыми люди владеют от рождения. Мы знаем, что мир состоит из объектов, которые находятся в разном положении относительно друг друга. ARC показывает, например, некое сочетание цветов, форм и движения — «все квадраты одного цвета двигаются вправо, а все квадраты другого цвета — влево», а затем просит произвести нечто аналогичное с другими цветами. Закономерность такого рода доступна каждому человеку, исходя из базовых знаний.
— Если эти «базовые знания» врожденные, значит ли это, что для того, чтобы научиться проводить аналогии, ИИ должен обладать телом, подобным нашему?
— Это вопрос на миллион долларов. Исследователи ИИ не могут сойтись во мнении на этот счет.
Моя интуиция подсказывает мне, что нам не удастся научить ИИ проводить аналогии на одном уровне с людьми без придания ему тела. Обладание телом может иметь решающее значение, так как некоторые визуальные задачи требуют трехмерного мышления. А это требует опыта передвижения по миру и понимания пространственных связей между объектами.
Мне трудно сказать наверняка, придется ли машине пройти этот этап. Но думаю, что да.
Только ленивый не обсуждает сейчас будущее, связанное с ИИ - искусственным интеллектом. Компании вкладывают сотни миллионов долларов в разработку программного обеспечения и новых технологий интерфейса (связи) машины и человеческого мозга. А некоторые заявляют о том, что скоро ИИ превзойдет самого человека. В действительности это не просто иллюзия, а фундаментальное заблуждение, причина которого кроется в элементарной, но повторяемой всеми разработчиками ошибке. В этой статье я расскажу вам об этой фундаментальной причине, которая не только делает бессмысленным ожидание быстрого прогресса в ближайшие годы, но и отбирает надежду на создание настоящего ИИ в обозримом будущем.
Что такое современный ИИ (искусственный интеллект)?
Нас окружает огромное множество внешне сообразительных приборов. Умный дом, всяческие роботы помощники, самоуправляемые автомобили и куча модных электронных гаджетов. Все это довольно простые приборы, но есть и настоящие вычислительные монстры, как например суперкомпьютер Summit который стоит в Оук-Риджской национальной лаборатории (США). Этот гигант способен выполнять 200 квадриллионов вычислений в секунду и это говорит о том, что он как минимум в миллион раз быстрее любого современного домашнего компьютера.
Что отличает и объединяет все эти разные «разумные» устройства?
Различий у них много: мощность процессоров, объём памяти и прочие особенности «железа», но главное — это разная организация работы алгоритмов.
А вот общее только одно - наличие этих самых алгоритмов. При этом ИИ который в них вложен, это целая группа методов построения и управления этими алгоритмами и комплекс подходов, которые предполагают машинное обучение. Пусть вас не смущает слово обучение, так как в основе такого обучения нет познавательной составляющей, зато есть все те-же алгоритмы, которые математически тренируют некоторые функции работать лучше и быстрей по мере накопления опыта и сравнительной базы.
Анатомия заблуждения
Программисты утверждают , что алгоритмы с использованием машинного или глубокого обучения по своей специфике напоминают работу человеческого мозга и при наличии необходимых вычислительным мощностей, такие алгоритмы можно научить решать задачи любой сложности.
К сожалению, это пока не больше, чем фантазия, так как на практике мы столкнемся с одной важной и пока совершенно непреодолимой проблемой – невозможностью интерпретировать действия человеческого мозга при решении задачи сопоставимой сложности. Получается, что нет возможности создать группу алгоритмов способную повторить процесс, который мы не понимаем в основе.
Иными словами программисты просто не знают о том, что нейрофизиологи не понимают почему человек вообще имеет интеллект. И это не просто досадный пробел, а фундаментальная проблема, которая по мере накопления новых данных только укрепляется. Несмотря на то, что мы можем разобрать мозг человека вплоть до отдельного нейрона, мы не понимаем главного – как эта система создает поток сознания .
Почему так?
Работа ИИ, воспринимаемая нами как разумная деятельность, априори должна быть основана на глубоком понимании того, как работает мыслительный процесс человека, связанный с наличием сознания. Образно говоря если, вы хотите научить машину плавать, вам нужно для начала понять, что такое вода и почему некоторые предметы не тонут. Вы должны не догадываться, а знать наверняка почему, например бревно плывет, а камень тонет.
В случае с работой человеческого мозга именно отсутствие понимания основного принципа его работы является главной и пока непреодолимой преградой. Мы знаем что такое нейроны (клетки человеческого мозга) и научились идентифицировать какая группа или область нейронов задействуется или активируется при выполнении определенных задач, как например чтение, пение или работа руками, но мы совершенно не понимаем как происходит координация и самоорганизация всех этих функций в единый поток сознания которым каждый из нас обладает.
Что знает наука?
Физиологи говорят, что в нашем мозге перемещается своеобразное «световое пятно» активности. В зависимости от того, чем мы заняты, у нас в мозге включается та или иная зона деятельности и если представить кору головного мозга в виде некой графической области мы могли бы наблюдать движущееся концентрированное пятно возбуждения, которое перемещается по коре головного мозга по мере перехода от одной деятельности к другой.
Когда, например мы говорим, у нас активируется область Брока, но эту группу нейронов можно сравнить с микросхемой управляющей параметрами динамика (звук, тембр), а не с процессором способным создавать сам текст и смысл того, что озвучивает динамик. Получается, что "световое пятно" и вся известная сейчас концепция активных зон головного мозга это служебные или условно технические функции, а где находиться координирующий центр нам не известно.
Мы знаем, что в человеческом мозге есть 86 миллиардов нейронов при том, что только 16 миллиардов относятся к коре больших полушарий, при этом все они входят в ту или иную функциональную зону активности. Другими словами, все нейроны обслуживают технические функции, при этом центр координации где-то скрыт, но в реальности у нас просто нет резерва неизученных и не идентифицированных клеток, которым можно было-бы приписать функции такого координатора.
Мы просто не понимаем как такая ресурсоограниченная система как наш мозг вообще способна содержать и управлять сознанием. Известно, что если взять интеллектуальную силу человеческого мозга в сочетании с энергозатратностью то в сравнении с современными компьютерами наша голова минимум в 50 тысяч раз сильней! При этом такая непостижимо эффективная система, потребляя энергии как небольшая лампочка и опираясь на ограниченный объём нейронов, способна поддерживать сознание, образное мышление, память, сложнейшую пространственную ориентацию и еще кучу всяких взаимосвязанных функций в режиме реального времени без зависаний и проблем с перегрузкой.
И самое главное - скорость нервного импульса при этом всего 270-280 км в час в то время, как в любом компьютере сигнал перемещается со скоростью 300 тысяч км/сек . Нейронная сеть нашего мозга передает электрический сигнал в 3 миллиона раз медленнее простого металлического кабеля связи, но почему-то все равно все успевает.
Главный вывод, о котором не знают программисты
Самый простой и очевидный вывод, который нужно сделать в этой ситуации окажется просто шокирующим. Все что мы знаем о человеческом мозге говорит о том, что это только часть системы .
Есть еще нечто, что функционально интегрированно с нашими нейронами и именно этот союз создает поток нашего сознания. Другими словами, мы (условно) до винтика разобрали биологический прибор, который показался нам компьютером и теперь явно видим, что это только монитор.
Человеческий мозг просто обязан иметь еще одну функциональную систему, которая выполняет роль интегрированного и высокоэффективного координирующего центра, ответственного за большую часть высшей нервной деятельности и сам поток сознания. Именно эта вторая система позволяет нам думать , мечтать и осознавать себя разумным существом. Мы можем только догадываться о том какой сложной и необычной является эта структура, при том, что пока не можем даже найти место, где она находиться.
В этой ситуации совершенно бессмысленно говорить о том, что мы способны создать машину или набор самообучающихся алгоритмов способных повторить, а тем паче превзойти человеческий мозг.
Все что мы на сегодняшний день можем , это строить изначально запрограммированные алгоритмы, которые будут повторять и видоизменять в определенных рамках те правила и закономерности, которые пропишут их создатели. Никакой даже самой отдаленной схожести с настоящим человеческим интеллектом такие системы иметь не могут.
Компаниям, инвестирующим деньги в создание ИИ нужно начинать с другого конца и вместо моделирования новых многоуровневых алгоритмов, сфокусировать свое внимание на вопросе как именно головной мозг человека создает наше сознание.
Как только мы отбросим иллюзии и осознаем, что видим не всю систему, нам нужно будет сконцентрироваться на единственном вопросе – как и от куда нейронная сеть нашего мозга получает функциональную поддержку позволяющую формировать поток сознания.
Когда мы в ходе эксперимента убедимся в наличии такого взаимодействия мы не только осознаем кто мы есть , но и поймем, что создать ИИ сравнимый с человеческим мозгом это задача по сложности сопоставимая с колонизацией соседней галактики.
Идеи, представленные в этой статье, являются частью доктрины Синтропизма.
Искусственный интеллект - это специальная область науки, опирающаяся на информатику и другие дисциплины; ее главной задачей является разработка таких программ, которые придали бы компьютеру интеллект.
Существуют два подхода к проблеме искусственного интеллекта. Чаще всего исследователи используют подход «сверху вниз», при котором разрабатываются экспертные системы, или «мыслящие Машины». Такие машины представляют собой настоящий электронный мозг, способный формулировать правила организации знаний, создавать гипотезы и сопоставлять их с реальной действительностью с целью выработки новых решений. Второй подход-это путь «снизу вверх». При этом ученые разрабатывают системы, улавливающие различные виды информации (по типу глаза или уха), соединяют эти системы с обу-
Адаптация и творчество 475
чающимися сетями и с помощью таких моделей пытаются понять, как действует мозг при декодировании и интерпретации входных данных.
По мнению Моравеца (Университет Карнеги - Меллона), об «искусственном интеллекте» можно будет по-настоящему говорить только тогда, когда эти два подхода, развивающиеся пока независимо, объединятся.
1. Мыслящие машины. Компьютеры, о которых мы до сих пор говорили, -это обычные электронные вычислительные машины, действующие по принципу цифровой обработки информации. Они имеют, с одной стороны, блок памяти, а с другой - обрабатывающее устройство; эти два блока по программе, составленной человеком, обмениваются двоичными сигналами, каждый из которых может принимать значения либо «да», либо «нет». Даже для таких машин уже созданы экспертные системы, благодаря которым они работают по меньшей мере так же эффект эффективно, как лучшие специалисты различных областей человеческого знания..
В последние годы некоторые биофизики -например, Хопфилд из Калифорнийского технологического института, -заинтересовались разработкой так называемых нейрокомпьютеров, функционирование которых гораздо ближе к работе человеческого мозга. Такие компьютеры состоят из сетей, образованных соединенными между собой кремниевыми «нейронами». Роль синапсов здесь играют сопротивления в местах контактов между «нейронами». Преимущество таких сетей состоит в том, что им не обязательно нужно обладать всеми входными данными, чтобы предложить возможное решение проблемы. Их память, как и наша, функционирует по ассоциативному принципу: эти машины способны ассоциировать неполную входную информацию с информацией, уже имеющейся в памяти, и благодаря этому могут формулировать вероятные ответы гипотетического характера («может быть. »). Память диффузно распределена по всей нейронной сети, и при уничтожении части этой сети она не разрушается, а становится лишь менее четкой или более подверженной ошибкам.
С помощью подобной сети из нескольких десятков искусственных нейронов, соединенных с матрицей фоточувствительных элементов, Хопфилд смог добиться распознавания, например, буквы А независимо от конкретного варианта ее написания. Именно так ребенок усваивает алфавит. Для этого Хопфилду достаточно было сделать так, чтобы сеть сама могла изменять сопротивление своих связей при каждом предъявлении буквы А, написанной несколько различными способами. На одиннадцатом предъявлении машина распознала букву А за долю секунды.
Сайновски и Розенберг из Университета Джонса Гопкинса достигли еще большего: их машина NETtalk за одну ночь усвоила 1000 слов, прочитанных вслух из текста на английском языке. При использовании классических методов программирования это потребовало бы нескольких лет.
Подобные сети способны обучаться самостоятельно, и им не надо указывать, верен или неверен их ответ. Машине достаточно лишь запомнить состояние сети при предъявлении ей той или иной информации (например, буквы А), и тогда конфигурация, характерная для этой информации, автоматически воспроизводится при ее новом предъявлении. Такие сети способны в рекордное время выявить из 10 32 возможных вариантов наиболее краткий путь, соединяющий между собой 30 точек (обычный компьютер решал бы такую задачу несколько дней). Ученые рассматривают уже возможность строить сети, разделенные, подобно мозгу, на области, у каждой из которых будет своя специфическая функция. Это позволит решать задачи вроде только что упомянутой за минимальное время, причем число точек может достигать 1000.
2. Сенсоры. Некоторых исследователей особо заинтересовал второй подход -путь «снизу вверх». Они пытаются создать машины, способные видеть и слышать. В качестве примера можно привести кремниевую «сетчатку», разработанную Карвером Мидом (Mead) из Калифорнийского технологического института. Эта сетчатка представляет собой сеть из 100 тысяч транзисторов, собранных в микросхеме размером в несколько квадратных миллиметров. В этом устройстве имеются фоточувствительные датчики, соединенные с несколькими слоями «нейронов», каждый из которых выполняет вполне определенную роль (как и в сетчатке животного; см. приложение А). Такая сеть преобразует входную информацию в электрические сигналы, и это позволяет непрерывно и в режиме реального времени регистрировать изменения яркости и перемещения световых пятен. Далее устройство по кадрам анализирует входную картину, включая перемещения объектов и все изображение в целом (что обычная камера делать не может). Была разработана также «улитка» (для анализа звуков), более эффективная, чем у низших животных, обладающих этим органом. Кроме того, как уже говорилось выше (досье 8.1), Псалтис разрабатывает световые нейрокомпьютеры, в которых информация памяти записывается на голографические пластинки.
Таким образом, остается лишь соединить выходы подобных сенсоров с обучающейся сетью, играющей роль мозга и способной использовать получаемую информацию и вновь подавать ее в сеть, т.е. функционировать так же, как живые нервные клетки. Возможно, это уже дело ближайшего будущего.
Рассмотрение вопроса о том, каково соотношение функций в решении сложных производственных задач между человеком и компьютером, заставляет прежде всего обратиться к проблеме самих интеллектуальных функций и к проблеме интеллекта в более широком плане. Рассматривая эволюцию самого понятия "интеллект", Е. Б. Моргунов отмечает, что со времен Платона и Аристотеля "ранг интеллекта как бы все время понижался". Интеллект начали рассматривать как "способность человека к познанию", "функции интеллекта операционализировались", "делались попытки низвести интеллект к способности приспособления, к решению лишь практических задач". "В психологии делались попытки измерений интеллекта как некоей технической функции, и ученые, осознающие ограниченность этих процедур, не без ехидства определяли интеллект как то, что измеряется с помощью тестов на интеллект".
Наиболее сложной оказалась проблема рассмотрения интеллекта как творческого акта. Е. Б. Моргунов пишет в связи с этим: "Сложилась ситуация, при которой мы многое знаем о разновидностях интеллекта, умеем отличить одну от другой и даже определять, более того, формировать некоторые из них, но не умеем определить интеллект как таковой". При этом сам процесс творческого размышления предлагается рассматривать как "особый "функциональный орган" индивидуальности".
Поскольку сама работа человека за компьютером формируется и под воздействием характеристик программного обеспечения, "вполне логичной была бы задача рассмотрения того, какие изменения в процессе мышления происходят иод влиянием компьютера, и в особенности, компьютера, оснащенного искусственным интеллектом". При этом, по мнению Е. Б. Моргунова и В. П. Зинченко, "многообещающей представляется логика размышлений, предложенная выдающимся российским философом П. А. Флоренским и обозначенная им еще в 1919 году в работе "Органопроекция"".
Сам термин "органопроекция" (согласно П. А. Флоренскому) - это не только модель конкретного органа, но и устройство для реализации определенной функции. Как считают В. П. Зинченко и Е. Б. Моргунов, органопроекция "размазывается" между человеком и объектом его деятельности, она - проекция не только первообраза, но и объекта, не только органопроекция, но и объектопроекция, при этом "разные органопроекции, а также разные технические реализации одной и той же органопроекции в большей или меньшей степени тяготеют к одному из выделенных полюсов, т.е. к первообразу или к объекту, они всегда продукт некоторого компромисса".
В. П. Зинченко и Е. Б. Моргунов считают также, что "органопроекция и объектопроекция сходятся, сливаются в системах искусственного интеллекта", так как в них не только моделируются функции человека, но и создается новый объект, приобретающий определенную независимость от пользователя (за счет гибкости и возможности самонастраиваться). И хотя искусственный интеллект не укладывается уже в рамки традиционно понимаемого "средства труда" (технического орудия), это еще и не субъект труда. Более корректно говорить здесь об "органопроекции" интеллекта.
"Система приобретает определенную независимость от пользователя в решении задач, - пишет Е. Б. Моргунов. - Наиболее распространенная разновидность систем искусственного интеллекта - экспертная - функционирует в строго ограниченной предметной области. Вобрав в себя совокупность приемов работы специалиста высокого уровня, экспертная система начинает давать решения, уровень которых близок к уровню решений и рекомендаций специалиста. Если помощью экспертной системы пользуется студент или менее квалифицированный специалист, в его глазах она может приобретать индивидуально-психологические черты. Может возникнуть эффект персонализации компьютера, сопровождаемый речевым обращением к нему, эмоциональными оценками и реакциями на те или иные особенности функционирования системы. Каждый пользователь, имеющий опыт работы с доинтеллектуальными системами, в состоянии припомнить ряд примеров на этот счет".
Однако проблема, обозначенная В. П. Зинченко и Е. Б. Моргуновым, представляется еще более интересной (и одновременно запутанной). Поставим перед собой вопрос: только ли средства определяют деятельность человека и потенциально претендуют на то, чтобы всецело завладеть человеком (когда само средство превращается в "инициатора" активности и размышлений человека, точнее, когда сам человек из субъекта труда превращается в ведомый компьютером "объект")? Но в качестве таких инициаторов могут выступать и цели труда (когда человеком "овладевает" какая-то идея), и условия труда (например, когда заработок явно доминирует над иными смыслами труда) и т.п.
Зададимся другим интересным вопросом: где кончается человек (и, соответственно, где начинаются уже средства его деятельности, его труда)? Ответ на данный вопрос очень непрост. Эта проблема связана, с одной стороны, с проблемой границы телесности. Напомним, что еще К. Маркс говорил об орудии как о "продолжении руки человека": "Предмет, которым человек овладевает непосредственно, <. > - есть не предмет труда, а средство труда. Так, данное самой природой становится органом его деятельности, органом, который он присоединяет к органам своего тела, удлиняя таким образом, вопреки библии, естественные размеры последнего. "
С другой стороны, не менее интересен и иной вопрос: где кончается сама субъектность, не является ли сам человек лишь "органопроекцией" своего предприятия или проводником воли своего начальника? Кроме того, можно спросить: не является ли сам человек (оператор) "органопроекцией" компьютерных сетей, куда также включены другие операторы-пользователи?
Современная компьютерная техника не может сравниваться с человеком, по крайней мере, по следующим позициям:
- 1) главная особенность человеческого интеллекта - способность к творчеству, на которое компьютер не способен;
- 2) пока специалисты в области ЭВМ рассматривают мышление лишь как результат, но не как процесс (не как деятельность со своими специфическими механизмами);
- 3) для настоящего творчества необходима активность по "преодолению всех степеней свободы, кроме одной", где сама степень свободы рассматривается как одна из характеристик "хаоса", но не творчества; проблема - как мобилизовать, т.е. как организовать, систему для решения данной задачи; при этом оставшаяся одна степень свободы - это и есть выбор наиболее верного решения;
- 4) "успехи в создании искусственного интеллекта всегда будут идти вслед за успехами психологии мышления", однако "тот, кто идет за кем-то, всегда остается позади", поэтому опасения насчет того, что компьютер покорит человека (человечество) целиком, преждевременны и в итоге все будет определяться нравственным развитием самих людей.
Можно выделить следующие основные направления, пути обогащения "компьютерной метафоры":
- 1) разработка искусственного интеллекта на логико-математических основаниях (правда, необходимо помнить, что у человека процессы мышления иные, чем у машины);
- 2) в когнитивной психологии нет характеристики источников самодвижения системы субъективного опыта, так как по поводу активности есть неясности. Отсюда - перспектива развития компьютерной техники связана с дальнейшей разработкой (пониманием) проблемы активности;
- 3) как отмечал Дж. Джонс, "для изобретения чего-то необходимо изменить не только чье-то (или свое) окружение, но и самого себя". Следовательно, нужны другие разработчики компьютеров - другие "обогатители компьютерной метафоры".
В. П. Зинченко видит также перспективу при решении активности и сознания субъекта труда в разработке идеи "живого движения" (как единицы анализа психики). Еще известный отечественный философ Э. В. Ильенков говорил о том, что рука человека способна совершать движение по форме предмета, не дожидаясь, пока этот другой предмет заставит двигаться по своим законам. "Неживое движение", например движение циркуля, не способно "увидеть" другой предмет, и если этим циркулем не руководить, он либо сломает данный предмет, либо сломается сам. Сам В. П. Зинченко отмечал, что "действие - принципиально открытая система, которая никогда не бывает тождественна сама себе, это противоречивое единство, в котором субъект, живое движение и предмет смыкаются в цельное психофизиологическое и психофизическое образование".
Читайте также: