- Искусственный разум и настоящие чувства
- Искусственный разум и настоящие чувства
- Вопрос первый: может ли компьютер испытывать эмоции?
- Вопрос второй: заменит ли взаимодействие с роботами тепло человеческого общения?
- Вопрос третий: смогут ли машины принимать решения?
- Вопрос четвёртый: чего бояться?
- Хороший, плохой, злой: возможен ли эмоциональный искусственный интеллект
- Владимир Ильин
- С каждым годом разработки в сфере искусственного интеллекта становятся все совершеннее — технология распознавания лиц, (действительно) толковые голосовые помощники и даже искусство, созданное алгоритмами, становятся частью нашей жизни. Остается подождать, когда искусственный интеллект возьмет последний рубеж человеческих возможностей и научится испытывать эмоции, а сценарий фильма «Она» станет реальностью. Возможно ли это на самом деле? Или машины так и останутся послушными, но холодными слугами человека? T&P разбираются, как искусственный интеллект обучают чувствам, почему эти разработки так необходимы для нашей повседневности и что обещает будущее, где машины сравняются с человеком.
- Сакральное против познания
- Наладить коммуникацию
- Научить эмоциям
- Эволюционная гонка
Искусственный разум и настоящие чувства
Искусственный разум и настоящие чувства
Люди склонны испытывать эмоциональную привязанность к игрушкам и памятным вещам. Но что, если объектом чувств когда-нибудь станет ИИ? Сможет ли искусственный интеллект заменить нам друга или любимого человека? Будет ли конкурировать за место под солнцем? Способны ли умные машины испытывать эмоции и решать этические проблемы? На церемонии награждения победителей Imagine Cup журнал «Кот Шрёдингера» и компания Microsoft собрали экспертов, чтобы обсудить перспективы развития искусственного разума и его взаимодействия с человечеством.
Вопрос первый: может ли компьютер испытывать эмоции?
[Модератор] Наш круглый стол посвящён искусственному интеллекту (ИИ) — как мы будем с ним сосуществовать, может ли он развиться до уровня человеческой личности, обладать не только разумом, но и чувствами. Мой первый вопрос именно об этом: способен ли ИИ чувствовать, испытывать симпатии и антипатии, принимать решения на основе каких-то своих мотивов и интуитивных порывов?
[Алексей Турчин] Эмоции сформировались в ходе эволюции как инструмент приспособления, который позволяет быстро оценить ситуацию и среагировать. Это не уникальное свойство человека — животные тоже злятся, боятся, страдают… Мы унаследовали систему реагирования от обезьян, но дополнили её рациональным мышлением — оно есть только у человека. Конечно, эмоции нам по-прежнему нужны: они срабатывают быстрее — например, мы мгновенно реагируем на состояние другого человека.
Сегодняшние системы искусственного интеллекта почти так же быстро распознают наши эмоции. А могут и изображать их, посылая смайлики или эмотиконы. Используя такие приёмы, они уже сейчас могут успешно манипулировать человеком: логика у эмоций довольно простая, и машине легко её симулировать.
Но могут ли они испытывать эмоции сами? Это гораздо более сложный вопрос. Чтобы на него ответить, надо понять природу нашего субъективного опыта. Философы о ней давно спорят. Возможно, ответ на этот вопрос мы получим создав полноценную работающую модель человеческого мозга.
[Михаил Черномордиков] Не исключаю, что рано или поздно мы разработаем единую систему знаков для понимания искусственного интеллекта. Например, если машина подмигивает зелёной лампочкой в левом нижнем углу, значит, она веселится, а если начинает увеличиваться красный квадрат — злится, и нужно её успокоить. То есть машине, чтобы обрести эмоции, не обязательно изображать человека. Возможно, она пойдёт другим путём. А вообще, не так уж и важно, по-настоящему искусственный интеллект испытывает чувства или имитирует их. Гораздо важнее, как мы, люди, сможем этим распорядиться.
[Пётр Левич] Мы убедились, что искусственный интеллект умеет изображать человеческие эмоции. Три года назад Евгений Густман — чат-бот, притворявшийся мальчиком из Одессы, прошёл классический тест Тьюринга. Общаясь с чат-ботом, судья проверял его и на эмоции — и не смог определить, что это не человек. Теперь мы хотим знать, испытывает ли машина эмоции или просто имитирует их. Но ведь мы и в собеседнике-человеке не всегда уверены. Да и в отношении самих себя далеко не всегда можем понять, по-настоящему мы испытываем эмоции или симулируем их, потому что хотим испытывать. Не рановато ли ставить вопрос о подлинности эмоций у машины, если он не решён для человека?
Вопрос второй: заменит ли взаимодействие с роботами тепло человеческого общения?
[Модератор] Взаимоотношения людей — тонкая материя. Влюбиться можно не потому, что человек идеален, а за его недостатки. Это не предугадать. Нет такой формулы, которая заставит влюбиться в хулигана, это нельзя алгоритмизировать. Или всё-таки можно? Мой второй вопрос об этом: можно ли сделать искусственный интеллект непредсказуемым и будут ли роботы привлекать нас так, как привлекают люди?
[Алексей Турчин] Я думаю, что такой ИИ сделать вполне возможно. Более того, чувства людей часто неточны, а машина будет быстро совершенствоваться и в итоге может оказаться человечнее, чем сам человек. Герой фантастического фильма «Она» влюбился в операционную систему своего компьютера как раз потому, что она оказалась в большей мере женщиной, чем все настоящие. Думаю, в реальности мы тоже будем влюбляться в искусственный интеллект — люди и сейчас ощущают зависимость от телефонов, а дальше начнут испытывать к ним эмоциональную привязанность.
[Пётр Левич] Многие эксперты опасаются войны людей с машинами, а мне как раз кажется, что мы не будем с ними воевать, скорее уж будем в них влюбляться. Но важно даже не это, а сам факт, что мы будем объединяться с искусственным интеллектом. Будущее за такими цифровыми кентаврами, за симбиозом человека и машины. Интересно, конечно, какой будет любовь в обществе, состоящем из цифровых кентавров.
В какой-то степени я уже сейчас представляю одно целое со своим телефоном. Человек с быстрым доступом к информации и человек без оного — это разные существа с принципиально разными способностями. А если я буду получать всю информацию через нейроинтерфейс по мысленному запросу, если смогу мгновенно анализировать большие данные, стану ли я из-за этого машиной или останусь человеком? Мне не очень важно, как называться. Но хочется сохранить право на нерациональное решение, на ошибку, на дерзновение эксперимента. И пока у меня остаётся это право влюбляться — в человека, машину или киборга, — всё хорошо. Главное, чтоб никто не мог мне диктовать, в кого стоит влюбляться, а в кого нет, — чтобы поменьше нормировали мою жизнь.
[Михаил Черномордиков] Мы будем нуждаться в живом контакте друг с другом, несмотря ни на какие технологии, — так мы устроены. Одно дело возможности, другое — как они будут реализованы. Мы могли бы здесь не собираться: технологии позволяют выходить на связь из дома. Когда появилось радио, люди не перестали ходить на концерты; кинотеатры не убили театры; даже электронные книги пока не вытеснили бумажные. Технологии позволяют упростить, ускорить, разнообразить нашу жизнь. Но это не значит, что мы должны полностью изменить привычки, — просто выбор стал больше.
Вопрос третий: смогут ли машины принимать решения?
[Модератор] Автомобили-роботы уже ездят по дорогам, и мы надеемся, что они способны застраховать нас от большинства аварий, ведь автопилоты не принимают неверные решения под влиянием эмоций. Но сможем ли мы доверить им решения в экстренных ситуациях, связанных с этическими дилеммами? Как, например, поступить, если на дорогу выскочил пешеход и избежать аварии невозможно: совершить наезд, свернуть в кювет, выехать на встречную полосу?
[Пётр Левич] Давайте будем точнее в формулировках. Когда мы говорим, что автомобиль принимает решение, кого сбивать, мы выражаемся метафорически. Пока человекоподобный искусственный интеллект не изобретён, мы единственные существа на Земле, способные к целеполаганию. И когда мы говорим, что машина приняла решение, на самом деле речь идёт о решении программиста. Это не мелочь, когда мы говорим: «робот принял решение», то подсознательно делегируем ответственность за это решение технологии. Но ни одна молекула химического оружия не убила человека по собственному желанию. Ни один мессенджер не отправил ключи шифрования спецслужбам по собственной инициативе. Технологии — лишь трансляторы воли людей.
[Михаил Черномордиков] Согласен: создатели искусственного интеллекта отвечают за все его «решения», за все результаты. И я бы не преувеличивал вероятность того, что мы в скором времени отдадим машинам право принимать решения. Думаю, если это и произойдёт, то очень нескоро. Возможно, никогда.
Когда появился интернет, было непонятно, как в нём жить — в отсутствие устоявшихся правил. Но на предыдущих этапах цивилизация уже создала и законы, и каналы связи, и медиа — оставалось ими воспользоваться и адаптировать к новой реальности. Теперь и в Сети есть цифровые права, цифровые каналы связи, цифровые медиа — есть законы и регулирование. То же будет происходить и с искусственным интеллектом по мере того, как из непонятного и инновационного он будет превращаться в обыденный и естественный.
Уже сейчас ассоциация высокотехнологичных компаний, куда входят Microsoft, Apple, Facebook, Amazon, Google, разрабатывает общие положения: какими должны быть технологии, как они будут работать и решать в том числе вопросы этики. И здесь, конечно, потребуется участие юристов и других представителей социогуманитарных наук.
[Алексей Турчин] Над постановкой целей искусственному интеллекту работает ряд организаций и людей, среди которых такие известные мыслители, как Элиезер Юдковски и Ник Бостром. Пока эта проблема не имеет общепринятого решения, есть несколько подходов. Сторонники одного из них, метаэтики, занимаются составлением правил, регулирующих принятие и применение этических решений. Приверженцы другого подхода, консеквенциализма, говорят, что при принятии решения мы должны исходить из его последствий, то есть машина должна посчитать, сколько людей погибнет в каждом случае, и постараться минимизировать последствия. Третий подход деонтологический: машина должна просто следовать правилам. При этом, соблюдая правила, она может сделать так, что погибнет больше людей.
В целом же пока не очень понятно, как заложить цели и ценности в мозг машины, — это большой открытый вопрос.
Надо сказать, что есть малая этика искусственного интеллекта и большая. Кого автопилот будет давить на дороге — проблема малой этики. Большая проблема в том, чтобы он не вышел из-под контроля, — я имею в виду не нынешних роботов, а сильный искусственный интеллект, не уступающий человеческому или даже намного его превосходящий. Выход такого искусственного интеллекта из-под контроля — событие необратимое: мы уже никогда не вернём себе власть над ним, и вполне вероятно, он нас всех уничтожит. Решить эту большую проблему мы хотим с помощью загрузки человеческих ценностей. Но для начала надо определить, какие именно ценности мы хотим заложить.
В общем, будет очень непросто создать саморазвивающийся и при этом дружественный человеку искусственный интеллект. Но без него благоприятные сценарии будущего не просматриваются.
Вопрос четвёртый: чего бояться?
[Модератор] Под конец мне бы хотелось отойти от проблем далёких и во многом мифических: уничтожит нас искусственный интеллект, влюбимся мы в него, как он будет выбирать в неоднозначных ситуациях… Давайте попробуем сформулировать опасения, которые должны возникнуть уже сейчас, настоящие проблемы, на которые стоит обратить внимание.
[Алексей Турчин] Надо быть осторожнее с саморазвивающимися системами, а также отслеживать и препятствовать появлению компьютерных вирусов с искусственным интеллектом.
[Пётр Левич] Нужно не допускать нормирования другими людьми нашей жизни. Наделённые властью могут пытаться влиять на нас с помощью новых разработок, регулировать прорывные технологии запретами, чтобы уберечь нас от ошибок и не допустить экспериментов. Мы должны этому противодействовать.
[Михаил Черномордиков] Я опасаюсь только того, что искусственный интеллект останется уделом лишь технических специалистов и учёных. Так происходит сейчас, и это нужно изменить. ИИ должен быть простым и доступным, понятным каждому. И если это будет так, машинный разум перестанет вызывать опасения, о которых мы сегодня говорили.
Источник
Хороший, плохой, злой: возможен ли эмоциональный искусственный интеллект
Владимир Ильин
С каждым годом разработки в сфере искусственного интеллекта становятся все совершеннее — технология распознавания лиц, (действительно) толковые голосовые помощники и даже искусство, созданное алгоритмами, становятся частью нашей жизни. Остается подождать, когда искусственный интеллект возьмет последний рубеж человеческих возможностей и научится испытывать эмоции, а сценарий фильма «Она» станет реальностью. Возможно ли это на самом деле? Или машины так и останутся послушными, но холодными слугами человека? T&P разбираются, как искусственный интеллект обучают чувствам, почему эти разработки так необходимы для нашей повседневности и что обещает будущее, где машины сравняются с человеком.
Сакральное против познания
В обывательском представлении искусственный интеллект никогда не сможет приблизиться к человеческой эмоциональности из-за нашей особой душевной организации, которую невозможно трансплантировать в машину. Однако сложности с созданием эмоционального ИИ, напротив, связаны с тем, что люди не так уж хороши в эмпатии. Мы совсем не похожи на идеальные эмоциональные машины, которые могут с легкостью расшифровать чувства окружающих. Наша эмпатия серьезно ограничена уникальным опытом, усваиваемыми стереотипами и индивидуальными психоэмоциональными реакциями. Так, европеец из среднего класса вряд ли поймет, какие чувства выражает вождь африканского племени, и наоборот.
С одной стороны, мы полагаем, что эмоциональность — сакральный дар, исключительная привилегия людей. С другой — знаем о ней слишком мало, рассказывает специалист по ИИ и машинному обучению и основатель портала 22century.ru Сергей Марков. По его мнению, отказ от восприятия эмоциональности как священного позволит найти новые методы для изучения эмпатии. С помощью обратной разработки (исследование готового устройства или программы с целью понять принцип его работы и обнаружить неочевидные возможности. — Прим. T&P) исследования нейронных сетей и машинного обучения можно узнать что-то принципиально новое о человеческой эмоциональности. «Машинное обучение позволяет в ряде случаев, что называется, поверить гармонию алгеброй — на смену догадкам и гипотезам приходит более надежное знание, основанное на статистике больших данных», — полагает Марков.
Наладить коммуникацию
Возможно, мы бы и не пытались научить машины эмпатии просто из любопытства, но растущее число автоматизированных систем (от голосовых помощников до самоуправляемых автомобилей) делает эмоциональный ИИ насущной необходимостью. Главная задача, которая стоит перед специалистами по машинному обучению, — упростить работу с разными интерфейсами и на уровне ввода, и в процессе вывода информации. Частота общения с компьютерами очевидно растет, но сами сервисы и системы пока не понимают, почему мы трясем телефоном: от злобы или от смеха.
Эмоциональный интеллект уже сейчас востребован во многих бизнес-проектах. От рекламы, которая, подстраиваясь под эмоциональное состояние потенциального клиента, увеличивает продажи, до технологий распознавания, которые, обнаружив самого нервного человека в толпе, помогут поймать преступника.
Исследователям предстоит поработать с эмоциональным интеллектом и из соображений безопасности. «Решения, которые принимаются компьютерами, не должны казаться психопатическими. Если машина действует в мире, где живут люди, она должна уметь принимать во внимание „человеческие обстоятельства“, то есть быть способной к эмпатии. Стандартный пример: робот-диагност, отправляющий пожилого человека на сложную операцию, должен учитывать риски, связанные со стрессом. Беспилотный автомобиль, начисто лишенный эмпатии, в определенном контексте тоже может натворить бед», — считает философ Кирилл Мартынов.
Алармисты вроде философа и специалиста по антропоцену Ника Бострома, отмечает Мартынов, утверждают, что проблема «потери чувствительности» у сверхразума, резко выделяющегося на фоне человеческого уровня, вполне реальна. Эту проблему пытаются предотвратить уже сейчас при помощи юридических ограничений. При таком подходе создателей ИИ законодательно обяжут наделять разработки элементами эмоционального разума, необходимыми для эмпатии.
Научить эмоциям
Нетривиальная задача создания эмоционального ИИ упрощается с появлением новых инструментов вроде машинного обучения. Сергей Марков описывает этот процесс следующим образом: «Можно взять несколько сотен тысяч аудиозаписей человеческих высказываний и попросить группу людей-разметчиков сопоставить с каждой из этих фраз набор маркеров „эмоционального алфавита“. Затем случайным образом отбираются 80% фраз — на этой выборке нейросеть обучают угадывать эмоциональные маркеры. Оставшиеся 20% можно использовать, чтобы убедиться в исправной работе искусственного интеллекта». В другой модели обучения, которую описывает Марков, нейросеть получает бо́льшую самостоятельность. В ней ИИ сам категоризирует фразы по схожей эмоциональной окраске, темпу речи и интонации, а позже учится синтезировать свои высказывания на основе полученных категорий. Так или иначе, главным ресурсом для обучения искусственного интеллекта становятся большие массивы данных.
Эволюционная гонка
Говоря о машинном обучении и удобных интерфейсах, мы концентрируемся на практических задачах и их решениях. Но как насчет появления «настоящей» (как у людей) эмоциональности у искусственного интеллекта? Сможет ли машина любить, грустить и злиться? «Тот факт, что мы переживаем наши собственные эмоции как „настоящие“, связан лишь с тем, что так настроена наша когнитивная система, возникшая в ходе эволюции. Особи, способные испытывать эмоции и контролировать свое поведение, получали преимущество в эволюционной гонке. Компьютеры вряд ли смогут приблизиться к моделированию реальной эволюции приматов — в этом смысле их эмоции не будут „реальными“», — полагает Мартынов.
Ключевой вопрос, говорит Мартынов: можно ли смоделировать субъективные переживания эмоций, то, что Аристотель назвал бы душой, а Декарт — cogito? Прямого ответа на этот вопрос наука до сих пор не дает, а философы собирают конференции о природе квалиа (нередуцируемых элементов субъективного опыта). Хотя есть и оптимисты вроде философа и когнитивиста Дэниела Деннета, которые утверждают, что в конечном счете субъективный опыт — это способность рассказывать себе и окружающим о том, что вы почувствовали. Убедительные вербальные отчеты об эмоциях мы, конечно, получим от машин в ближайшее время, думает Мартынов.
Но с большой вероятностью, полагает Сергей Марков, наше совместное будущее с эмоциональным искусственным интеллектом примет формы, которые невозможно вообразить сегодня со стереотипным противопоставлением людей и машин: «Скорее в будущем люди и машины будут объединены в гетерогенные синтетические системы, в которых вы уже не сможете провести даже условную черту, разделяющую человека и продукт его технологий. В таком сценарии эмоциональному интеллекту уготована большая роль».
Источник