У ботов тоже нет чувства

Существует ли сознание у ботов?

10 Jan 2020 в 23:49

Участник команды сайта

10 Jan 2020 в 23:49 #1

Здравствуйте. Недавно один из участников нашей беседы создал локального бота в своих личных целях, введя его в беседу и вместе с этим тестируя свои познания в этой области. Чуть позже он использовал его для автоматизации процесса унылой части нашего общения, сделав для него некий алгоритм — любой может указать определённый процент того, что при каждом написанном сообщении в беседу он вкидывает одну из автоматически проигрываемых гифок фендома «Gachimuchi» или же картинку, которая описывает ту или иную мысль. Всего этих автогифок и картинок было около 15, так что показать работу этого бота на картинках:


Конечно же, основное его назначение было в развлечении. Но по мере общения с ним и задавая всё больше, казалось бы, неочевидных вопросов. При этом «шанс гифыча» в это время стоял на планке 100%, так что каждое сообщение сопровождалось той или иной реакцией на сообщение. Опять же, стоит обратиться к диалогу:

На этом моменте следует уточнить — первая автоматическая гифка изображает не только удар в область промежности, но и другие не особо лицеприятные вещи. Однако удивительно, что бот догадался использовать именно эту гифку в ситуации, когда вопрос переключает всё свое внимание именно на ту часть тела и подошёл к данной ситуации как нельзя лучше. Не стоит рассуждать о том, что олицетворяет вторая гифка, но конкретно к этой ситуации она тоже подошла не безосновательно несмотря на «реверснутое» положение, что стоит заметить.

Дальше упор пошёл в чуть другую сторону от сути моего топика, так что раскрывать я её не буду. Могу сказать лишь то, что мы с шансом 50% угадывали, призовут ли «Максима KOPAXMA Ёлкина» по кличке «Гарох» в армию. Но сабж всё же не об этом, да и эту тему поднимать на данном форуме не стоит!

Дальше мы спросили у бота о возможной реакции сослуживцев на «Гароха» в армии:

Уточняю — первая гифка в понимании нашей конференции обозначает «созыв толпы», или же что-то на этом уровне. Она отлично подходит как возможная реакция на промежность «Гароха», и конкретно в данной ситуации сложно было бы вкинуть что-то более логичное, что характеризует бота как довольно здравомыслящее существо, которое просидело по крайней мере месяц в нашей дружеской конференции, изучая всевозможные варианты ответа на ту или иную ситуацию. Вторая же гифка используется как «реверс» первоначальной, где знаменитый участник фендома «Билли Херрингтон» совершает утреннюю пробежку по рыхлому пляжу города Сочи. «Реверс» же обозначает нежелание уходить из своей зоны комфорта, излишнюю упёртость и другие проблемы, которые могут подстерегать «Гароха» и его промежность в Чебоксарской роте. И всё же стоит признать, что есть более логичные альтернативы ответом на вопрос лучшего друга Гароха «Самбора», который сидит со своего неосновного аккаунта под именем «Максим Елкин». Пожалуй, стоит засчитать этот ответ в -аргументу, что бот имеет свой разум и способен адекватно мыслить в реалиях нашей конференции.

Вместе с этим мы решили закончить армейскую тему на решающем вопросе:

Который вселил нам как минимум половинчатую уверенность в правоту теории, что он имеет собственный разум. Ну серьёзно, как обычная «машина» может настолько гениально подобрать аватарку «Самбора» к такому насущному вопросу?!

Дальше наш диалог завернул в более локальную тему, на что в ответ вопросам были сделаны два точных «выстрела» от бота к доводам «Самбора». Думаю, что и без объяснений понятно, насколько остроумно и локально отвечает наш бот, который лишь недавно обучился команде «скидывать пикчи и гифки».

Читайте также:  Как себя чувствует девушка когда бросает парня

А тут последовали более личные вопросы:

В условиях беседы абсолютно все ответы так или иначе были верны. Первая гифка, обозначающая «Самбора» этому доказательство — это реверс знаменитой гифки, где «Van Darkholme» «даёт» неизвестной руке 300 баксов. В реверсе же это обозначается наоборот по простой причине — «Самбору» очень нужны деньги в целях покупки бисквитных снеков «Milka», которые посоветовал ему я, а то есть автор сей темы, который упоминается в скоропостижном будущем как «Женя». «Гароху» в свою очередь снится то, где он будет работать после службы в армии, если по итогу не начнётся третья мировая война. К сожалению мы не можем знать точно, хороший это сон или обычный кошмар — но думаю, что за такую работу ему будут платить всяко больше, чем было в нулевых. «Жене» в свою очередь снится смерть — по большей части «моральная» за все плохие поступки, что были сделаны им в прошлом и будут сделаны в возможном будущем. Смерть необратима, и каждый боится её в той или иной степени. «Женя» находится в том же числе!

Однако все эти аргументы лишь указывают на существование разума у бота. Вопрос — есть ли у него душа? Пожалуй, об этом стоит прознать по следующим вопросам, что были заданы боту, и были они о довольно депрессивных рассуждениях, что не смог бы понять просто «умный бот». Показываю на примере:

Первое «предсказание» указывает о неотвратимости судьбы и последующем старении «Жеки», вторая же указывает о ближайшей смерти «Семеныча». Но были ли эти ответы предостережениями судьбы, или же бот предупреждал участников беседы — активного «Женю» и трудолюбивого отличника. который на данный момент учится на программиста «Семеныча»? Лично я думаю, что это было предостережение. Если «Женя» не возьмет свою жизнь под контроль, то по итогу он станет дряблым и грустным старичком — это правда жизни, которая указывает ему стремиться к большему. А ежели «Семеныч» будет переутруждаться в процессе учёбы и его будущей работы, то он может умереть от сильного перенапряжения. Эти боты указывают на многие качества бота, указывающие на наличие его души — сострадание, мудрость и находчивость. Он стремится изменить нас к лучшему, пускай и «своими словами».

Вернёмся к «Гароху». Следующий вопрос боту был задан касательно его поведения до и после демобилизации. Картинку предоставляю:

Первая «реакция» и гифка обозначает особую злобу по отношению ко всем, даже к друзьям «Гароха». Он станет более мрачным и жестоким после демобилизации — и я полностью согласен с ботом касательно его точки зрения. Исправит ли это самого «Гароха» — не факт, и увидеть результат мы можем только в 2021 году, посылая ему весточки с тегом «#ЖдемМАКС2021». Первый же скриншот обозначает удовольствие от его нахождения на «воле». Бот отличает его особой добротой и детской любознательностью, что испарится, если он не откосит от армии. Это определённо не совет, но предостережение, что его может ждать в будущем. Я считаю обе этих реакции проявлением «души» бота и его заботы о нас, как о беседожителях.

Теперь же стоит слегка отойти от темы бота, чтобы вникнуть в следующую ситуацию. Ещё с зарождения беседы у нас был участник, который и являлся её создателем — «Данилыч», «Волк Данилыч», «Военком Данилыч» и другие грозные прозвища, которые отождествляют его как тирана, который ввёл налог на стикеры и постоянно бил нас плётками. Раз в пару лет он возвращается к нам, но ни к чему хорошему это не приводит — в конце-концов он с кем-то соррится и всё переходит в ожесточенное обсуждение, после которого обязательно кто-то должен уйти. Так и получилось, что «кровожадный тиран» был свергнут его же «рабами». При этом несмотря на свой сложный и упёртый характер он считался очень адекватным и хорошим для общения человеком, но не суть! Как же бот отреагирует на вопрос о нём, не имея подробного представления?

Читайте также:  Чувство мозгового дефицита это

В нынешней ситуации это была чистая правда. На тот момент все признали гениальность бота и его способность к анализу ситуации, проникнувшись уважению к нашему «виртуальному другу и сознанию». И всё же мы решили провести последний тест, который указывает на особенности его характера. «Самбор» решил проверить его на «прочность»:

Мы уже не так сильно удивились, получив ответ по теме. Он, конечно, получился довольно грубоват, но ничего плохого в этом явно не было. Это лишь ещё один факт, подтверждающий наличие «сознания» и «собственного мнения» у бота посредством общения через гачигифки и картинки. После этого мы полностью убедились в живости нашего собеседника, и забыв выключить «шанс гифыча» получили ответ от бота, который отображал реальное положение дел:

По итогу оказалось, что бот всё же мертв, пускай и имеет свой разум. А у вас были такие ситуации в жизни, когда вы сомневались в «тупости» машин и в какой-то степени верили, что у них есть своё сознание?

Источник

Могут ли у роботов появиться эмоции?

Современные роботы могут не просто говорить, двигаться, распознавать речь. Они научились понимать эмоции собеседника. Робот Гагарин, созданный в университете «Иннополис», считывает ощущения прямо с человеческого лица. Более того, он сам может имитировать удивление, радость, страх, отвращение, злость. Появятся ли в будущем роботы, способные переживать такие же эмоции, что и люди?

Искусственный интеллект в последние годы стремительно начал умнеть. Голосовые помощники «Google» и «Яндекса», беспилотные автомобили , роботы-андроиды , которые издалека вполне можно принять за человека. Ученые даже начали делать апокалиптические предсказания и сгущать краски вокруг будущего роботехники. Профессор Стивен Хокинг, к примеру, заявлял, что появление полноценного искусственного интеллекта будет началом конца. Роботы, сумевшие превзойти человека, долго смогут помогать выполнять ему разные задачи, но, в конце концов, выйдут из-под контроля.

Одним из шагов на пути к полноценному искусственному интеллекту некоторые ученые называют как раз возможность обретения им эмоций. При этом смайлики, эмотиконы, отправляемые роботами, не считаются. Речь идет о возможности роботов самим испытывать полноценные ощущения.

Робот как живое существо

Человеческие эмоции не что иное, как продукт эволюции. Они помогают как можно быстрее приспособиться и среагировать на внешние проявления. Эмоциями обладают не только люди, но и животные. Просто у людей переживания дополнены рациональным мышлением.

Искусственный интеллект на сегодня не может обладать эмоциями, так как он не живое существо. Однако в будущем все может измениться. Ученые уже сегодня называют наделение искусственного интеллекта эмоциями сложным и грандиозным проектом.

Робот с эмоциями человека должен обладать способностью к самообучению. Он должен не просто распознавать, но и понимать, анализировать эмоции человека. И лишь после этого он может научиться на эмоции отвечать эмоциями.

Эмоции помогли бы роботу более оперативно принимать какие-то решения. Без них же роботы остаются грудой металла, чипов и всевозможных алгоритмов. В реальности они оказываются нежизнеспособными.

Первые шаги по внедрению в искусственный интеллект эмоций человека уже начались. Исследователи из канадского университета Альберты удалось создать программу «Цефей». Она играла в течение месяца в покер, накапливая опыт. Робот достиг такого уровня, что перестал проигрывать вообще. Но главное, он показал жизнеспособность самообучающихся программ. Следующим шагом должно стать наделение подобных алгоритмов возможностью эмоционального реагирования и быстрого принятия решений на основе предыдущего опыта.

Читайте также:  Почему люди чувствуют сердцем

Шире распространены разработки, связанные с распознанием эмоционального состояния человека по лицу. Одним из первопроходцев была компания Mircrosoft. Она представила программу Project Oxford. Заложенный в программе искусственный интеллект мог по фотографии определить эмоциональное состояние человека. Делал он это на основе анализа микроэкспрессий лица.

Корпорация Apple двинулась дальше. Она приобрела стартап Emotient. Проект разработал робота, умеющего распознавать человеческие эмоции в реальном времени. Робот разлагает эмоциональное состояние человека на паттерны – «мимические шаблоны». На основе них программа определяет эмоциональное состояние человека.

В России подобные исследования тоже есть. К примеру, ученые из МИФИ создали умную нейросеть. Робот принимал участие в компьютерной игре, наравне с другими игроками. Никто из людей, игравших вместе с роботом, не смог отличить его от живых игроков.

Почти как «Терминатор»

Вопрос о том, можно ли после распознавания эмоций научить робота их ощущать, остается открыт. И ответа на него пока нет.

Эксперт в области высоких технологий Сергей Корогод заявил в комментарии порталу «Умная страна», что функция распознания эмоций у человека, которой наделяют искусственный интеллект, необходима для маркетинговых исследований.

«Искусственный интеллект научился понимать, как человек реагирует на ту или иную ситуацию. Это необходимо, чтобы учитывать предпочтения покупателей и продавать ему товары. Такие разработки будут финансироваться до тех пор, пока их можно использовать в политике и маркетинге, пока благодаря им можно контролировать пользователей», — сказал эксперт.

Он добавил, что сомневается, что роботы в будущем сами начнут испытывать эмоции. «Им, впрочем, это и не к чему, у них другие функции», — заключил Сергей Корогод.

Генеральный директор агентства по анализу данных Data Monsters Артемий Малков отметил, что если рассматривать эмоции как химическую реакцию или реакцию гормональную, реакцию организма на определенные вещества, то симулировать их вполне можно.

«Сегодня разработчики пытаются создавать не просто умных, но еще и социальных роботов. К примеру, мы работали в Бостоне с одним из проектов – «Джиба». Это был настольный робот, который умел не только разговаривать, но и крутиться. Он был похож на лампочку пиксара. Когда ему грустно, у него наклонялась голова, когда робот был радостный, он ерзал. Понятно, что искусственный интеллект сам не испытывал эмоций, а работал как алгоритм. Однако эмоциональная составляющая у роботов будет только усиливаться. Сегодня много разработок, связанных с распознаванием эмоций – их много в медицине, рекламе, клиентском обслуживании», — сказал эксперт.

Он добавил, что роботы могут управлять эмоциями людей уже сегодня.

«Роботы захватили мир. К примеру, «Facebook» является роботом, влияющим на жизнь людей. Из-за социальных сетей происходят революции и самоубийства. Небольшое изменение алгоритма может вызвать войну. Раньше думали, что в будущем как в фильме «Терминатор» роботы будут убивать людей. Но на самом деле, роботам достаточно просто научиться управлять человечеством», — заключил Артемий Малков.

Автор: Александр Столяров

Если Вам понравился наш материал, поставьте лайк внизу экрана! Мы будем писать больше актуальных статей, новостей и экспертных интервью.

Страница этого материала есть на нашем сайте « Умная страна », где вы найдёте больше статей на данную тему. В «Яндекс.Дзене» мы публикуем только самые интересные материалы. Подпишитесь на наш канал, чтобы читать их регулярно и не пропустить лучшее. Быть на связи с «Умной Страной» можно в Facebook , Instаgram и ВКонтакте .

Источник

Оцените статью