Искусственный интеллект и связанные с ним глобальные проблемы
Проблемы цивилизации
27.09.2019 13:59

Искусственный интеллект при неверном подходе может представлять целый ряд угроз для человечества

Системы «умных» машин изменяют нашу жизнь к лучшему: они оптимизируют логистику, обнаруживают подделки, создают предметы искусства, проводят исследования, обеспечивают письменный перевод текстов.

Поскольку эти системы обретают всё больший потенциал, наш мир становится более эффективным, а, следовательно, и более богатым.

Технологические гиганты, такие как Google, Alphabet, Amazon, Facebook, IBM и Microsoft, а также отдельные личности, например, американский инженер-миллиардер Илон Маск, считают, что настало время для дискуссии о почти безграничном поле искусственного интеллекта.

Искусственный разум ‒ это во многих отношениях совершенно новый уровень технологий, и его внедрение сопряжено с необходимостью оценки этической стороны, а также возможных рисков.

Так какие же глобальные проблемы не дают покоя экспертам в области искусственного интеллекта?

Безработица: что произойдёт, когда исчезнут рабочие места?

Иерархия труда связана главным образом с автоматизацией. Мы изобрели способы автоматизации работ и тем самым смогли создать для людей возможность выполнения более сложных функций, перенеся акцент с физического труда, преобладавшего в доиндустриальном мире, на умственный, который характеризует стратегическую и административную работу в нашем глобализированном обществе.

Рассмотрим, например, автомобильные грузоперевозки: в настоящее время в этой сфере только в США заняты миллионы людей. Что же произойдёт с ними, если в следующем десятилетии широкое распространение получат беспилотные грузовые автомобили, обещанные Илоном Маском из компании Tesla? Однако, с другой стороны, если принять во внимание более низкий риск ДТП, беспилотные грузовики могут показаться вполне этичным выбором. Такой же сценарий может ожидать и офисных работников, а также большинство рабочих в развитых странах.

При этом возникает вопрос: как мы собираемся проводить своё время, лишившись работы? Пока же большинство людей полагается на возможность «продавать» своё время, получая достаточный доход для того, чтобы содержать себя и свои семьи.

Нам остаётся лишь надеяться, что новые реалии позволят людям найти смысл в нетрудовой деятельности, например, в заботе о семье, во взаимодействии с представителями общины и в изучении новых способов внесения своего вклада в развитие человеческого общества.

Если такой переход окажется успешным, то однажды мы сможем оглянуться назад и подумать о том, каким же варварством было заставлять людей «продавать» основную часть времени своего бодрствования лишь для того, чтобы выжить.

Неравенство: каким образом будет распределяться богатство, созданное машинами?

Наша экономическая система основана на компенсации вклада человека в экономику. А размер компенсации часто оценивается с использованием почасовой ставки оплаты труда. Большинство компаний до сих пор зависит от почасовой системы оплаты труда в сфере производства продукции и оказания услуг. Однако при применении искусственного интеллекта предприятие сможет резко сократить использование человеческой рабочей силы, а это означает, что доходы будут распределяться между меньшим числом сотрудников. Вследствие этого люди, владеющие компаниями, которые управляются искусственным интеллектом, будут получать все заработанные предприятием деньги.

Мы уже видим растущий разрыв в уровне благосостояния, когда основатели малых предприятий забирают себе значительную часть создаваемого компанией экономического излишка. Так, в 2014 году приблизительно одинаковыми доходами отметились по 3 крупнейшие фирмы в Детройте и в Силиконовой долине, правда, численность персонала в компаниях Силиконовой долины была в 10 раз меньше.

Так какой же должна быть справедливая структура экономики посттрудового общества?

Человеческие качества: как влияют машины на наше поведение и взаимодействие?

Системы искусственного интеллекта (боты) всё лучше и лучше моделируют человеческую речь и отношения между людьми. Так, в 2015 году бот по прозвищу Евгений Густман впервые успешно прошёл тест Тьюринга. В ходе этого теста участвовавшие в нём люди использовали текстовый ввод для беседы с неизвестной сущностью, а затем угадывали, с кем они переговаривались ‒ с человеком или с машиной. Евгений Густман ввёл в заблуждение больше половины участников теста, заставив их подумать, что они беседуют с человеком.

Эта веха знаменует собой лишь самое начало эпохи, когда мы будем часто взаимодействовать с машинами, как с людьми, например, при заказе товара или в магазине. В то время как человек ограничен в плане внимательности и вежливости по отношению к другим людям, боты, наделённые искусственным интеллектом, способны направлять практически неограниченные ресурсы на завязывание и поддержание отношений.

Уже сейчас мы являемся свидетелями того, что машины способны активировать так называемые «центры удовольствия» в мозгу человека. Возьмите хотя бы всякого рода заголовки-приманки на веб-сайтах или видео-игры. Эти заголовки часто оптимизируются методом A/B-тестирования, зачаточной формы алгоритмической оптимизации содержания веб-страницы с целью привлечения нашего внимания. Этот и другие методы используются при создании многочисленных видео-игр для того, чтобы вызывать у человека привыкание. Технологические пристрастия ‒ это новая форма человеческой зависимости.

Как же решить эту проблему? С одной стороны, мы можем подумать о том, чтобы по-другому использовать программное обеспечение, которое уже эффективно управляет человеческим вниманием и активирует определённые действия. При правильном использовании оно позволило бы подтолкнуть общество к более разумному поведению. Однако, с другой стороны, попав не в те руки, оно может оказаться вредоносным.

Искусственное «отупление»: как уберечь себя от ошибок?

Ум и человека, и машины формируется в процессе обучения. Системы искусственного интеллекта обычно проходят стадию обучения (программирования), в ходе которой они «учатся» обнаруживать верные шаблоны и действовать в соответствии с введённой в их память информацией. После полного обучения системы начинается стадия её испытания, в течение которой ей предлагается большее количество примеров и при этом оценивается качество распознавания.

Очевидно, что стадия обучения системы искусственного интеллекта не может охватить все возможные примеры, с которыми она может столкнуться в реальном мире. Эти системы можно обмануть с помощью уловок, на которые вряд ли бы клюнул человек. К примеру, нерегулярные точечные структуры могут заставить машину «видеть» вещи, которых на самом деле не существует.

Если мы полагаемся на искусственный интеллект, который должен перенести нас в новый мир труда, безопасности и эффективности, то нам необходимо, чтобы машина гарантированно действовала в соответствии с заданной программой, которую бы никто не мог изменить в своих личных целях.

«Расизм» роботов: как исключить предвзятость искусственного интеллекта?

Хотя искусственный интеллект намного превосходит человеческий по скорости обработки и объёму обрабатываемой информации, полагаться на его честность и беспристрастность можно не всегда. Так, Google и его материнская компания Alphabet являются одними из лидеров в сфере применения искусственного интеллекта. Наглядным примером является сервис Фотографии от Google, в котором искусственный интеллект используется для идентификации людей, объектов и сцен. Однако в работе подобной системы возможны отклонения, например, фотокамера может пропустить метку расовой чувствительности, или программа, используемая для определения будущих преступников, может проявить предвзятость по отношению к темнокожим.

Мы не должны забывать о том, что системы искусственного интеллекта создаются людьми, которые могут быть предвзятыми и субъективными. И опять же, в случае правильного применения или использования людьми, которые стремятся к социальному прогрессу, искусственный разум может стать катализатором изменений к лучшему.

Безопасность: как сохранить искусственный интеллект в безопасности от противника?

Чем мощнее технология, тем больше возможностей для её использования как с добрыми, так и со злыми намерениями. Это относится не только к роботам, создаваемым на замену солдатам (людям), или к автономным системам вооружения, но и к системам искусственного интеллекта, способным нанести ущерб в случае их использования со злыми намерениями.

Поскольку бои будущего будут происходить не только на полях сражений, ещё большую важность приобретёт информационная безопасность. Ведь мы будем иметь дело с системой, на порядок превосходящей нас по быстродействию и возможностям.

Злые гении: как защититься от ненамеренных последствий?

Нас должна беспокоить угроза не только со стороны противника. Что, если искусственный интеллект сам повернётся против нас? Не из злых побуждений, как могло бы быть в случае с человеком, и не так, как описывается в голливудских фильмах-катастрофах с участием злого искусственного разума, а подобно «джинну в бутылке», способному выполнять желания, но с ужасными, непредсказуемыми последствиями.

В случае с искусственным интеллектом причиной негативных последствий вряд ли может быть злой умысел с его стороны, они могут быть обусловлены лишь непониманием машиной полного контекста введённого желания (поставленной задачи). К примеру, можно представить себе интеллектуальную систему, которую попросили искоренить рак во всём мире, и после выполнения массы расчётов она вывела формулу, действительно обеспечившую искоренение этого ужасного заболевания, правда, путём убийства всех людей на планете. То есть в данном случае компьютер достиг бы заданной цели (искоренение рака) с высокой эффективностью, но не так, как планировали люди.

Сингулярность: как сохранить контроль над сложной системой искусственного интеллекта?

Тот факт, что люди находятся на самом верху пищевой цепи, объясняется не острыми зубами и не сильными мышцами. Доминирование человека почти полностью обусловлено его изобретательностью и умом. Мы имеем превосходство над более крупными, быстрыми и сильными животными, потому что способны создавать и использовать для управления ими соответствующие инструменты, как физические, например, клетки и различное оружие, так и когнитивные, например, дрессировку и выработку условных рефлексов.

В связи с этим возникает серьёзный вопрос, касающийся искусственного интеллекта: а не появится ли и у него когда-нибудь такое же превосходство над нами?

Мы не можем полагаться на то, что можно просто «выдернуть вилку из розетки», так как достаточно совершенная машина будет в состоянии предвидеть это наше действие и сможет защититься от него (такую ситуацию иногда называют сингулярностью, то есть точкой во времени, когда люди перестанут быть самыми умными существами на Земле).

Вывод

Искусственный интеллект имеет огромный потенциал, и наша задача ‒ реализовать его с максимальной осторожностью и ответственностью.

 
Что вы думаете о научно-техническом прогрессе?
 
Городские телефоны Липецк в справочнике города 48.