Фото: Matthew Wibe. Столкнувшись с автоматизированным будущим, какими моральными принципами мы должны руководствоваться?
Фото: Matthew Wibe. Столкнувшись с автоматизированным будущим, какими моральными принципами мы должны руководствоваться?
Опубликовано: 03.01.2020 Обновлено: 01.02.2020

Топ-9 этических вопросов об искусственном интеллекте

  • 1252

Оптимизация логистики, выявление мошенничества, разработка художественных произведений, проведение научных исследований, перевод текстов: интеллектуальные машинные системы меняют нашу жизнь к лучшему. По мере того, как эти системы становятся более эффективными, наш мир тоже становится более эффективным и, следовательно, более богатым.

Технологические гиганты, такие как Alphabet, Amazon, Facebook, IBM и Microsoft считают, что сейчас самое подходящее время, чтобы говорить о почти безграничном ландшафте присутствия искусственного интеллекта. Во многих отношениях это такой же новый рубеж для этики и оценки рисков, как и вообще для новых технологий. Итак, какие вопросы и разговоры заставляют экспертов по ИИ бодрствовать по ночам?

Безработица. Что делать дальше, когда будут выполнены все задания?

Иерархия труда связана в первую очередь с автоматизацией. Поскольку изобретены способы автоматизации рабочих мест, можно приступить к созданию нового пространства для людей, чтобы начать выполнять более сложные задачи, перейдя от физического труда, который доминировал в доиндустриальном мире, к когнитивному труду, который характеризует стратегическую и административную работу в обществе.

Если посмотреть на грузоперевозки, то в настоящее время в этой отрасли заняты миллионы людей только в Соединенных Штатах. Что произойдет с ними, если самоходные грузовики станут широкодоступными в следующем десятилетии? Но, с другой стороны, если рассмотреть снижение риска несчастных случаев, самоходные грузовики кажутся этическим выбором. То же самое может произойти и с офисными работниками, и вообще с большей частью трудящихся сейчас в развитых странах.

Именно здесь встает вопрос о том, как люди в дальнейшем собираются проводить свое время. Большинство из них все еще полагается на продажу своего времени, чтобы иметь достаточный доход для себя и своих семей. Можно только надеяться, что появление свободного времени позволит людям найти смысл в таких видах деятельности, как забота о своих семьях, взаимодействие с обществом и изучение новых способов внесения вклада в развитие человеческой цивилизации.

Неравенство. Как распределять богатство, созданное машинами?

Существующая экономическая система основана на компенсации за вклад в экономику, который часто оценивается использованием почасовой оплаты труда. Большинство компаний по-прежнему зависят от почасовой работы, когда речь заходит о продуктах и услугах. Но с помощью искусственного интеллекта компания может резко сократить зависимость от человеческой рабочей силы, а это означает, что доходы будут идти меньшему числу людей. Следовательно, люди, которые имеют собственность в управляемых ИИ компаниях, будут зарабатывать все деньги.

Уже сейчас наблюдается растущий разрыв в богатстве, когда основатели стартапов забирают большую часть создаваемой добавленной стоимости. Если действительно представить себе пост-трудовое общество, как в этом случае структурировать справедливую пост-трудовую экономику?

Человечество. Как машины влияют на наше поведение и взаимодействие?

Боты с искусственным интеллектом становятся все лучше и уже могут моделировать человеческие разговоры и отношения. В 2015 году бот по имени Юджин Густман впервые ответил на вызов Тьюринга. В этом испытании люди-оценщики использовали ввод текста для общения с неизвестной сущностью, а затем догадывались, с кем они разговаривали, с человеком или машиной. Юджин Гудман одурачил больше половины людей, считавших, что они разговаривают с человеческим существом.

Эта веха - только начало эпохи, когда люди станут чаще взаимодействовать с машинами, как если бы последние были людьми, будь то обслуживание клиентов или продажи. В то время как люди всё меньше дарят друг другу внимание и доброту, искусственные боты могут направлять практически неограниченные ресурсы на построение отношений.

Хотя не многие знают об этом, современные люди уже становятся свидетелями того, как машины могут активировать центры удовольствия в человеческом мозге. Просто посмотрите на заголовки видеоигр или рекламы. Они часто оптимизируются с помощью A/B-тестирования, рудиментарной формы алгоритмической оптимизации контента, чтобы привлечь наше внимание. Этот и другие методы используются, чтобы сделать многочисленные видео и мобильные игры захватывающими. Техническая зависимость - это новый рубеж человеческой зависимости.

С другой стороны, возможно удастся придумать другое применение для программного обеспечения, которое уже стало эффективным для удержания человеческого внимания и запуска определенных действий. При правильном использовании это может превратиться в возможность подтолкнуть общество к более выгодному поведению. Однако в плохих руках это может оказаться губительным.

Искусственная глупость. Как же нам уберечься от ошибок?

Интеллект приходит от обучения, будь то человек или машина. Системы обычно проходят фазу обучения, на которой они "учатся" обнаруживать правильные решения и действовать в соответствии с их входными данными. После того, как система полностью обучена, она может перейти в фазу тестирования с большим количеством примеров, и машина эти тесты проходит.

Очевидно, что этап обучения не может охватить все возможные примеры, с которыми система может встретиться в реальном мире. Эти системы можно обмануть в тех случаях, в которых люди обмануты быть не могут. Например, случайные алгоритмы могут привести машину к "видению" вещей, которых в реальности нет.

Если полагаться на ИИ, чтобы прийти в новый мир труда, безопасности и эффективности, необходимо гарантировать то, что машина будет работать так, как планировалось, и что другие люди не смогут использовать ее для своих целей.

Предвзятые роботы. Как можно исключить переоценку ценностей ИИ?

Несмотря на то, что искусственный интеллект имеет способность быстрой обработки данных, которая намного превосходят человеческие, ему не всегда можно доверять в оценке справедливости и сохранении нейтралитета.

Google и ее материнская компания Alphabet являются одними из лидеров, когда речь заходит об искусственном интеллекте, как видно из сервиса фотографий Google, где ИИ используется для идентификации людей, объектов и сцен. Но вдруг что-то может пойти не так, например, когда программное обеспечение, используемое для анализа возможных преступников, покажет предвзятое отношение к определенному типу людей.

Нельзя забывать, что системы искусственного интеллекта создаются людьми, которые могут быть предвзятыми и субъективными. И снова, если правильно использовать искусственный интеллект или использовать его теми, кто стремится к социальному прогрессу, он может стать катализатором позитивных изменений.

Безопасность. Как уберечь ИИ от врагов?

Чем более мощной становится технология, тем может быть сильней негативный эффект от недобросовестного использования. Это относится не только к роботам, произведенным для замены людей-солдат или автономного оружия, но и к системам искусственного интеллекта, которые могут нанести ущерб, если их использовать злонамеренно. Поскольку бои будут вестись не только на поле боя, кибербезопасность станет еще более важной. В конце концов, мы имеем дело с системой, которая на порядок быстрее и мощнее нас самих.

Злые джинны. Как защитить себя от непредвиденных последствий?

Необходимо беспокоиться не только о противниках. Что, если искусственный интеллект сам обратится против людей? Это не означает увеличение человеческой мощи, или, как изображаются катастрофы с ИИ в голливудских фильмах. Скорее можно представить продвинутую систему искусственного интеллекта как "джинна в бутылке", который может выполнять желания, но с ужасными непредвиденными последствиями.

В случае с машиной вряд ли будет иметь место злой умысел, только отсутствие понимания полного контекста, в котором было сделано желание. Представьте себе систему искусственного интеллекта, которая призвана искоренить рак в мире. После долгих вычислений он выплевывает формулу, которая на самом деле приводит к концу рака, убивая всех на планете. Компьютер достиг бы своей цели "больше не будет рака" очень эффективно, но не так, как предполагали люди.

Особенность. Как же сохранить контроль над сложной интеллектуальной системой?

Причина, по которой люди находятся на вершине пищевой цепи, не сводится к острым зубам или сильным мышцам. Человеческое превосходство почти полностью зависит от нашей изобретательности и интеллекта. Человек может взять верх над более крупными, быстрыми и сильными животными, потому что может создавать и использовать инструменты для их контроля: как физические инструменты, такие как клетки и оружие, так и когнитивные инструменты, такие как обучение и моделирование ситуаций.

Это ставит серьезный вопрос об искусственном интеллекте: будет ли он, когда-нибудь, иметь такое же преимущество перед нами? Мы также не можем полагаться на простое "нажатие на кнопку", потому что достаточно продвинутая машина может предвидеть это движение и защитить себя. Это то, что некоторые называют "сингулярностью": точка во времени, когда люди больше не будут являться самыми разумными существами на земле.

Права робота. Как определить гуманность в обращении с ИИ?

В то время как нейробиологи все еще работают над раскрытием секретов сознательного опыта, становятся больше понятны основные механизмы удовольствия и отвращения. Эти механизмы делают человека похожим на простых животных. В некотором смысле, аналогичные механизмы удовольствия и отвращения применяются в создании систем искусственного интеллекта. Например, обучение с подкреплением похоже на дрессировку собаки: улучшенная производительность подкрепляется виртуальной наградой.

Сейчас эти системы довольно поверхностны, но они становятся все более сложными и похожими на жизнь. Можно ли считать систему страдающей, когда удовольствие приносит ей отрицательный результат? Более того, так называемые генетические алгоритмы работают, создавая сразу много экземпляров системы, из которых только самые успешные "выживают" и объединяются, чтобы сформировать следующее поколение экземпляров. Это происходит на протяжении многих поколений и является способом совершенствования системы. Неудачные экземпляры удаляются.

Как только машины начнут рассматриваться как сущности, которые могут воспринимать, чувствовать и действовать, это заставит обдумать их правовой статус. Следует ли обращаться с ними как с животными, обладающими сравнимым интеллектом? Будут ли учитываться страдания "чувствующих" машин?

Некоторые этические вопросы касаются смягчения страданий, а некоторые - риска негативных последствий. Рассматривая все эти риски, мы должны иметь в виду, что в целом этот технологический прогресс нацелен на лучшую жизнь для всех. Искусственный интеллект обладает огромным потенциалом, и его ответственное внедрение зависит только от нас.

 

Источник: Julia Bossmann. Top 9 ethical issues in artificial intelligence

Предыдущая статья

Какой должна быть идеальная температура воздуха в офисе

Статьи на тему: Производительность труда

Статьи на похожую тему:

К началу