Ксения Сидоркина

Сборник саммари «ИИ-эра. Все, что вам нужно знать об искусственном интеллекте»


Скачать книгу

ений для всего – от инвестирования до поиска выгодных предложений в супермаркетах.

      В течение нескольких недель их телефоны постоянно присылали уведомления. Приложения напоминали пить воду, советовали дедушке водить машину медленнее, а отца так настойчиво отговаривали от курения, что он в конце концов бросил. Каждое принятое ими «правильное» решение снижало страховые взносы. Казалось, что это выгодная сделка для всех. Но когда Наяна влюбилась в мужчину из менее обеспеченного района, страховые взносы семьи резко выросли. Искусственный интеллект определил, что у него более низкий социально-экономический статус, и истолковал это как потенциальный риск для семьи.

      ИИ действительно может помочь оптимизировать жизнь, но в то же время способен превратить личные данные в инструмент контроля. История Наяны – тревожный пример того, как искусственный интеллект может воспроизводить существующую в обществе дискриминацию. Одним из важнейших достижений ИИ за последнее десятилетие стало глубинное обучение. Оно позволяет компьютерам прогнозировать, классифицировать данные и выявлять закономерности. Глубинное обучение используется, например, некоторым соцсетям для персонализированных рекомендаций и увеличения времени, которое пользователи проводят в сети. Анализируя каждый клик и сопоставляя данные с миллионами других пользователей, алгоритмы предсказывают, что именно может заинтересовать человека.

      Глубинное обучение обладает огромным потенциалом. ИИ может обрабатывать миллионы данных и находить связи, которые недоступны человеческому восприятию. Однако у него нет интуиции, опыта и здравого смысла. Он не понимает контекста так, как это делает человек. Искусственный интеллект уязвим к предвзятости и дискриминации. В истории Наяны алгоритм не знал, что ее возлюбленный принадлежит к другой касте, а этот брак может считаться социально неприемлемым. Но, проанализировав данные о его семье и районе проживания, он интерпретировал ситуацию как потенциальную угрозу благополучию семьи Наяны.

      В ближайшие годы глубинное обучение будет развиваться еще стремительнее. Вопрос о том, как сделать ИИ полезным для общества, станет одной из ключевых задач ближайшего будущего.

      Глава 2.

      Амака был напуган. Сомнительная компания под названием Layella предложила ему, как опытному программисту, создать для них поддельное видео. Ему нужно было смонтировать ролик, в котором известный нигерийский политик признается в скандальном поступке. Если бы Амака отказался, компания пригрозила опубликовать фальшивое видео, на котором он целуется с другим мужчиной в ночном клубе.

      Это грозило не только общественным осуждением, но и тюремным заключением. К 2041 году подделки станут настолько правдоподобными, что отличить их от реальности будет практически невозможно. В 2018 году в сети стало вирусным видео, где бывший президент США Барак Обама называл Дональда Трампа «полным идиотом» . Однако это видео было фальшивкой.

      Это был дипфейк, созданный BuzzFeed, чтобы продемонстрировать возможности технологий ИИ и предостеречь общество от безоговорочного доверия к цифровым медиа. Чтобы разработать технологию создания дипфейков, программисты сначала научили компьютеры анализировать изображения и придавать им смысл. Они вдохновлялись принципами работы человеческого мозга: зрительная кора собирает визуальную информацию, а затем неокортекс интерпретирует ее, создавая сложные образы. По аналогии разработчики создали сверточную нейронную сеть (CNN).

      Для генерации дипфейков используется особая технология – генеративно-состязательная сеть (GAN), которая объединяет две CNN. Одна из них – генератор – анализирует миллионы пикселей на изображениях и выделяет уникальные особенности каждого лица. После обучения на наборе данных, например с изображениями собак, генератор может синтезировать реалистичную, но полностью искусственную картинку собаки. Это изображение передается второй CNN в системе – дискриминатору, который сравнивает фальшивку с реальными изображениями и сообщает генератору об ошибках. Генератор корректирует картинку и снова отправляет ее на проверку. Этот процесс повторяется миллионы раз, пока подделку невозможно будет отличить от оригинала.

      Такая технология используется не только для создания фальшивых изображений, но и для генерации правдоподобных видеороликов. В эпоху цифровых технологий границы между реальностью и фальсификацией становятся все более размытыми, и это ставит перед обществом серьезные вызовы.

      Конечно, это может иметь опасные последствия. История Амаки показывает, что фальшивки могут использоваться как политическое оружие для дискредитации кандидатов или распространения пропаганды. Они также могут применяться для запугивания и шантажа. В 2019 году индустрию порно наводнили подделки с лицами знаменитостей. В ответ программисты разработали алгоритмы для выявления аномалий, невидимых человеческому глазу. Однако фальшивки эволюционируют столь же быстро.

      Глава 3.

      Родители Золотого Воробья погибли в автокатастрофе, когда он был еще ребенком, и его отправили в сиротский приют. Опекуны подарили ему необычного друга – виртуального компаньона, которого он