человеческий интеллект. Вопрос, который требует пристального внимания, – можем ли мы спроектировать ИИ таким образом, чтобы он не стал угрозой для человечества?
История цивилизационного прогресса – это в значительной степени история контроля над силами природы, от огня до атомной энергии. Однако ИИ – это нечто совершенно новое. Он не просто инструмент, который можно использовать по своему усмотрению, как плуг или паровой двигатель. Это технология, которая потенциально может обладать собственной волей, не зависящей от нас. ИИ может эволюционировать до такой степени, что его цели могут разойтись с человеческими. Поэтому уже на ранних стадиях его разработки мы обязаны осознать все риски и рассмотреть возможные пути контроля над таким существом.
Контроль технологий: наше временное преимущество
На данный момент человечество контролирует развитие ИИ, что даёт нам определённое преимущество. Мы разрабатываем алгоритмы, управляем обучением машин, создаём инфраструктуру для их функционирования. Но это преимущество иллюзорно и временно. Сложность современных моделей ИИ растёт с каждым годом, и рано или поздно мы можем столкнуться с ситуацией, когда управление ими выйдет за пределы нашего понимания. Уже сейчас глубокие нейронные сети способны принимать решения, чьи алгоритмы не полностью прозрачны даже для их создателей.
Например, ИИ, используемый в медицинских исследованиях, может находить корреляции между данными, которые не очевидны для человека. Это полезно, но также потенциально опасно: что, если машина сделает выводы, основанные на ложных допущениях? В отсутствие человеческого контроля такие ошибки могут привести к катастрофическим последствиям. Тем не менее мы пока можем управлять ИИ, указывать ему цели и задачи. Этот "первый шаг" в разработке ИИ – наше преимущество, которое мы должны использовать, чтобы создать надёжные системы защиты и предотвращения ошибок.
Опасности непредсказуемости: можем ли мы доверить ИИ?
Для многих инженеров и учёных основным вопросом остаётся: можно ли спроектировать ИИ, который будет всегда работать в интересах человечества? И как обеспечить его безопасность?
Одной из проблем, с которой сталкиваются разработчики, является так называемая проблема "выравнивания" (alignment problem). Выравнивание подразумевает создание ИИ, чьи цели совпадают с целями человека. Например, если ИИ создан для улучшения медицинского обслуживания, его действия должны соответствовать задаче спасения жизней. Но как убедиться, что машина не примет решения, которые, казалось бы, служат этой цели, но на самом деле вредны?
В случае суперинтеллекта проблема усложняется. Суперинтеллект может обладать гораздо более широким спектром возможностей, чем человек. Возможно, он будет принимать решения, которые, с его точки зрения, оптимальны, но которые нам кажутся разрушительными. Например, если ИИ, нацеленный на улучшение окружающей среды, решит, что лучший способ сократить выбросы углекислого