Как при росте возможностей ИИ снизить его ресурсопотребление

РБКHi-Tech

Быстрее, мощнее, эффективнее

Как при росте возможностей ИИ снизить его ресурсопотребление

Автор: Анастасия Михалева. Иллюстрации: Мария Нестерова

Технологии искусственного интеллекта потребляют много ресурсов: электричество, воду, требуют дорогого оборудования. «РБК Тренды» изучили, как компании оптимизируют свои модели и как они внедряют энергоэффективные технологии и альтернативные источники энергии.

Сколько ресурсов тратит ИИ

Современные системы искусственного интеллекта требуют колоссальных вычислительных мощностей. Обучение и работа нейросетей сопровождаются значительным потреблением электроэнергии, использованием больших объемов данных и эксплуатацией мощного аппаратного обеспечения. Чем сложнее модель, тем выше ее ресурсозатраты, что становится ключевым вызовом для развития ИИ.

Электричество и CO2

Одним из самых ярких примеров ресурсоемкости ИИ является нейросеть GPT-4, разработанная компанией OpenAI. По разным оценкам, обучение GPT-3 потребовало около 1287 МВт·ч электроэнергии, что эквивалентно годовому потреблению 120 американских домов. Также известно, что ChatGPT в настоящее время может потреблять около 39,98 млн кВт·ч в день — нейросетью пользуются 400 млн активных юзеров еженедельно.

Исследование Университета Массачусетса показало, что создание одной модели нейросети может привести к выбросу более 280 тыс. кг CO2 — эквиваленту пятилетнего цикла эксплуатации автомобиля с двигателем внутреннего сгорания. Такие показатели вызывают обеспокоенность у экологов и подталкивают компании к поиску энергоэффективных решений.

Оборудование

Кроме электроэнергии, ИИ требует эксплуатации дорогостоящего оборудования: графических процессоров (GPU), тензорных процессоров (TPU) и серверных ферм — по оценкам Schneider Electric, в 2023 году 80% нагрузки ИИ-моделей в дата-центрах пришлось на генерацию результата, а 20% — на обучение.

Современные серверы, работающие с ИИ, генерируют большое количество тепла, и их охлаждение становится еще одной статьей расходов. Например, крупнейшие дата-центры, которые принадлежат Google или Microsoft, используют системы жидкостного охлаждения, чтобы снизить температуру процессоров и увеличить их производительность. Однако даже такие меры не устраняют проблему быстрого износа оборудования: современные GPU, работающие на полную мощность, могут терять производительность через 3–5 лет эксплуатации.

Вода

Менее очевидный, но значимый фактор, — это потребление воды. В 2023 году выяснилось, что центры обработки данных OpenAI потребляют миллионы литров воды ежегодно для охлаждения своих серверов. Исследования показывают, что на одно крупное обращение к ChatGPT может расходоваться до 500 мл воды в зависимости от климатических условий и типа системы охлаждения.

В условиях глобального изменения климата и дефицита водных ресурсов такие показатели не могут не вызывать вопросов о разумном использовании воды в технологической отрасли.

С ростом популярности ИИ-сервисов, таких как генеративные модели, автономные системы и продвинутые аналитические алгоритмы, потребление ресурсов будет только увеличиваться. Компании уже начали разрабатывать энергоэффективные чипы, использовать возобновляемые источники энергии и внедрять квантовые вычисления, но эти меры пока не решают проблему в полной мере.

В ближайшем будущем перед ИИ-индустрией встанет ключевой вызов: как сбалансировать развитие технологий и сохранение окружающей среды. Очевидно, что без комплексного подхода, включающего в себя оптимизацию моделей, развитие «зеленых» дата-центров и внедрение более экономичных алгоритмов, проблема чрезмерного ресурсопотребления искусственным интеллектом останется актуальной.

Как уменьшить расход ресурсов

Один из наиболее эффективных способов снижения потребления ресурсов ИИ — это оптимизация алгоритмов и моделей. Современные нейросети часто бывают избыточно сложными, что приводит к ненужным вычислительным затратам. Компании и исследователи работают над методами уменьшения размеров моделей без потери качества.

Наиболее известный исследовательский центр, занимающийся этой проблемой, — Суперкомпьютерный центр MIT Lincoln Laboratory (LLSC). В нем ученые разрабатывает методы, которые помогут центрам обработки данных сократить потребление энергии. Что особенно важно, исследователи обнаружили, что эти методы оказывают минимальное влияние на производительность модели.

Оптимизация алгоритмов и моделей

При разработке нейросетей важно не только добиться высокой точности, но и оптимизировать вычисления, особенно если модель должна работать на ограниченных ресурсах. Для этого используются различные методы.

Квантование

Квантование помогает уменьшить энергозатраты в вычислениях, снижая точность чисел, используемых для расчетов. Например, вместо 32-битных чисел, которые могут представлять диапазон от −2 млрд до 2 млрд, можно использовать 8-битные числа с диапазоном от 0 до 255. Это снижает потребление энергии и ускоряет процесс, поскольку для обработки меньших по объему данных нужно меньше ресурсов. В задачах, таких как распознавание изображений или текста, точность 32 бит избыточна, и переход на 8 бит существенно ускоряет работу модели.

Бинаризация весов

Бинаризация весов (Binary Neural Networks) ограничивает параметры модели всего двумя возможными значениями: вместо множества значений (например, от −1 до 1) они ограничиваются всего двумя: 0 и 1.

Это снижает потребление ресурсов, ускоряет обучение модели и уменьшает объем памяти, необходимый для хранения данных.

Прунинг

Прунинг (Pruning) исключает ненужные нейроны и связи в нейросети, сохраняя ее точность. Во время обучения модели могут появляться нейроны, которые не влияют на результат, и их можно удалить без потери качества. Например, в модели для распознавания изображений можно удалить нейроны, отвечающие за неважные детали, такие как фон, и тем самым сэкономить вычислительные ресурсы. Динамический прунинг позволяет модели оптимизироваться в процессе работы, исключая несущественные связи в зависимости от сложности текущей задачи, что снижает энергопотребление.

Эффективные архитектуры и адаптивные алгоритмы

Mixture of Experts (MoE) — это архитектура, в которой активируются только нужные части модели. Например, для перевода текста на английский язык используется только та часть нейросети, которая работает с этим языком, а остальные остаются неактивными. Это позволяет экономить ресурсы. Аналогичные технологии, такие как Sparse Transformers и Switch Transformers, активируют только те параметры, которые необходимы в момент выполнения задачи, что повышает эффективность работы модели.

Адаптивные алгоритмы могут динамически изменять свою сложность в зависимости от задачи, например используя модели с ранним выходом (early exit). Они заканчивают вычисления, если уверенность в предсказании достаточно высокая: это нейросеть вычисляет на основе своих внутренних параметров, обученных на примерах.

Новый подход к оборудованию и энергии

Второй важный способ — применение специализированного оборудования. Традиционные серверные процессоры (CPU) неэффективны для обработки ИИ-задач, поэтому используются графические процессоры (GPU) и тензорные процессоры (TPU).

CPU, GPU и TPU имеют различную архитектуру, соответствующую их назначению. CPU как универсальный процессор имеет несколько ядер для выполнения различных задач, в то время как GPU обладает большим количеством ядер, оптимизированных для параллельных вычислений, что делает его идеальным для обработки графики и ИИ-вычислений. TPU, в свою очередь, специализирован на выполнении операций с матрицами и векторными вычислениями, что делает его значительно более эффективным для задач ИИ по сравнению с CPU и GPU, особенно в обработке больших объемов данных и тренировки нейросетей.

Google создала TPU для удовлетворения растущего спроса на эффективную вычислительную мощность в службах ИИ, таких как поиск, YouTube и большие языковые модели DeepMind. Trillium, новейший TPU, обеспечивает пиковую вычислительную производительность в 4,7 раза выше на чип по сравнению с его предшественником и на 67% более энергоэффективен, что делает его мощным и устойчивым решением для рабочих нагрузок ИИ.

Помимо аппаратных решений, важную роль играет использование альтернативных источников энергии. Как уже говорилось, дата-центры, которые обрабатывают и хранят огромные объемы информации для ИИ-моделей, потребляют колоссальное количество электроэнергии. Ведущие технологические компании — Google, Microsoft, IBM — все чаще обращаются к возобновляемым источникам энергии, таким как солнечные и ветряные электростанции, для питания своих серверных мощностей. Бигтехи даже создают стратегии по строительству ЦОДов, работающих на альтернативной энергии.

Особый интерес вызывает использование атомной энергии для поддержки инфраструктуры ИИ. Microsoft, Google и Amazon уже рассматривают возможности интеграции небольших модульных ядерных реакторов (SMR) для обеспечения стабильного и чистого энергоснабжения дата-центров. SMR способны выдавать до 300 МВт(э), что делает их удобным решением для таких объектов. Для сравнения: мощность традиционных крупных ядерных реакторов превышает 700 МВт(э), а микроядерные реакторы могут обеспечивать до 10 МВт(э), что позволяет использовать их в удаленных районах и компактных инфраструктурных проектах.

Ядерная энергия позволяет обеспечить высокую производительность при минимальном углеродном следе: по данным исследования, опубликованного в рамках Конференции ООН 2021 года, у атомных электростанций уровень выбросов CO2 даже ниже, чем у ветряных станций.

Какие способы появятся завтра

Будущее искусственного интеллекта тесно связано с поиском решений, позволяющих снизить его ресурсопотребление. В ближайшие годы можно ожидать появления новых технологий, которые сделают ИИ более энергоэффективным, экологичным и доступным.

Квантовые вычисления для ИИ

Квантовые компьютеры способны значительно ускорить обработку данных и выполнение сложных вычислений, что потенциально уменьшит энергозатраты при обучении и работе моделей. Технологии квантового машинного обучения находятся на ранней стадии, но уже сегодня компании вроде IBM, Google и D-Wave активно развивают этот сектор.

Например, в 2019 году Google объявила о достижении квантового превосходства, выполнив вычисления, которые традиционный суперкомпьютер не смог бы завершить за разумное время. Кроме того, IBM работает над квантовыми алгоритмами оптимизации, которые смогут применяться в задачах ИИ.

Помимо вычислительных преимуществ, квантовые технологии могут существенно повысить энергоэффективность. Некоторые исследования показывают, что в определенных случаях квантовые компьютеры могут быть в 100 раз более энергоэффективными, чем классические суперкомпьютеры.

Анализ энергопотребления 500 крупнейших суперкомпьютеров мира за последние 20 лет также подтверждает этот потенциал: квантовый компьютер с аналогичной вычислительной мощностью потреблял бы менее 0,05% электроэнергии по сравнению с самым энергоемким суперкомпьютером из списка.

Самообучающиеся и адаптивные модели

Будущие модели ИИ будут способны автоматически адаптироваться к поставленным задачам, минимизируя необходимость в полномасштабном обучении. Это позволит сократить потребление вычислительных ресурсов. Примеры подобных технологий включают sparsity-aware-алгоритмы, которые активируют только нужные части модели, и Zero-Shot Learning, позволяющий моделям обучаться без предварительной подготовки на больших наборах данных.

Например, компания OpenAI разрабатывает модели, такие как CLIP и DALL-E, способные выполнять сложные задачи без традиционного обучения на специализированных данных. Также исследователи из Массачусетского технологического института (MIT) работают над технологиями, позволяющими моделям динамически адаптироваться к нагрузке, снижая потребление электроэнергии.

Децентрализованные вычисления и Edge AI

Edge-компьютинг — это подход, при котором обработка данных происходит не в удаленных дата-центрах, а непосредственно на локальных устройствах. Это позволяет снизить энергопотребление и уменьшить задержки в работе ИИ.

В сочетании с технологией блокчейна децентрализованные вычисления позволят создать сети, где устройства обмениваются ресурсами и данными, минимизируя нагрузку на глобальные серверные мощности.

Например, компания Nvidia активно развивает Edge-AI-устройства, такие как Jetson Nano, которые позволяют выполнять сложные вычисления на устройствах интернета вещей с минимальным энергопотреблением.

Но несмотря на широкий интерес к этой технологии, точные данные о реальном снижении энергопотребления в массовом использовании остаются ограниченными. Большинство заявлений о преимуществах Edge-компьютинга основаны на теоретических моделях или отдельных тестах, результаты которых редко публикуются в открытом доступе.

«Оценка воздействия технологий ИИ игнорирует эффект замещения»

Свою точку зрения на проблему ресурсоемкости технологий высказала в колонке на сайте «РБК Тренды» Юлия Мицкевич, директор ИИ-направления компании KODE. В частности, вот на что она обращает внимание:

«Цифровые технологии заменяют физические объекты на цифровые данные и способствуют декарбонизации экономики. Например, отправка электронного сообщения заменяет отправку письма по почте, просмотр фильма заменяет прокат DVD-диска, а участие в видеоконференции — личную встречу.

В исследовании, проведенном в 2023 году, было проанализировано воздействие на окружающую среду человека и искусственного интеллекта при написании текста или создании иллюстрации. Результаты показали, что при написании текста углеродный след от ИИ в 1,5 тыс. раз меньше, чем у человека, а при создании изображения — в 2,9 тыс. снижает выбросы от его ноутбука или настольного компьютера.

Как показано в таблице, экономическая выгода может быть значительной, но делать выводы еще рано. Возможно, упрощение создания текста и изображений приведет к увеличению объема работ.

В свете огромного потенциала использования искусственного интеллекта в экономике и обществе, включая переход к низкоуглеродному будущему, крайне важно, чтобы исследования о влиянии ИИ на окружающую среду были основаны на достоверных данных»

O'qishni davom ettirish uchun tizimga kiring. Bu tez va bepul.

Roʻyxatdan oʻtish orqali men foydalanish shartlari 

Открыть в приложении