Исследователи нашли способ сократить «холостой» расход электричества.
Читайте «Хайтек» в
Исследователи из Мичиганского университета показывают, что можно сократить на 30% расход энергии, необходимой для обучения крупных языковых моделей ИИ, таких как GPT. Предложенный метод позволяет завершать обучение за то же время, потребляя меньше электричества.
Ученые объясняют, что энергетические затраты возникают из-за неравномерного распределения вычислений между графическими процессорами. Некоторые процессоры оказываются перегруженными, в то время как другие простаивают, что приводит к неэффективному потреблению энергии.
Модели ИИ настолько велики, что не могут поместиться в один процессор компьютера. Их нужно разделить на десятки тысяч процессоров для обучения, но разделить модели на идеально равные размеры практически невозможно.
Чжэ-Вон Чунг, соавтор исследования
Задания по обучению также сложно равномерно распределить, потому что некоторые задачи должны быть сгруппированы вместе на одном процессоре. В зависимости от группировки, некоторые процессоры могут застрять на сложных задачах, пока другие быстро решат простые и будут работать в холостом режиме.
Для решения этой проблемы исследователи разработали программу Perseus. Она определяет критические участки вычислений или ряд подзадач, выполнение которых займет больше всего времени. Затем программа замедляет процессоры, которые не находятся на критическом пути, чтобы они все завершили свою работу примерно в одно и то же время, устраняя ненужное потребление энергии.
По оценкам ученых, подтвержденных тестами, при таком подходе сроки обучения не меняются, а энергопотребление сокращается на 30%. Сэкономленных ресурсов хватит для питания 1,1 млн домов. Кроме того, предложенный метод снизит углеродный след, связанный с работой центров обработки данных.
На обложке: Изображение от freepik, сведения о лицензии