
Технологии искусственного интеллекта постоянно обучаются, что требует огромного количества электроэнергии. В некоторых странах «аппетиты» нейросетей уже достигают 1% от общего энергопотребления, а к концу 2025 года этот показатель может вырасти почти в два раза.
По мере усложнения ИИ их энергопотребление будет постоянно увеличиваться. Особенно, если речь идет о нейросетях, которые генерируют или анализируют большие объемы информации. Это происходит из-за огромного числа необходимых для их работы вычислений.
Суть в том, что нейросети работают по принципу человеческого мозга. Они состоят из множества узлов, между которыми передается информация. Каждому значению присваивается определенный вес. Когда один узел полностью загружен, подключается следующий. При этом изначально весовые значения задаются случайным образом, и нейросети требуется очень много вычислительных операций, чтобы скорректировать его.
Группа европейских ученых представила новый подход к обучению нейросетей, который позволит ускорить этот процесс в 100 раз, сохранив электропотребление на том же уровне. Для этого они применили вероятностный метод, который основан на целенаправленном использовании значений в критических точках обучающих данных.
Такой подход позволяет сохранить максимальные вычислительные параметры и энергоэффективность. Благодаря ему необходимые весовые параметры определяются быстрее, передает The SciTechDaily.