Digital age: Изкуственият интелект върви към революция и затопля планетата ни по пътя
Вие програмирате термостата си, за да пестите разходи за отопление, рециклирате стъкло и пластмаса, карате колело до работа, вместо да шофирате кола, използвате повторно устойчиви торбички за хранителни стоки, купувате слънчеви панели и се къпете с половинката си - всичко това, за да дадете своя принос за пестене на енергия, ограничаване на отпадъците и намаляване на въглеродния отпечатък.
Едно проучване, публикувано през ноември 2023 г., може бързо да развали настроението ви. Изследователи от университета "Карнеги Мелън" и Hugging Face, уебсайт на общност за машинно обучение, съобщават, че все пак може да допринесете негативно за изменението на климата, ако сте един от над 10 милиона потребители, които ежедневно използват модели за машинно обучение.
В това, което те наричат първото систематично сравнение на разходите, свързани с моделите за машинно обучение, изследователите установяват, че използването на модел на изкуствен интелект за генериране на изображение изисква същото количество енергия като зареждането на смартфон.
"Хората смятат, че ИИ няма никакво въздействие върху околната среда, че той е абстрактно технологично образувание, което живее в "облака", казва ръководителят на екипа Александра Лучони. "Но всеки път, когато отправяме запитване към модел на ИИ, той е свързан с разходи за планетата и е важно да ги изчислим."
Нейният екип тества 30 набора от данни, използвайки 88 модела, и откри значителни разлики в потреблението на енергия между различните видове задачи. Учените измерват количеството емисии на въглероден диоксид, използвани за всяка задача.
Жадни за енергия
Най-голямо количество енергия е изразходвано от Stable Diffusion XL, генератор на изображения на компанията Stability AI. По време на такава сесия се отделят близо 1600 грама въглероден диоксид. Това е приблизително равносилно на изминаването на 6 километра с автомобил, задвижван с газ. Така най-неефективният модел за генериране на изображения изразходва толкова енергия, колкото 950 зареждания на смартфон (11,49 kWh), или почти 1 зареждане за генериране на изображение. В най-ниския край на скалата, при основните задачи за генериране на текст се изразходва еквивалентът на автомобил, който изминава само 3/500 от един километър.
Други категории задачи за машинно обучение включваха класифициране на изображения и текст, създаване на надписи към изображения, обобщения и отговори на въпроси.
Изследователите заявяват, че генеративните задачи, които създават ново съдържание, като изображения и обобщения, са по-енергоемки и въглеродно интензивни от задачите за сравнение и подреждане, като например класирането на филми. Те също така отбелязват, че използването на многофункционални модели за изпълнение на дискриминационни задачи е по-енергоемко от използването на специфични модели за същите задачи. Според изследователите това е важно поради последните тенденции в използването на модели.
"Смятаме, че последният момент е най-убедителният извод от нашето проучване, като се има предвид настоящата промяна на парадигмата от по-малки модели, нагласени за конкретна задача, към модели, които са предназначени да изпълняват множество задачи едновременно, разгърнати, за да отговарят на множество потребителски запитвания в реално време", се казва в доклада.
Според Лучони, "Ако правите нещо съвсем специфично като например търсене в електронна поща ... наистина ли се нуждаете от тези големи модели, които са способни на всичко? Бих казала, че не."
Въпреки че цифрите за използването на въглероден диоксид за такива задачи може да изглеждат малки, когато се умножат по милионите потребители, които ежедневно разчитат на програми, генерирани от изкуствен интелект, често с множество заявки, общите стойности показват нещо, което може да се равнява на значително въздействие върху усилията за ограничаване на екологичните отпадъци.
"Мисля, че за генеративния изкуствен интелект като цяло трябва да сме наясно къде и как го използваме, като сравняваме разходите и ползите от него", казва Лучони.
Повече, по-големи и по-енергоемки
Големи данни, машинно обучение, изкуствен интелект - това са думи, използвани от всеки, който има дори най-малка представа какво се случва в технологиите в наши дни. ChatGPT на OpenAI, популярният чатбот, генериран от изкуствен интелект, се използва от над 100 милиона души по света.
Някои се притесняват, че ИИ ще им отнеме работата, други дори изразяват загриженост за бъдещето на човечеството - в отворено писмо в края на март 2023 г. десетки технологични лидери и изследователи на ИИ предупредиха, че има риск да загубим контрола над цивилизацията си. Като цяло е възприета нагласата "по-голямото е по-добро", тъй като всеки ден се създават хиляди нови машини и алгоритми.
Но най-належащият проблем изглежда е екологичната цена на изчисленията. В крайна сметка всеки нов чатбот или генератор на изображения се изгражда с все повече електроенергия, а това очевидно предполага, че практиката е виновна за значително количество въглеродни емисии, които допринасят за глобалното затопляне.
"Като езиков модел с изкуствен интелект нямам пряк въглероден отпечатък, защото не консумирам енергия и не произвеждам емисии по същия начин, както хората или машините." Така ChatGPT отговаря на въпроса за своя въглероден отпечатък. После обаче той продължава: "Сървърите и центровете за данни, в които се намира моята компютърна инфраструктура, консумират значително количество енергия и произвеждат въглеродни емисии." И точно това е ключът към загадката.
Още през 2019 г. научното списание Technology Review на Масачузетския технологичен институт съобщи, че облакът, в който се осъществяват изчислителните процеси, има по-голям въглероден отпечатък от цялата авиоиндустрия и генерира около 2 % от глобалните емисии.
За илюстрация, един център за данни може да консумира количество електроенергия, равностойно на 50 000 жилища. А обучението на изкуствен интелект всъщност консумира повече енергия от
традиционните видове изчисления - само обучението на един модел може да изгори повече електроенергия за една година, отколкото 100 американски жилища.
Изследователите на Google откриха, че изкуственият интелект е причина за 10-15% от общото потребление на електроенергия на технологичната компания. Тъй като през 2021 г. последното е било измерено на 18,3 тераватчаса, това би означавало, че ИИ на Google използва около 2,3 тераватчаса енергия годишно, ако се приеме средна стойност от 12,5%, взета от горния диапазон. Това е сравнимо с електроенергията, използвана от всички жилища, например в Сингапур, където живеят почти шест милиона души.
Моделите - които между другото стават все по-големи - също се нуждаят от преквалификация. Ако оставите модела си немодифициран в продължение на година или две, той вероятно няма да има представа, да речем, за COVID-19 или за войната на Русия в Украйна. Това отново струва много енергия.
Работният процес зад тези ъпдейти е съвсем прост: Microsoft, Google и OpenAI използват изчисления в облак, които се основават на безброй сървъри в огромни центрове за данни, за да обучават алгоритми за изкуствен интелект. Тези центрове за данни обаче трябва да бъдат охлаждани, обикновено чрез енергоемки климатици. Някои от тях просто обдухват цялата сграда, а други експериментират с планирането на етажите или с "горещи" и "студени" коридори на сървърните шкафове. Независимо от това кой метод е възприет, е необходима много енергия.
Все по-широкото използване на цифрови решения и изкуствен интелект предоставя все повече информация и ползи за нашия свят и бизнес, като ни помага да бъдем по-продуктивни, ефективни и устойчиви. Същевременно, самите данни имат въглероден отпечатък - обработката, анализът и съхранението на данни са част от проблема с емисиите. Декарбонизацията на центровете за данни е ключов приоритет в областта на климата, докато се опитваме да превърнем мръсните данни в чисти данни.
Тъй като търсенето на енергия за нуждите на ИТ сектора се удвоява на всеки четири години, въвеждането в експлоатация на чиста, надеждна и качествена енергия ще стане още по-голямо предизвикателство за доставчиците на енергия. Решенията ще изискват цялостна стратегия, включваща правителствени разпоредби, програми за стимулиране, обществено образование, инвестиции в индустрията, търговско приемане и промени в начина, по който организациите управляват ИТ средите.
Налични решения
За щастие, има какво да се подобри - и някои компании вече прилагат мерки, които им позволяват да пестят енергия. Например Microsoft, Google и Amazon, трите най-големи доставчици на облачни услуги в САЩ, са поели ангажимент да бъдат въглеродно неутрални или отрицателни.
Показателен е фактът, че Google, която има за цел до 2030 г. да управлява своите офиси и центрове за данни изцяло с безвъглеродна енергия, е внедрила не кой да е, а изкуствен интелект, който да контролира охлаждането в сградите. Големите технологични фирми също така купуват възобновяема енергия.
Някои от най-големите работни места в областта на машинното обучение може да бъдат преместени в по-благоприятни за въглеродните емисии региони на света. Добър пример за това е град Монреал в Канада, тъй като редица центрове за данни там работят с хидроенергия. Слънчевата или вятърната енергия също е напълно подходяща.
Компаниите трябва също така да обмислят възможността просто да използват облачни услуги, които позволяват работните натоварвания с изкуствен интелект да се разпределят в множество центрове за данни. Това би намалило потреблението на енергия на всяко отделно съоръжение.
Доказан начин за намаляване на емисиите от страна на разработчиците на ИИ е да бъдат по-гъвкави и по-интелигентни във времето на сесиите за обучение и поддръжка. Например, обучението в часове извън пиковите, когато енергията е по-евтина и в изобилие, намалява търсенето в пиковите часове. По-малко потребление на енергия се регистрира в центровете за данни, като моделите се изпълняват на по-ефективни процесори в часовете извън пика, за да се сведе до минимум работното натоварване.
ИИ може да поправи климата, само ако първо поправи себе си. Тъй като използването на ИИ вероятно ще нараства експоненциално, още по-необходимо е мащабирането да бъде отговорно - т.е. да се използват центрове за данни, които работят с електричество с ниски въглеродни емисии. Някои лаборатории също така успешно намалиха размера на своите модели на ИИ. През февруари например Meta пусна LLaMA - модел за големи езици, който е няколко пъти по-малък от тези, които OpenAI изгражда.
И накрая, по-малкото всъщност може да бъде повече. Предприятията трябва да съхраняват непрекъснато само данни, от които машината действително се нуждае.
Твърде много доставчици на технологии избират подхода "колкото повече, толкова повече" към съхранението на данни. Културата, основана на излишъка, кара техническите специалисти да се придържат към всяко парче данни, дори когато тези данни вече не са от значение. Крайно време е да се премахне това, от което компаниите вече не се нуждаят, като се съсредоточат не върху данните в покой, а върху данните в движение, за да оптимизират както милиардите заявки за търсенията, така и тяхното енергийно поддържане.
Ключови думи
|
|
Коментари
Няма въведени кометари.