
ელექტროენერგია AI-სთვის ძირითადი რესურსია, მაგრამ დამუშავების ახალი ტექნიკები უსწრებს data center-ის ოპერატორების შესაძლებლობებს, მართონ ელექტროქსელთან ურთიერთობა, რაც მათ აიძულებს სიმძლავრე 30%-მდე შეამცირონ.
"ამ AI ქარხნებში ძალიან ბევრი ენერგია იკარგება," - განაცხადა Nvidia-ს CEO-მ, ჯენსენ ჰუანგმა კომპანიის ყოველწლიურ GTC კონფერენციაზე. "ყოველი გამოუყენებელი ვატი დაკარგული შემოსავალია," აღინიშნა პრეზენტაციაზე.
დღეს, startup-ი Niv-AI გამოვიდა სტელს რეჟიმიდან $12 მილიონიანი seed დაფინანსებით ამ პრობლემის გადასაჭრელად, ახალი სენსორების საშუალებით GPU-ს ენერგომოხმარების ზუსტი გაზომვისა და მისი უფრო ეფექტურად მართვისთვის საჭირო ინსტრუმენტების შექმნის გზით.
თელ-ავივში ბაზირებული startup-ი გასულ წელს CEO ტომერ ტიმორისა და CTO ედვარდ კიზისის მიერ დაარსდა და მხარდაჭერილია Glilot Capital, Grove Ventures, Arc VC, Encoded VC, Leap Forward და Aurora Capital Partners-ის მიერ.
როდესაც მოწინავე ლაბორატორიები ათასობით GPU-ს იყენებენ რთული მოდელების დასატრენინგებლად და გასაშვებად, ხშირია მილიწამიანი ენერგიის მოთხოვნის მკვეთრი ზრდა, რადგან პროცესორები გადართავენ გამოთვლით ამოცანებსა და სხვა GPU-ებთან კომუნიკაციას შორის.
ეს ნახტომები data center-ებს ურთულებს ქსელიდან მიღებული ენერგიის მართვას. ელექტროენერგიის გარეშე დარჩენის თავიდან ასაცილებლად, ისინი იხდიან დროებით ენერგიის საცავებში ან ზღუდავენ GPU-ს გამოყენებას, რაც ამცირებს ძვირადღირებულ ჩიპებში ჩადებულ ინვესტიციებზე უკუგებას.
"ჩვენ უბრალოდ აღარ შეგვიძლია data center-ების იმგვარად შენება, როგორც ამას ახლა ვაკეთებთ," - განაცხადა ლიორ ჰანდელსმანმა, Grove Ventures-ის პარტნიორმა და Niv-ის ბორდის წევრმა.
Niv-ის საგზაო რუკის პირველი ნაბიჯი არსებული ვითარების გაგებაა; კომპანია ახლა ამონტაჟებს სენსორებს, რომლებიც ენერგომოხმარებას მილიწამის დონეზე აფიქსირებენ. მიზანი სხვადასხვა deep learning ამოცანების სპეციფიკური ენერგოპროფილების გაგება და ისეთი მეთოდების შემუშავებაა, რომლებიც data center-ებს არსებული სიმძლავრის უკეთ გამოყენების საშუალებას მისცემს.
ბუნებრივია, ინჟინრები გეგმავენ AI მოდელის შექმნას შეგროვებულ მონაცემებზე დაყრდნობით, რათა მან შეძლოს ენერგიის დატვირთვების პროგნოზირება და სინქრონიზაცია მთელ data center-ში - ერთგვარი "copilot" ინჟინრებისთვის.
Niv-AI გეგმავს, რომ მომდევნო ექვს-რვა თვეში უკვე ექნება მოქმედი სისტემა აშშ-ის რამდენიმე data center-ში. დამფუძნებლები თავიანთ საბოლოო პროდუქტს ხედავენ, როგორც დაკარგულ "ინტელექტუალურ ფენას" data center-ებსა და ელექტროქსელს შორის.
"ქსელს რეალურად ეშინია, რომ data center კონკრეტულ მომენტში ზედმეტ ენერგიას მოიხმარს," - განუცხადა ტიმორმა TechCrunch-ს. "პრობლემა, რომელზეც ვმუშაობთ, ორმხრივია. ერთი მხრივ, ვცდილობთ დავეხმაროთ data center-ებს მეტი GPU-ს გამოყენებაში. მეორე მხრივ, შეგვიძლია შევქმნათ ბევრად უფრო პასუხისმგებლიანი ენერგოპროფილები data center-ებსა და ქსელს შორის."
წყარო: techcrunch.com



