Niv-AI სტელს რეჟიმიდან გამოდის, რათა GPU-ებიდან მეტი ენერგოეფექტურობა მიიღოს

ელექტროენერგია AI-სთვის ძირითადი რესურსია, მაგრამ დამუშავების ახალი ტექნიკები უსწრებს data center-ის ოპერატორების შესაძლებლობებს, მართონ ელექტროქსელთან ურთიერთობა, რაც მათ აიძულებს სიმძლავრე 30%-მდე შეამცირონ.

"ამ AI ქარხნებში ძალიან ბევრი ენერგია იკარგება," - განაცხადა Nvidia-ს CEO-მ, ჯენსენ ჰუანგმა კომპანიის ყოველწლიურ GTC კონფერენციაზე. "ყოველი გამოუყენებელი ვატი დაკარგული შემოსავალია," აღინიშნა პრეზენტაციაზე.

დღეს, startup-ი Niv-AI გამოვიდა სტელს რეჟიმიდან $12 მილიონიანი seed დაფინანსებით ამ პრობლემის გადასაჭრელად, ახალი სენსორების საშუალებით GPU-ს ენერგომოხმარების ზუსტი გაზომვისა და მისი უფრო ეფექტურად მართვისთვის საჭირო ინსტრუმენტების შექმნის გზით.

თელ-ავივში ბაზირებული startup-ი გასულ წელს CEO ტომერ ტიმორისა და CTO ედვარდ კიზისის მიერ დაარსდა და მხარდაჭერილია Glilot Capital, Grove Ventures, Arc VC, Encoded VC, Leap Forward და Aurora Capital Partners-ის მიერ.

როდესაც მოწინავე ლაბორატორიები ათასობით GPU-ს იყენებენ რთული მოდელების დასატრენინგებლად და გასაშვებად, ხშირია მილიწამიანი ენერგიის მოთხოვნის მკვეთრი ზრდა, რადგან პროცესორები გადართავენ გამოთვლით ამოცანებსა და სხვა GPU-ებთან კომუნიკაციას შორის.

ეს ნახტომები data center-ებს ურთულებს ქსელიდან მიღებული ენერგიის მართვას. ელექტროენერგიის გარეშე დარჩენის თავიდან ასაცილებლად, ისინი იხდიან დროებით ენერგიის საცავებში ან ზღუდავენ GPU-ს გამოყენებას, რაც ამცირებს ძვირადღირებულ ჩიპებში ჩადებულ ინვესტიციებზე უკუგებას.

"ჩვენ უბრალოდ აღარ შეგვიძლია data center-ების იმგვარად შენება, როგორც ამას ახლა ვაკეთებთ," - განაცხადა ლიორ ჰანდელსმანმა, Grove Ventures-ის პარტნიორმა და Niv-ის ბორდის წევრმა.

Niv-ის საგზაო რუკის პირველი ნაბიჯი არსებული ვითარების გაგებაა; კომპანია ახლა ამონტაჟებს სენსორებს, რომლებიც ენერგომოხმარებას მილიწამის დონეზე აფიქსირებენ. მიზანი სხვადასხვა deep learning ამოცანების სპეციფიკური ენერგოპროფილების გაგება და ისეთი მეთოდების შემუშავებაა, რომლებიც data center-ებს არსებული სიმძლავრის უკეთ გამოყენების საშუალებას მისცემს.

ბუნებრივია, ინჟინრები გეგმავენ AI მოდელის შექმნას შეგროვებულ მონაცემებზე დაყრდნობით, რათა მან შეძლოს ენერგიის დატვირთვების პროგნოზირება და სინქრონიზაცია მთელ data center-ში - ერთგვარი "copilot" ინჟინრებისთვის.

Niv-AI გეგმავს, რომ მომდევნო ექვს-რვა თვეში უკვე ექნება მოქმედი სისტემა აშშ-ის რამდენიმე data center-ში. დამფუძნებლები თავიანთ საბოლოო პროდუქტს ხედავენ, როგორც დაკარგულ "ინტელექტუალურ ფენას" data center-ებსა და ელექტროქსელს შორის.

"ქსელს რეალურად ეშინია, რომ data center კონკრეტულ მომენტში ზედმეტ ენერგიას მოიხმარს," - განუცხადა ტიმორმა TechCrunch-ს. "პრობლემა, რომელზეც ვმუშაობთ, ორმხრივია. ერთი მხრივ, ვცდილობთ დავეხმაროთ data center-ებს მეტი GPU-ს გამოყენებაში. მეორე მხრივ, შეგვიძლია შევქმნათ ბევრად უფრო პასუხისმგებლიანი ენერგოპროფილები data center-ებსა და ქსელს შორის."

წყარო: techcrunch.com