
AI-სკეპტიკოსები ერთადერთნი არ არიან, ვინც მომხმარებლებს აფრთხილებენ, ბრმად არ ენდონ მოდელების გენერირებულ პასუხებს — ამას თავად AI კომპანიებიც ადასტურებენ თავიანთ მოხმარების წესებში (Terms of Service).
მაგალითად ავიღოთ Microsoft, რომელიც ამჟამად კონცენტრირებულია კორპორატიული კლიენტებისგან Copilot-ის სერვისში ფინანსური სარგებლის მიღებაზე. თუმცა კომპანია სოციალურ ქსელებში კრიტიკის ობიექტი გახდა პლატფორმის მოხმარების წესების გამო, რომელიც ბოლოს ცოტა ხნის წინ განახლდა.
„Copilot მხოლოდ გასართობი მიზნებისთვისაა განკუთვნილი“, — აფრთხილებს კომპანია მომხმარებლებს. „მას შეუძლია დაუშვას შეცდომები და შეიძლება არ იმუშაოს ისე, როგორც დაგეგმილია. არ დაეყრდნოთ Copilot-ს მნიშვნელოვანი რჩევებისთვის. გამოიყენეთ ის საკუთარი რისკით.“
Microsoft-ის წარმომადგენელმა გამოცემა PCMag-თან განაცხადა, რომ კომპანია განაახლებს ამ ე.წ. „მოძველებულ ტერმინოლოგიას“.
„პროდუქტის განვითარებასთან ერთად, ეს ფორმულირება აღარ ასახავს იმას, თუ როგორ გამოიყენება Copilot დღეს. შესაბამისად, ტექსტი ჩვენი შემდეგი განახლებისას შეიცვლება“, — აღნიშნა სპიკერმა.
Tom’s Hardware-ის თქმით, Microsoft არ არის ერთადერთი, რომელიც ხელოვნურ ინტელექტთან დაკავშირებით მსგავს გაფრთხილებას იყენებს. მაგალითად, OpenAI და xAI ასევე ურჩევენ მომხმარებლებს, რომ არ დაეყრდნონ მათ პასუხებს, როგორც „აბსოლუტურ ჭეშმარიტებას“ (xAI) ან როგორც „სიმართლისა თუ ფაქტობრივი ინფორმაციის ერთადერთ წყაროს“ (OpenAI).
წყარო: techcrunch.com







