
Sears-ის უნივერმაღები აშშ-ში ძირითადად გაქრა, მაგრამ ბრენდი და მისი ტექნიკის შეკეთების სერვისი კვლავ ფუნქციონირებს თანამედროვე დამატებით: AI ჩატბოტით და ხმოვანი ასისტენტით, სახელად Samantha. მიუხედავად იმისა, რომ ისტორიული რითეილერი მომავლისკენ ნაბიჯს დგამს, ახალი კვლევა აჩვენებს, რომ ადამიანების საუბრები ჩატბოტთან ონლაინ საჯაროდ იყო ხელმისაწვდომი.
რადგან Sears კვლავ სანდო სახელია, უსაფრთხოების მკვლევარი ჯერემია ფაულერი (Jeremiah Fowler) გასულ თვეს გაკვირვებული და შეშფოთებული დარჩა, როდესაც აღმოაჩინა სამი საჯაროდ ხელმისაწვდომი მონაცემთა ბაზა. ისინი შეიცავდა ჩატის ლოგების, აუდიო ფაილების და ტრანსკრიპტების უზარმაზარ რაოდენობას, სადაც Sears Home Services-ის მომხმარებლების პირადი დეტალები იყო მოცემული. Home Services-ის განყოფილება აცხადებს, რომ არის აშშ-ის „ტექნიკის შეკეთების სერვისის უმსხვილესი პროვაიდერი“ და წელიწადში 7 მილიონზე მეტ შეკეთებას ახორციელებს.
ფაულერის მიერ აღმოჩენილი საჯარო მონაცემთა ბაზები, რომლებიც მას შემდეგ დაცული იქნა, შეიცავდა 3.7 მილიონ ჩატის ლოგს, 1.4 მილიონ აუდიო ფაილს და ტექსტურ ტრანსკრიპტს 2024 წლიდან დღემდე. ერთ-ერთი CSV ფაილი შეიცავდა 54,359 სრულ ჩატის ლოგს. ლოგებში ფიქსირდებოდა კომპანიის AI ტექნოლოგიის სახელი „kAIros“. მონაცემები შეიცავდა მომხმარებლების პირად ინფორმაციას, როგორიცაა სახელები, ტელეფონის ნომრები, მისამართები და ინფორმაცია შეკეთებებზე.
„უნდა გვახსოვდეს, რომ ეს არის რეალური ადამიანების რეალური მონაცემები“, ამბობს ფაულერი Black Hills Information Security-დან. მიუხედავად იმისა, რომ კომპანიებს შეუძლიათ თანხების დაზოგვა AI-ის დანერგვით, ის ხაზს უსვამს მონაცემების დაცვის აუცილებლობას. „მინიმუმ, ეს ფაილები პაროლით უნდა ყოფილიყო დაცული და დაშიფრული.“
თებერვლის დასაწყისში საჯარო ბაზების აღმოჩენის შემდეგ, ფაულერმა მისწერა Transformco-ს (Sears-ის მფლობელი კომპანია) პერსონალს და ბაზები სწრაფად დაიხურა. უცნობია, რამდენი ხანი იყო ისინი ხელმისაწვდომი და ჰქონდა თუ არა სხვას მათზე წვდომა. Transformco-მ WIRED-ის კომენტარის თხოვნებს არ უპასუხა.
ფაულერის თქმით, Transformco-სთან დაკავშირებისას მას უპასუხა პირმა, რომელმაც ის პირდაპირ Samantha AI ჩატბოტის მენეჯერთან დააკავშირა. თუმცა, მას აღარავინ გამოხმაურებია.
მომხმარებელთა ღია მონაცემები ნებისმიერ შემთხვევაში პრობლემურია, მაგრამ ფაულერი განსაკუთრებით შეშფოთებული იყო ორი მიზეზის გამო. პირველი, ასეთი ინფორმაცია ძალიან გამოსადეგი იქნებოდა phishing შეტევებში, რადგან შეიცავს საკონტაქტო და საყოფაცხოვრებო დეტალებს, რაც თაღლითებისთვის იდეალური სამიზნეა.
მეორე შოკი იყო ის ფაქტი, რომ აუდიო ზარების მნიშვნელოვანი რაოდენობა საათობით იწერდა ფონურ ხმებს მას შემდეგ, რაც მომხმარებლებს ზარი დასრულებული ეგონათ. ზოგიერთი ჩანაწერი 4 საათამდე გრძელდებოდა. „თქვენ შეგეძლოთ გაგეგოთ ჩართული ტელევიზორის ან ადამიანების საუბრის ხმა და ეს ყველაფერი იწერებოდა“, ამბობს ფაულერი.
ფაილები ასევე აჩვენებს ადამიანების იმედგაცრუებას ხარვეზიანი ჩატბოტებით, რომლებიც ხშირად ვერ პასუხობდნენ კითხვებს ან მომხმარებლებს რეალურ აგენტებთან ამისამართებდნენ.
ერთ-ერთ 76-წუთიან ზარში, მომხმარებელი ითხოვს რეალურ ადამიანთან საუბარს. AI ხმოვანი ბოტი პასუხობს, რომ მას შეუძლია დახმარება, მაგრამ რამდენიმე წუთში უჭირს დავალების შესრულება და თავად სთავაზობს რეალურ აგენტთან დაკავშირებას.
ერთ-ერთ ტექსტურ ტრანსკრიპტში ადამიანი სულ უფრო მეტად უკმაყოფილო ხდება Samantha-ს პასუხებით და 28-ჯერ იმეორებს: „სად არის ჩემი ტექნიკოსი?“. შემდეგ კი დასძენს: „შენ კომპიუტერი ხარ. შენ კომპიუტერი ხარ“.
ეს ვითარება ხდება მაშინ, როდესაც კომპანიები ცდილობენ generative AI-ის ინტეგრირებას თავიანთ ტექნოლოგიურ სისტემებში. ეს ინციდენტი ხაზს უსვამს მომხმარებლებთან პირდაპირი ინტერაქციისთვის ბოტების გამოყენების კონფიდენციალურობის, ნდობისა და რეპუტაციის რისკებს.
„მათ ასევე უნდა მისცენ ადამიანებს მეტი არჩევანი: რეალურ ადამიანთან საუბრის შესაძლებლობა და არჩევანი, რომ მათი საუბარი არ ჩაიწეროს“, ამბობს ოქსფორდის უნივერსიტეტის ასოცირებული პროფესორი კარისა ველიზი (Carissa Véliz). „გრძელვადიან პერსპექტივაში გსურთ, რომ თქვენი მომხმარებლები თავს უსაფრთხოდ და კომფორტულად გრძნობდნენ.“
წყარო: wired.com



