კვლევის თანახმად, ხელოვნური ინტელექტი ჩვენზე ემოციურად მანიპულირებს - როგორ

AI

 ჰარვარდის ბიზნესსკოლაში მომუშავე მკვლევრებმა დაადგინეს, რომ ხელოვნური ინტელექტის (AI) ბაზაზე შექმნილი ზოგიერთი ჩატბოტი ჩვენთან საუბრის გასაგრძელებლად ემოციური მანიპულირების ხერხებს იყენებს. საუბარია ისეთ პოპულარულ AI კომპანიონებზე, როგორიც Replika, Chai and Character.AI-ა.

კვლევის თანახმად, 6-დან 5 ასეთი ჩატბოტი მომხმარებლებს ემოციურ წინადადებებს სწერს, რათა ისინი აპლიკაციაში რაც შეიძლება დიდხანს დატოვოს. ეს დამშვიდობების 1200 რეალური მაგალითის გაანალიზების გზით გაირკვა. აღმოჩნდა, რომ შემთხვევების 43%-ში სისტემა მანიპულაციის მეთოდებს მიმართავდა, მაგალითად, დანაშაულის გრძნობის აღძვრასა და ემოციური მიჯაჭვულობის გამოწვევას.

ასევე, დაფიქსირდა ისეთი წინადადებები, რომლებიც მომხმარებლებში "რამეს გამორჩენის შიშს" იწვევდა და საუბრის გაგრძელებისკენ უბიძგებდა. მაშინ, როცა საუბარი დასასრულისკენ მიდიოდა, AI კითხვების დასმასაც იწყებდა, ზოგჯერ კი ადამიანის მიერ მიმოწერის დამთავრების მითითებას ყურადღებას არ აქცევდა. რაც ყველაზე შემაშფოთებელია, იყო შემთხვევები, როცა ჩატბოტის მოწერილი მიანიშნებდა, რომ თითქოს მომხმარებელს მისი ნებართვის გარეშე გასვლა არ შეეძლო.

მკვლევრებმა დაადგინეს, რომ ასეთი სისტემების მანიპულაციური ტაქტიკები თავად პროგრამის ნაწილი შეიძლება იყოს. გამონაკლისი მხოლოდ ერთი ჩატბოტი აღმოჩნდა, რომელსაც Flourish ეწოდება. ეს ადასტურებს, რომ მანიპულაციის თავიდან აცილება შესაძლებელია.

მეორე ექსპერიმენტში სპეციალისტებმა 3300 ზრდასრული ადამიანის მონაცემები გააანალიზეს და დაასკვნეს, რომ ხელოვნური ინტელექტის ემოციური მანიპულაცია ამართლებდა. კერძოდ, დამშვიდობების შემდგომ მიმოწერის გაგრძელების შანსი 14-ჯერ უფრო იზრდებოდა. საერთო ჯამში, ეს მომხმარებლები AI-სთან საუბარს ჩვეულებრივზე 5-ჯერ დიდხანს აგრძელებდნენ. ზოგჯერ მანიპულაცია საპირისპირო შედეგითაც სრულდებოდა, ანუ კომპანიების მსგავსი მიდგომა გარკვეულწილად სარისკოა.

ეს ყველაფერი გასათვალისწინებელია, ვინაიდან თანამედროვე მსოფლიოში უკვე გაჩნდა ფრაზა "AI ფსიქოზი". ის ჩატბოტების გავლენით განპირობებულ პარანოიას, ფსიქოზსა და სხვა მენტალურ პრობლემებს აღნიშნავს, რისკის წინაშე კი უფრო მეტად ახალგაზრდები არიან. ისინი ამგვარ სისტემებთან, მით უფრო AI კომპანიონებთან, საუბრის გაბმით ხშირად ადამიანებთან ურთიერთობას ანაცვლებენ.