ახალი ამბებიმეცნიერებახელოვნური ინტელექტი

შექმნეს ყველაზე სახიფათო ხელოვნური ინტელექტი. რა შეუძლია მას?

კომპანია OpenAI-იმ, რომლის ერთ-ერთი დამაარსებელი ილონ მასკი გახლავთ, განაცხადა, რომ შექმნა ხელოვნური ინტელექტი, რომელიც განკუთვნილია მოცემული დავალების მიხედვით ტექსტების წერისთვის. ითვლებოდა, რომ იგი შეძლებდა ტექსტების თარგმნას სხვადასხვა ენაზე, უპასუხებდა კითხვებს და შეასრულებდა სხვა სასარგებლო ამოცანებს, თუმცა კვლევამ აჩვენა, რომ იგი შესაძლოა უკიდურესად სახიფათო იყოს, თუკი იგი ბოროტმოქმედების ხელში მოხვდება. ამის გამო კომპანიამ გადაწყვიტა საზოგადოებას მხოლოდ მისი შეზღუდული ვერსია გააცნოს, ორიგინალი კი მკაცრად გასაიდუმლოებული შეინახოს.

კომპიუტერული მოდელის სახელწოდებაა GPT-2 და მისი სწავლება განხორციელდა 8 მლნ ვებ-გვერდის საფუძველზე. მათზე დაწერილი ტექსტები საფუძვლად ემყარება ახალ მასალებს: მაგალითად, ხელოვნურ ინტელექტს შეუძლია შეთხზას მთლიანი ესსე თემაზე, თუ რა დადებითი მხარეები აქვს ნაგვის გადამუშავებას, ან დაწეროს ფენტეზის სტილის მოთხრობა „ბეჭდების მბრძანებლის“ სტილში. თუმცა, მკვლევარებმა აღმოაჩინეს, რომ სისტემა ასევე შესანიშნავად ართმევს თავს ცრუ სიახლეების წერას ცნობილ ადამიანებზე, კატასტროფებზე და ომებზეც კი.

მოცემული მომენტისთვის ტექსტის გენერაციისთვის საჭირო ინსტრუმენტის სრული ვერსია ხელმისაწვდომია მხოლოდ მწარმოებლებისთვისა და MIT Technology Review-ს რამოდენიმე ავტორისთვის. იმის გათვალისწინებით, რომ სისტემა არ იქნას გამოყენებული არაკონტროლირებადი ყალბი სიახლეების შესაქმნელად და გასავრცელებლად, გადაწყვეტილ იქნა არ გახდეს სრული ვერსია საყოველთაოდ ხელმისაწვდომი.

მწარმოებლები აღნიშნავენ, რომ ენობრივი მოდელი ჯერჯერობით იდეალური არ არის: სისტემა ზოგჯერ შეცდომებს უშვებს: იმეორებს ტექსტის ზოგიერთ ფრაგმენტს, არაბუნებრივად ცვლის თემებს. მაგალითად, ტესტირების ერთ-ერთ ეტაპზე სისტემამ დაწერა ცეცხლზე, რომელიც წყალში იწვის.

Open AI-ის დირექტორის თქმით, ამგვარი ალგორითმი შეძლებს გადაიქცეს ხალხის დაბნეულობაში შეყვანის მასიურ საშიშ იარაღად. ზოგიერთი კრიტიკოსი კი დარწმუნებულია, რომ ტექნოლოგიას არანაირი საფრთხე არ გააჩნია, კომპანია კი უბრალოდ ყურადღების მიქცევას ცდილობს.

Source
overclockers.ge/

Related Articles

კომენტარის დამატება

Back to top button