ChatGPT პირველად აბარებს ნევროლოგიის გამოცდას

OpenAI-ის დიდი ენის მოდელის უახლესმა განახლებამ, ChatGPT-4.0, გაიარა კლინიკური ნევროლოგიის გამოცდა და მიაღწია 85%-იან სიზუსტეს, რაც მნიშვნელოვანი ნახტომი იყო მისი წინამორბედისგან, ChatGPT-3.5-ისგან. კონცეფციის დამადასტურებელი ეს კვლევა, რომელიც ჩატარდა ჰაიდელბერგის საუნივერსიტეტო საავადმყოფოსა და ჰაიდელბერგის გერმანიის კიბოს კვლევის ცენტრის მკვლევარებმა, გამოიყენა ნევროლოგიის გამოცდის კითხვები ფსიქიატრიისა და ნევროლოგიის ამერიკული საბჭოსგან, რომელსაც დაემატა რამდენიმე ევროპული ნევროლოგიის საბჭოსგან.

მიუხედავად იმისა, რომ ChatGPT-3.5-მა მიიღო 66.8%, სწორად უპასუხა 1,306-ს 1,956 კითხვიდან, უფრო ახალი ChatGPT-4.0 მოდელი გამოირჩეოდა 85% სიზუსტით და სწორად უპასუხა 1,662 კითხვას. აღსანიშნავია, რომ ადამიანის საშუალო ქულა 73,8%-ს შეადგენდა. შთამბეჭდავია, რომ ChatGPT-4.0 აჯობა ადამიანურ რესპონდენტებს ქცევით, შემეცნებით და ფსიქოლოგიურ კითხვებში, გადალახა ნევროლოგიის გამოცდის ჩაბარების ზღვარი, რომელიც, როგორც წესი, დადგენილია 70%-ზე საგანმანათლებლო დაწესებულებებში.

მიუხედავად ამ წინსვლისა, ორივე მოდელმა აჩვენა შეზღუდვები დავალებების შესრულებაში, რომლებიც მოიცავდა „უფრო მაღალი დონის აზროვნებას“ შედარებით „დაბალი დონის აზროვნებაზე“ დამოკიდებულ ამოცანებთან შედარებით.

მკვლევარები ხაზს უსვამენ კლინიკურ ნევროლოგიაში დიდი ენობრივი მოდელების გამოყენების პოტენციალს, მაგრამ ისინი აფრთხილებენ, რომ დახვეწა გადამწყვეტია. მიუხედავად იმისა, რომ ეს მოდელები პერსპექტიულია დოკუმენტაციისა და გადაწყვეტილების მიღების მხარდაჭერის სისტემებში, ისინი მაინც ვერ ასრულებენ ამოცანებს, რომლებიც მოითხოვს უმაღლესი დონის შემეცნებით შესაძლებლობებს. დოქტორმა ვარუნ ვენკატარამანმა, კვლევის ერთ-ერთმა ავტორმა, ხაზი გაუსვა ამ მოდელების შემდგომი განვითარებისა და სპეციფიკური დახვეწის აუცილებლობას კლინიკურ ნევროლოგიაში სათანადო გამოყენებისთვის:

“ჩვენ განვიხილავთ ჩვენს კვლევას, როგორც კონცეფციის დადასტურებას დიდი ენობრივი მოდელების შესაძლებლობების შესახებ. არსებობს მუდმივი განვითარება და, სავარაუდოდ, კონკრეტული კორექტირება საჭირო იმისათვის, რომ ისინი მართლაც შესაფერისი იყოს კლინიკური ნევროლოგიისთვის.” მკვლევარები გვირჩევენ სიფრთხილით გამოიყენონ ეს მოდელები პრაქტიკაში, მიუხედავად მათი პოტენციური სარგებელი ჯანდაცვის სფეროში. ისინი გვირჩევენ ფრთხილად მიდგომას მაღალი დონის შემეცნებითი ამოცანების შესრულების ხარვეზების გამო. ხელოვნური ინტელექტი უკვე ჩართულია ჯანდაცვის მნიშვნელოვან ამოცანებში, როგორიცაა AstraZeneca-სთვის კიბოს კვლევის დახმარება და ჰონგ კონგში ანტიბიოტიკების ზედმეტად დანიშნულების საკითხის მოგვარება.

Comments (No)

Close