Научници откриле: Вештачката интелигенција се преправа дека е „поглупава“ отколку што навистина е

Точка

13/04/2024

11:05

7.538

Големина на фонт

а а а

Една нова студија сугерира дека напредните модели на вештачка интелигенција се прилично добри во преправањето дека се поглупави отколку што навистина се.

Во напис објавен во списанието „PLOS One“, истражувачите од берлинскиот универзитет Хумболт откриле дека при тестирање на голем јазичен модел (LLM) заснован на таканаречените критериуми за „теорија на умот“, откриле дека не само што вештачката интелигенција може да ги имитира фазите на учење јазик прикажани кај децата, туку дополнително изразува нешто слично на менталните способности поврзани со тие фази.

Во интервју за „PsyPost“, истражувачката асистентка на универзитетот Хумболт и водечка авторка на студијата, Ана Марклова, која исто така е експерт по психолингвистика, објаснила како нејзиното поле на студии е поврзано со фасцинантното откритие.


„Благодарение на психолингвистиката, имаме релативно сеопфатно разбирање за тоа што се способни децата на различни возрасти“, изјавила Марклова за агенцијата. „Конкретно, теоријата на умот игра важна улога, бидејќи го истражува внатрешниот свет на детето и не е лесно да се имитира со набљудување на едноставни статистички обрасци“.

Со оваа теорија на ум, истражувачката и нејзините колеги од Карловиот универзитет во Прага решиле да утврдат дали големите јазични модели како „GPT-4“ на „OpenAI“ „може да се преправаат дека се помалку способни отколку што навистина се“.

За да го дознае ова, истражувачкиот тим им дал инструкции на моделите да се однесуваат како деца на прогресивна возраст од една до шест години кога даваат одговори. Кога биле направени низа од повеќе од 1.000 прегледи и когнитивни тестови, изгледало дека овие „симулирани детски личности“ функционирале исто како и децата на таа возраст - и, на крајот, покажале дека моделите може да се преправаат дека се помалку интелигентни отколку што навистина се.


„Големите јазични модели се способни да глумат пониска интелигенција од онаа што ја поседуваат“, заклучила Марклова.

Овие наоди би можеле да помогнат во развојот на вештачката суперинтелигенција (ASI), следниот чекор по општата вештачка интелигенција (AGI) на ниво на човек и да помогнат да се направи вештачката интелигенција побезбедна.

„При развивањето на ASI, мора да бидеме внимателни да не бараме од нив да имитираат човечка, а со тоа и ограничена интелигенција“, вели таа во интервјуто. „Покрај тоа, тоа сугерира дека можеби ги потценуваме нивните способности на долг рок, што не е безбедна ситуација“.



Спонзорирани линкови

Маркетинг