Բոլորը գիտեն, որ արհեստական ինտելեկտը կարող է սխալներ թույլ տալ և հալյուցինացիաներ առաջացնել: Սակայն Apple-ի վերջին հետազոտությունները բացահայտել են նույնիսկ ավելի էական թերություններ մաթեմատիկական մոդելներում, որոնք AI-ն օգտագործում է «պատճառաբանելու համար»: Գիտնականները մոդելին մի քանի անգամ տվել են նույն հարցը՝ մի փոքր փոխելով դրա ձևակերպումը։ Դրան զուգահեռ փոխվել են նաև մոդելի պատասխանները, հատկապես, եթե հարցերում օգտագործվել են թվեր։
Arxiv.org-ի կողմից հրապարակված ուսումնասիրությունը ցույց է տվել, որ մոդելի պատասխանները զգալիորեն փոխվում են, երբ նույն հարցը տարբեր կերպ է ձևակերպվում: Ըստ գիտնականների՝ «դա կասկածի տակ է դնում GSM8K-ի ներկայիս արդյունքների հուսալիությունը, որոնք հիմնված են մեկ կետի ճշգրտության չափումների վրա»: GSM8K-ը տվյալների բազա է, որն օգտագործվում է մոդելների փորձարկման համար: Այն ներառում է ավելի քան 8 հազար հարց ու պատասխան տարրական դպրոցի մակարդակի մաթեմատիկայի վերաբերյալ։
Apple-ի հետազոտողները պարզել են, որ կատարողականի տարբերությունը կարող է լինել մինչև 10%: Եվ նույնիսկ արդյունաբերական տվյալների փոքր փոփոխությունները կարող են լրջորեն ազդել մոդելի պատասխանների հուսալիության վրա:
NYT-ն իմացել է OpenAI տեխնոլոգիաներին փոխարինող ստեղծելու Microsoft-ի փորձերի մասին։
AI-ի բումը բնապահպաններին խանգարեց փակել ԱՄՆ-ում ածուխով աշխատող էլեկտրակայանը:
Փաստն այն է, որ արհեստական ինտելեկտը հիմնվում է ոչ թե տրամաբանական հիմնավորման, այլ օրինաչափությունների ճանաչման վրա: Apple-ի հետազոտությունը ցույց է տալիս, որ ընդամենը մի քանի անկարևոր բառերի փոփոխությունն ազդում է օրինաչափությունների ճանաչման վրա:
Օրինակներից մեկը մի քանի օրվա ընթացքում հավաքված կիվիների քանակը հաշվելու խնդիրն է: Apple-ի հետազոտողները հսկիչ փորձ են անցկացրել, իսկ հետո տեղեկատվություն են ավելացրել կիվիի չափերի մասին։
Meta-ի Llama-ն և OpenAI-ի o1-ը փոխեցին իրենց պատասխանները՝ համեմատած հսկիչ փորձի հետ, թեև կիվիի չափի տվյալները չեն ազդել արդյունքի վրա: Խնդիրների է հանդիպել նաև GPT-4o-ն։