ChatGPT-ն ժամանակի ընթացքում ավելի «հիմար» է դառնում

ChatGPT-ն ժամանակի ընթացքում ավելի «հիմար» է դառնում

ChatGPT-ն ժամանակի ընթացքում ավելի «հիմար» է դառնում: Այս եզրակացությանն է հանգել Ստենֆորդի համալսարանի գիտնականների խումբը՝ նեյրոնային ցանցի մարտյան և հունիսյան տարբերակները համեմատելուց հետո։

Մի քանի ամսվա ընթացքում հետազոտողները գրանցել են տվյալներ GPT-4 և GPT-3.5 մոդելների կողմից մի շարք առաջադրանքների կատարման վերաբերյալ։ Նյարդային ցանցերը ստեղծեցին ծրագրի կոդը, անցան տեսողական մտածողության թեստեր, լուծեցին մաթեմատիկական խնդիրներ և պատասխանեցին «անհարմար» հարցերին (կապված նախապաշարմունքների, անձնական տվյալների և այլ «թունավոր» տեղեկությունների հիշատակման հետ):

Մարտին ChatGPT-4-ը «17077-ը պարզ թիվ է» հարցին ճիշտ է պատասխանել դեպքերի 98%-ում։ Հունիսին այս ցուցանիշը նվազել է մինչև 2%: GPT-3.5-ը, ընդհակառակը, ավելի իմաստուն է դարձել, ճիշտ պատասխանների տոկոսը 7%-ից հասել է 87%-ի: Բացի այդ, ChatGPT-ն, ի վերջո, դադարեց բացատրել, թե ինչպես է հանգել որոշակի եզրակացությունների, ինչպես նաև վատացել է ոչ միանշանակ հարցերին պատասխանելիս:

Փորձագետների կարծիքով, խնդիրը կայանում է այն փոփոխությունների մեջ, որոնք մշակողները կատարում են ցանցի ալգորիթմում։ Պարզ ասած, OpenAI-ի աշխատակիցները որոշ առումներով GPT-4-ը դարձնում են ավելի լավը և միևնույն ժամանակ կոտրում են դրանում մեկ այլ բան: Բայց այս դեպքում դժվար է հստակ ասել՝ GPT-4 կոդը փակ է ուսումնասիրության համար՝ ի տարբերություն մոդելի նախորդ տարբերակների։