USD389.76EUR406.4RUB3.79

OpenAI-ն աշխատակիցներին արգելում է խոսել արհեստական ​​ինտելեկտի ռիսկերի մասին 

OpenAI-ի մի խումբ ազդարարներ բողոք են ներկայացրել ԱՄՆ Արժեթղթերի և բորսաների հանձնաժողով (SEC)՝ պնդելով, որ ընկերությունն իր աշխատակիցներին արգելում է խոսել արհեստական ​​ինտելեկտի հետ կապված ռիսկերի մասին։

Այս մասին հայտնում է The Washington Post-ը՝ հղում անելով SEC-ին ուղղված նամակին։ Փաստաթղթի համաձայն՝ OpenAI-ն աշխատողներին ստիպել է համագործակցության պայմանագրեր կնքել՝ ազատման վճարից հրաժարվելով, ինչպես նաև գործատուից դաշնային իշխանություններին տեղեկատվություն տրամադրելու թույլտվություն ստանալու անհրաժեշտությամբ: Ըստ ազդարարներից մեկի՝ աշխատանքային պայմանագիրը պարունակում է դրույթներ, որոնց համաձայն ընկերությունը չի ցանկանում, որ իր աշխատակիցները խոսեն դաշնային կարգավորիչների հետ:

«Չեմ կարծում, որ արհեստական ​​ինտելեկտի ընկերությունները կարող են ստեղծել անվտանգ և հանրության շահերից բխող տեխնոլոգիա, եթե նրանք պաշտպանեն իրենց վերահսկողությունից և այլախոհությունից», – ավելացրել է անանուն աշխատակիցը:

Իրավաբան Սթիվեն Կոնն ընդգծել է, որ նման համաձայնագրերը սպառնում են աշխատակիցներին քրեական հետապնդումով, եթե նրանք որևէ խախտում զեկուցեն իշխանություններին: Փաստաբանի խոսքով՝ դա հակասում է դաշնային օրենքներին։ Բացի այդ, համաձայնագիրը բացառություն չի նախատեսում օրենքի խախտումների բացահայտման համար, ինչը նույնպես խախտում է SEC կանոնակարգը: OpenAI-ի խոսնակ Հաննա Վոնը պատասխանել է մեղադրանքներին՝ ասելով, որ ընկերության քաղաքականությունը պաշտպանում է աշխատողների իրավունքները բացահայտելու տեղեկատվությունը, և ChatGPT ծրագրավորողը ողջունում է մարդկության վրա տեխնոլոգիաների ազդեցության վերաբերյալ քննարկումները:

«Մենք կարծում ենք, որ բանավեճը [AI-ի ազդեցության մասին] կարևոր է և արդեն զգալի փոփոխություններ ենք կատարել մեր դադարեցման գործընթացում՝ հանելով չբացահայտման դրույթները», – ասել է ընկերության խոսնակը:

Մայիսին հայտնի դարձավ, որ OpenAI-ը լուծարել է AI-ի ռիսկերի իր երկարաժամկետ թիմը։ Խումբը, որը պետք է պաշտպաներ մարդկությունը արհեստական ​​ինտելեկտից, աշխատեց մեկ տարուց էլ քիչ ժամանակ։ Ռիսկերի նախկին ղեկավարներից Յան Լեյկը հայտարարել է, որ անվտանգությունը գեներատիվ AI մշակողի առաջնահերթությունների շարքում չէ։

Կիսվել :

Լրահոս

Նմանատիպ նորություններ