OpenAI-ի և Google DeepMind-ի ներկայիս և նախկին աշխատակիցները բաց նամակ են ստորագրել AI-ի ռիսկերի մասին։ Տասներեք հոգի ասացին, որ չեն կարող խոսել այս տեխնոլոգիաների «լուրջ ռիսկերի» մասին՝ կապված գաղտնիության համաձայնագրերի հետ, և կոչ են արել պաշտպանվել վրեժխնդրությունից նրանց, ովքեր ցանկանում են բարձրաձայնել իրենց մտահոգությունները: Փորձագետները բազմիցս նշել են արհեստական ինտելեկտի հետ կապված հնարավոր ռիսկերը։ 2023 թվականի մարտի 29-ին ավելի քան 1000 տեխնոլոգիական ղեկավարներ ստորագրեցին նամակ՝ կոչ անելով դադարեցնել AI-ի զարգացումը, քանի որ այն «լուրջ վտանգներ է ներկայացնում հասարակության և մարդկության համար»: 2023 թվականի ապրիլի 27-ին Ջեֆրի Հինթոնը, ով հայտնի է որպես «AI-ի կնքահայր», հեռացավ Google-ից՝ պատճառաբանելով, որ ցանկանում էր ավելի բաց լինել տեխնոլոգիայի հնարավոր վտանգների մասին: 2023 թվականի նոյեմբերի 17-ին OpenAI-ի գործադիր տնօրեն Սեմ Ալթմանը ժամանակավորապես հեռացվեց աշխատանքից։ 2024 թվականի փետրվարի 12-ին արհեստական ինտելեկտի անվտանգության հետազոտող Ռոման Յամպոլսկին հայտարարեց, որ որևէ ապացույց չկա, որ տեխնոլոգիան հնարավոր է վերահսկել։ Մեկ ամիս անց նա մարդկության կործանման հավանականությունը գնահատեց «99,999999 տոկոս»։ 2024 թվականի մարտի 11-ին ԱՄՆ Պետդեպարտամենտի պատվիրած զեկույցը եզրակացրեց, որ արհեստական ինտելեկտը կարող է հանգեցնել մարդկանց ոչնչացման: 2024 թվականի մայիսի 17-ին OpenAI-ը լուծարեց իր անվտանգության թիմը։ Այնուամենայնիվ, ընկերություններն արդեն չափից դուրս են հայտնվել սպառազինությունների լայն մրցավազքի մեջ, որպեսզի ուշադրություն դարձնեն այս նախազգուշացումներին: Եվ քանի որ տեմպերը կբարձրանան, զարգացման տեմպերը կարագանան։ Օրինակ, քանի դեռ OpenAI-ն չէր առաջատարը, Google-ը դանդաղ էր զարգացնում AI-ի ոլորտում: Եթե Google-ը արագացնի, OpenAI-ն նույնպես ավելի արագ կշարժվի: