Մարդկանց մեծ մասը չի կարողացել տարբերել Sora նեյրոցանցի ստեղծած տեսանյութերն իրականից

11 մարտի, 2024  15:26

Մի քանի շաբաթ առաջ Open AI ընկերությունը ներկայացրեց Sora նեյրոցանցը, որը տեքստային նկարագրության հիման վրա մինչև մեկ րոպե տևողությամբ (1920 × 1080 պիքսել կետայնությամբ) իրատեսական տեսանյութեր է ստեղծում։ Այժմ HarrisX ընկերությունը հարցում է անցկացրել ամերիկացի մեծահասակների շրջանում՝ խնդրելով տարբերակել արհեստական բանականության (ԱԲ) միջոցով ստեղծված տեսանյութերն իրականից: Պարզվել է, որ հարցվածների մեծ մասը սխալվել է և չի կարողացել տարբերել ԱԲ-ով ստեղծվածներն իրականից։

Մարտի 1-ից 4-ը ԱՄՆ-ում անցկացված հարցմանը մասնակցել է ավելի քան 1000 ամերիկացի։ Հետազոտության հեղինակները ստեղծել են չորս բարձրորակ տեսանյութ՝ օգտագործելով Sora նեյրոցանցը, ինչպես նաև ընտրել են չորս կարճ տեսանյութեր, որոնք նկարահանվել են իրական աշխարհում: Հարցվողներին այդ տեսանյութերը ցուցադրվել են պատահական կարգով, և նրանց նպատակն է եղել պարզել՝ տեսանյութը մարդո՞ւ կողմից է արված, թե՞ ԱԲ-ի: Հարցման մասնակիցների կարծիքները տարբեր են եղել, սակայն ութ դեպքից հինգում հարցվածների մեծ մասը տվել է սխալ պատասխան։

Sora poll.jpg (188 KB)

Ինչպես գրում է Variety պարբերականը, այս հետազոտությունը ցույց է տալիս, որ գեներատիվ նեյրոցանցերի միջոցով ստեղծված բովանդակությունը գնալով ավելի իրատեսական է դառնում, և այն իրականից տարբերելը գնալով ավելի է դժվարանում: Այդ իսկ պատճառով տարբեր երկրներում հաճախակի են դարձել այս ոլորոտի օրենսդրական կարգավորման անհրաժեշտության մասին իշխանություններին ուղղված կոչերը։ Ի թիվս այլ բաների, առաջարկվում է նեյրոցանցեր օգտագործողներին պարտավորեցնել, որ համապատասխան կերպով նշեն գեներացված բովանդակությունը, որպեսզի այն չմոլորեցնի մյուսներին և չդառնա ապատեղեկատվության աղբյուր։

Sora ալգորիթմը դեռ հասանելի չէ լայն հանրությանը, սակայն այն արդեն լուրջ մտահոգություն է առաջացնում հասարակության շրջանում, հատկապես զվարճանքի ոլորտում, որտեղ վիդեո բովանդակության ստեղծման տեխնոլոգիաների զարգացումը շատ բացասական հետևանքներ է առաջացնում, օրինակ՝ կինոստուդիաների համար։ Բացի դրանից՝ ավելի ու ավելի է բարձրացվում այն ​​հարցը, որ Sora-ի նման ալգորիթմները կարող են օգտագործվել քաղաքական գործիչների և հայտնի մարդկանց մասնակցությամբ կեղծ տեսանյութեր ստեղծելու համար, ինչը կարող է հանգեցնել ամենաանկանխատեսելի հետևանքների:


 
 
 
 
  • Արխիվ