Կատարյալ կեղծ տեսանյութերը կճանաչվեն արհեստական բանականությամբ
Կատարյալ կեղծ տեսանյութերը կճանաչվեն արհեստական բանականությամբ

Video: Կատարյալ կեղծ տեսանյութերը կճանաչվեն արհեստական բանականությամբ

Video: Կատարյալ կեղծ տեսանյութերը կճանաչվեն արհեստական բանականությամբ
Video: Vorbereitung für die Prüfung B2 - YouTube 2024, Ապրիլ
Anonim
Անգլիայում սկսվում է Լիտվինենկոյի թունավորման մասին օպերայի պրեմիերան
Անգլիայում սկսվում է Լիտվինենկոյի թունավորման մասին օպերայի պրեմիերան

Մեկ տարի առաջ Ստենֆորդի Manish Agrawala- ն օգնեց զարգացնել շուրթերի համաժամացման տեխնոլոգիան, որը թույլ էր տալիս տեսախմբագիրներին գրեթե աննկատելիորեն փոխել խոսնակների խոսքերը: Գործիքը կարող էր հեշտությամբ տեղադրել բառեր, որոնք անձը երբեք չի ասել, նույնիսկ նախադասության կեսին, կամ ջնջել իր ասած բառերը: Ամեն ինչ իրատեսական կլինի անզեն աչքով և նույնիսկ շատ համակարգչային համակարգերի համար:

Այս գործիքը շատ ավելի դյուրին է դարձրել սխալները ՝ առանց ամբողջ տեսարանները նորից նկարահանելու, ինչպես նաև հարմարեցրել է հեռուստահաղորդումներ կամ ֆիլմեր տարբեր վայրերի տարբեր հանդիսատեսների համար: Բայց այս տեխնոլոգիան նաև անհանգստացնող նոր հնարավորություններ է ստեղծել դժվար գտնելու կեղծ տեսանյութերի համար ՝ ճշմարտությունը խեղաթյուրելու հստակ մտադրությամբ: Օրինակ, վերջերս հանրապետական տեսահոլովակը rո Բայդենի հետ հարցազրույցի համար օգտագործել էր ավելի կոպիտ տեխնիկա:

Այս ամառ Ագռավալան և Stanford- ի և UC Berkeley- ի գործընկերները ներկայացրեցին արհեստական ինտելեկտի վրա հիմնված մոտեցումը շրթունքների համաժամացման տեխնոլոգիայի նկատմամբ: Նոր ծրագիրը ճշգրիտ կերպով հայտնաբերում է կեղծիքների ավելի քան 80 տոկոսը ՝ ճանաչելով մարդկանց հնչյունների և բերանի ձևի ամենափոքր անհամապատասխանությունները:

Սակայն Ստենֆորդի MediaԼՄ-ների նորարարության ինստիտուտի տնօրեն և Forest Baskett- ի համակարգչային գիտության պրոֆեսոր Ագրավալան, ով նաև Սթենֆորդի Մարդկակենտրոն արհեստական բանականության ինստիտուտի հետ է կապված, զգուշացնում է, որ խորը կեղծիքների երկարաժամկետ տեխնիկական լուծում չկա:

Ինչպես են աշխատում կեղծիքները

Տեսանյութերի մանիպուլյացիայի օրինական պատճառներ կան: Օրինակ, յուրաքանչյուրը, ով նկարահանում է գեղարվեստական հեռուստաշոու, ֆիլմ կամ գովազդ, կարող է ժամանակ և գումար խնայել ՝ օգտագործելով թվային գործիքներ ՝ սխալները շտկելու կամ սցենարները հարմարեցնելու համար:

Խնդիրն առաջանում է, երբ այդ գործիքները միտումնավոր են օգտագործվում կեղծ տեղեկություններ տարածելու համար: Եվ տեխնիկաներից շատերն անտեսանելի են միջին դիտողի համար:

Շատ խորը կեղծ տեսանյութեր հիմնված են դեմքի փոխանակման վրա ՝ բառացիորեն մի մարդու դեմքը տեղադրելով մեկ այլ մարդու տեսանյութի վրա: Բայց չնայած դեմքը փոխող գործիքները կարող են գրավիչ լինել, դրանք համեմատաբար կոպիտ են և սովորաբար թողնում են թվային կամ տեսողական արտեֆակտներ, որոնք համակարգիչը կարող է հայտնաբերել:

Մյուս կողմից, շուրթերի համաժամացման տեխնոլոգիաներն ավելի քիչ տեսանելի են և, հետևաբար, ավելի դժվար է հայտնաբերել: Նրանք շահարկում են պատկերի շատ ավելի փոքր հատվածը, այնուհետև սինթեզում շուրթերի շարժումները, որոնք ճշգրիտ համընկնում են այն բանի հետ, թե իրականում ինչպես կշարժվեր մարդու բերանը, եթե նա խոսեր որոշակի բառեր: Ըստ Agrawal- ի ՝ հաշվի առնելով մարդու կերպարի և ձայնի բավականաչափ նմուշներ, կեղծ արտադրողը կարող է ստիպել մարդուն «ասել» որևէ բան:

Կեղծիքի հայտնաբերում

Անհանգստացած նման տեխնոլոգիայի ոչ էթիկական կիրառմամբ, Ագրավալան աշխատել է Ստենֆորդի դոկտորանտուրա Օհադ Ֆրիդի հետ `հայտնաբերման գործիք մշակելու համար. Հանի Ֆարիդ, Կալիֆոռնիայի համալսարանի Բերքլիի տեղեկատվական դպրոցի պրոֆեսոր; և Բերքլիի դոկտորանտուրայի ուսանող Շրուտի Ագարվալը:

Սկզբում գիտնականները փորձարկումներ արեցին զուտ ձեռքով տեխնիկայի միջոցով, որի ընթացքում դիտորդներն ուսումնասիրում էին տեսանկարահանումները: Այն լավ էր աշխատում, բայց գործնականում դա աշխատատար էր և ժամանակատար:

Հետո հետազոտողները փորձարկեցին արհեստական ինտելեկտի վրա հիմնված նյարդային ցանցը, որը շատ ավելի արագ կլիներ նույն վերլուծությունը կատարել նախկին նախագահ Բարաք Օբամայի հետ տեսաֆիլմերի պատրաստումից հետո: Նեյրոնային ցանցը հայտնաբերեց Օբամայի սեփական շրթունքների համաժամացման ավելի քան 90 տոկոսը, չնայած այլ խոսնակների ճշգրտությունը նվազեց մինչև մոտ 81 տոկոս:

Testշմարտության իսկական փորձություն

Գիտնականներն ասում են, որ իրենց մոտեցումը միայն կատուների և մկների խաղի մի մասն է: Կեղծման խորը տեխնիկան կատարելագործվելու դեպքում դրանք նույնիսկ ավելի քիչ բանալիներ կթողնեն:

Ի վերջո, ասում է Ագրավալան, իրական խնդիրը ոչ այնքան խորը կեղծ տեսանյութերի դեմ պայքարելն է, որքան ապատեղեկատվության դեմ պայքարը: Իրականում, նշում է նա, ապատեղեկատվության մեծ մասը ծագում է մարդկանց իրականում ասվածի իմաստը խեղաթյուրելուց:

«Ապատեղեկատվությունը նվազեցնելու համար մենք պետք է բարելավենք մեդիագրագիտությունը և մշակենք հաշվետվողականության համակարգ», - ասում է նա: «Սա կարող է նշանակել ապատեղեկատվության կանխամտածված արտադրությունն ու դրանց խախտման հետևանքներն արգելող օրենքներ, ինչպես նաև դրանից բխող վնասը վերացնելու մեխանիզմներ»:

Խորհուրդ ենք տալիս: