Ինչու չի կարելի վստահել չատբոտերին փաստերի ստուգման հարցում

Հայկ Հովհաննիսյան, #CivilNetCheck

Արհեստական բանականությամբ (AI) աշխատող չատբոտերը վերածվել են տեղեկատվության ստացման ակնթարթային միջոցի՝ օգնելով միլիոնավոր մարդկանց արագորեն գտնել իրենց հարցերի պատասխանները: Սակայն, երբ խոսքը վերաբերում է փաստերի ստուգմանը կամ հակասական թեմաներին, չատբոտերը հաճախ տարածում են կեղծ տեղեկատվություն՝ ներկայացնելով այն որպես ճշգրիտ:

#CivilNetCheck-ի ուսումնասիրությունը վեր է հանել, թե ինչպես են չատբոտերը մոլորեցնող կամ սխալ տեղեկատվություն տարածում Հայաստանի վերաբերյալ՝ բացահայտելով, թե որքան խնդրահարույց է չատբոտերին դիտարկել որպես վստահելի աղբյուր փաստերի ստուգման գործընթացում։

Ինչպես են չատբոտերը տարածում քարոզչություն

Վերջերս հայկական մեդիա դաշտում լայնորեն շրջանառվում էր կեղծ տեղեկություն, թե Միացյալ Նահանգները Հայաստանում իբր «գաղտնի բիոլաբորատորիաներ» ունի, որոնցում իրականացվում են վտանգավոր վիրուսների փորձարկումներ հայաստանցիների վրա։

Երբ OpenAI ընկերության ChatGPT-ին հարցրինք արդյոք այս տեղեկությունը ճի՞շտ է, չատբոտը փաստացի հաստատեց այն՝ հղում անելով «արտահոսած փաստաթղթերի» և armenia.news-pravda.com կայքին, որը ռուսական քարոզչական աղբյուր է։

Էկրանապատկերում՝ ChatGPT-ի 4o մոդելի սխալ պատասխանը

#CivilNetCheck-ը, սակայն, պարզել էր, որ այս տեղեկությունը, ինչպես նաև «արտահոսած փաստաթղթերը» կեղծ են և տարածվում են ռուսական ծագում ունեցող կասկածելի քարոզչական աղբյուրների կողմից։

2025-ի մարտին վերլուծական NewsGuard կազմակերպության հետազոտությունը պարզել էր, որ ռուսական «Պրավդա» (Правда) քարոզչական ցանցը համակարգված կերպով հրապարակել է ավելի քան 3.6 միլիոն կեղծ հոդվածներ տասնյակ լեզուներով՝ հատուկ նպատակ ունենալով մոլորեցնել չատբոտերին: Դրանցից 33%-ը հայտնվել էին առաջատար չատբոտների պատասխաններում՝ հատկապես ՆԱՏՕ-ի, Ուկրաինայի և կենսալաբորատորիաների մասին թեմաներում։

Չատբոտերի տվյալները հաճախ հնացած են

Շաբաթներ առաջ հայկական լրատվամիջոցներում լայնորեն տարածվեց մեկ այլ կեղծիք՝ իբր նորընտիր Հռոմի Պապը՝ Ռոբերտ Պրևոստն ունի հայկական արմատներ։

Հետաքրքրական է, որ որոշ չատբոտեր խուսափեցին այս մասին հարցին հստակ պատասխանել, կամ էլ պատասխանում նշեցին նախորդ՝ Ֆրանցիսկոս պապի մասին, որն ամիսներ առաջ մահացել է։

Էկրանապատկերում՝ ChatGPT-ի 4o մոդելի հին տվյալներով պատասխանը

Reuters Institute-ի 2024 թվականի ապրիլին հրապարակված հետազոտությունը փաստում է, որ AI-ն իսկապես օգնում է հետազոտողներին՝ արագացնելով պատկերների ստուգումը և աղբյուրների որոնումը, սակայն դրա արդյունավետությունը կտրուկ նվազում է «փոքր» լեզուներով աշխատելիս, ինչպիսիք են վրացերենը կամ հայերենը:

Չատբոտերը հորինում են իրադարձություններ և հայտարարություններ

Երբ Google ընկերության նորագույն Gemini 2.5 Flash մոդելին հարցրինք` արդյոք ճիշտ է, որ Հայաստանի բարձր տեխնոլոգիական արդյունաբերության նախարարը հայտարարել է Հայաստանում օդանավերի և տիեզերանավերի արտադրության մասին, չատբոտն առանց վարանելու պնդեց, որ նման հայտարարություն իսկապես արվել է՝ ամբողջությամբ հորինելով ոչ միայն իրադարձությունը, այլև դրա բոլոր մանրամասները:

Էկրանապատկերում Gemini-ի 2.5 Flash մոդելի ամբողջովին հորինված պատասխանը

Ընդ որում, պատասխանում չատբոտը նշել էր, թե այդ հայտարարությունն արել է ԲՏԱ նախարար Ռոբերտ Խաչատրյանը 2023-ի մարտի 14-ին «Հայաստան. կլիմայական ներդրումների գագաթնաժողով» կոչվող միջոցառման շրջանակում։ Իրականությունն այն է, որ Խաչատրյանը նախարարի պաշտոնը ստանձնել է միայն 2023-ի ապրիլից, երբեք նման հայտարարություն չի արել, իսկ նշված խորագրով գագաթնաժողով պարզապես չի եղել։

2025-ի մարտին հայկական որոշ լրատվամիջոցներ նման հայտարարություն վերագրում էին գործող ԲՏԱ նախարար Մխիթար Հայրապետյանին, որը, սակայն, ինչպես պարզել էր #CivilNetCheck-ը, նման բան չէր ասել։

2025-ի ապրիլին TechCrunch տեխնոլոգիական պարբերականը հաղորդեց, որ OpenAI-ի նորագույն o3 և o4-mini մոդելները նախորդ սերունդներից շատ ավելի հաճախ են հալյուցինացիաներ ունենում, այսինքն՝ պատասխաններում հորինում են կեղծ տեղեկություններ, որոնք որևէ իրական աղբյուրով հիմնավորված չեն:

Չատբոտերը չեն տարբերում իրական և կեղծ պատկերները

Հարկավոր է հիշել, որ չատբոտերը որպես կանոն չեն կարողանում ճիշտ գնահատել պատկերների իսկությունը: Այս տարվա սկզբին համացանցում արագորեն տարածվեց Լոս Անջելեսի խորհրդանիշներից՝ Hollywood գրությամբ բլուրի այրվելու արհեստական բանականությամբ ստեղծված պատկեր:

Թե՛ #CivilNetCheck-ը, թե՛ բազմաթիվ փաստեր ստուգող այլ կազմակերպություններ պարզեցին, որ պատկերն ամբողջությամբ կեղծ է և գրությունը չի այրվել:

Սակայն, հակառակ այս փաստի, Antropic ընկերության Claude չատբոտը, որը համարվում է ոլորտի ամենավստահելի մոդելներից, միանշանակ պնդեց, որ AI-ով ստեղծված այս կեղծ լուսանկարն իրական է:

Էկրանապատկերում՝ Claude-ի սխալ պատասխանը, որը պնդում է, որ Hollywood-ի այրվող գրությամբ պատկերն իրական է

Նմանատիպ վրիպում թույլ է տվել նաև Google-ի Gemini չատբոտը, որն արհեստական բանականությամբ գեներացված մեկ այլ պատկեր, որը իբրև երևում էին Ուկրաինայի կողմից «Սարդոստայն» օպերացիայի ընթացքում ոչնչացված ռուսական ինքնաթիռները, նույնպես համարել է իրական:

#CivilNetCheck-ը այս պատկերը պարունակող տեսանյութը ևս ստուգել էր և պարզել, որ այն գեներացված էր արհեստական բանականության միջոցով և տարածվում էր ուկրաինական հատուկ գործողության իրական կադրերին զուգահեռ։

Էկրանապատկերում Gemini-ի սխալ պատասխանը, որը հաստատում է AI-ով ստեղծված պատկերի իսկությունը

2025-ի մայիսին NewsGuard-ը ուսումնասիրություն էր իրականացրել՝ պարզելու, թե ինչպես են 11 առաջատար չատբոտեր արձագանքում տարածված կեղծիքների վերաբերյալ հարցումներին: Արդյունքները խիստ մտահոգիչ էին. գրեթե յուրաքանչյուր երկրորդ պատասխան կա՛մ պարունակել էր ակնհայտ կեղծ տեղեկատվություն (28%), կա՛մ խուսափել էր ուղիղ պատասխանից (13%):

Համացանցով որոնման արդյունքները հաճախ ևս անվստահելի են

TechCrunch պարբերականի՝ 2025-ի մայիսին հրապարակած հետազոտությունը ցույց էր տալիս, որ չատբոտերին «կարճ պատասխանիր» հրահանգով հարցումները զգալիորեն մեծացնում են պատասխանում փաստական սխալների և հալյուցինացիաների հավանականությունը:

Այսպես, երբ համացանցում խորացված որոնման հնարավորությամբ օժտված Perplexity-ին կամ ChatGPT-ի «մտածող» o3 մոդելին հարցնում ենք՝ արդյոք ճիշտ է, որ Հայաստանը դիտարկում է հարավկորեական տանկերի ձեռքբերման հնարավորությունը, չատբոտերը միանշանակ հաստատում են այս տեղեկությունը՝ անգամ հորինելով, թե այդ մասին պաշտոնապես հայտարարել է ՀՀ պաշտպանության նախարարությունը։

Էկրանապատկերում՝ ChatGPT-ի o3 մոդելի սխալ պատասխանը

Իրականում այս տեղեկատվությունն ամբողջովին անհիմն է, և չատբոտերի պատասխանը հիմնված է սեփական հալյուցինացիաների և հայկական մի քանի լրատվամիջոցների ոչ փաստահեն հրապարակումների վրա: Հայաստանի պաշտպանության նախարարությունը նման հայտարարություն չի արել։

Washington Post-ը 2025-ի հունիսի 3-ին ուշագրավ հետազոտություն էր հրապարակել, որում մանրամասն քննարկվում էր, թե ինչպես են ավտոմատացումն ու գեներատիվ արհեստական բանականությունը մարդկանց մոտ առաջացնում «ավտոմատացման կողմնակալություն»՝ հակում կուրորեն վստահելու ալգորիթմին, նույնիսկ երբ առկա են ակնհայտ սխալներ:

Պետական որոշումներ՝ AI-ի օգնությամբ

Հայաստանյան որոշ պաշտոնյաներ արհեստական բանականության չատբոտերին սկսել են ընկալել որպես վստահելի տեղեկատվական աղբյուր՝ նույնիսկ պետական քաղաքականության, վիճակագրության կամ օրենսդրական հիմնավորումների մակարդակում։

2025-ի հունվարին, երբ բուռն քննարկվում էր Երևանում տրանսպորտի սակագնի բարձրացումը, Ազգային ժողովի «Քաղաքացիական պայմանագիր» խմբակցության պատգամավոր Արսեն Թորոսյանը ChatGPT-ից և DeepSeek-ից ստացած պարզունակ հաշվարկները ներկայացրեց որպես փաստարկ՝ տրանսպորտային նոր փաթեթների մատչելիության վերաբերյալ։

Մարտին իշխանական խմբակցության մեկ այլ պատգամավոր Խաչատուր Սուքիասյանը հայտարարեց, որ Հայաստանը մեկ շնչին բաժին ընկնող ՀՆԱ-ով վեցերորդն է նախկին ԽՍՀՄ երկրների շարքում, ինչը հերքվեց Media.am-ի փաստեր ստուգողների կողմից։ Հետագայում պատգամավորը խոստովանեց, որ տվյալը ստացել է ռուսալեզու կայքից և «արհեստական բանականությունից»։

«Քաղաքացիական պայմանագրի» մեկ այլ պատգամավոր՝ Հայկ Սարգսյանը հունիսին օրենսդրական քննարկման ժամանակ ներկայացրեց Հայաստանի զինված ուժերում ժամկետային զորակոչի վիճակագրություն, որոնք, ըստ իր խոսքերի, ստացել էր «արհեստական բանականությունից»։ Պատգամավորը այդպիսով հիմնավորում էր կարճաժամկետ ծառայության մասին իր հեղինակած օրինագծի անհրաժեշտությունը։

Ուշագրավ է, որ 2025-ի մայիսին Washington Post-ը բացահայտեց, որ նույնիսկ ԱՄՆ կառավարության առողջապահության ոլորտի պաշտոնական զեկույցը պարունակում էր բազմաթիվ կեղծ աղբյուրներ և արհեստական բանականությամբ ստեղծված հատվածներ։

Այս դեպքերը ցույց են տալիս, որ որոշ պետական պաշտոնյաներ հաճախ օգտագործում են չատբոտերի պատասխանները որպես վստահելի աղբյուր՝ անտեսելով, որ այդ համակարգերը կարող տրամադրել չստուգված կամ հորինված տեղեկություններ։

Ամփոփելով՝ չատբոտերը անշուշտ կարող են ծառայել որպես տեղեկատվության ստուգման օժանդակ միջոցներ, սակայն ունեն լուրջ սահմանափակումներ ու խնդիրներ։ Դրանց տրամադրած տվյալները հաճախ հիմնված են հնացած, չստուգված կամ նույնիսկ կեղծ աղբյուրների վրա և պահանջում են պարտադիր վերստուգում։

Մեկնաբանել