Google-ի արհեստական ինտելեկտն ավելի լավ է կարդում շուրթերով, քան մարդը
ԵՐԵՎԱՆ, 22 նոյեմբերի. /ԱՌԿԱ/. Google DeepMind-ի և Օքսֆորդի համալսարանների գիտնականների կողմից համատեղ մշակված արհեստական ինտելեկտի ալգորիթմերը գերազանցել են մարդու` խոսողի արտաբերմանը հետևելու կարողությունը։ Նրանց ստեղծած ծրագրի արդյունքները 35 տոկոսով ավելի բարձր են, քան շուրթերով կարդացողներինը, գրում է vesti.ru–ն։
Ինչպես հաղորդում է New Scientist-ը, Google-ի ԱԻ համակարգին սովորեցրել են վեց շոուների ժամանակ (Newsnight, BBC Breakfast և Question Time), որոնք եթեր են դուրս եկել 2010-2015 թթ.-ին` «ցուցադրելով» 5 հազար ժամ տևողությամբ տեսանյութ (մոտ 118 հազար առաջարկություն): Ալգորիթմերի արդյունավետությունը ստուգվել է 2016 թ.-ին մարտից սեպտեմբեր ընկած ժամանակահատըվածում թողարկված հեռուստահաղորդումների վրա:
Պատահական ընտրությամբ 200 տեսահատվածներից մարդը, մասնագիտացված ընթերցողն անսխալ կարողացել է հասկանալ արսասանած բառերի միայն 12,4 տոկոսը, մինչեռ համակարգչային ալգորիթմերը` 46,8 տոկոս: Ընդ որում, ստացված արդյունքները կարող էին ավելի լավը լավը լինել, սակայն որոշ դեպքերում աուդիոն և վիդեոն մեկ վայրկյան ուշացում ունեին, ինչը խանգարում է ԱԻ-ին ճիշտ կառուցել ասոցիատիվ կապերը:
Դրանից երկու շաբաթ առաջ Օքսֆորդի հետազոտողների կողմից մշակված խորը ուսուցման համակարգը (ալգորիթմերը, որոնք սովորեցնում են նոյրոցանցերին «մտածել» և տրամաբանական շղթա կառուցել) նույնպես գերազանցեց GRID թեստի ժամանակ մարդու ցուցանիշները: Սակայն եթե GRID-ի բառապաշարը կազմված էր ընդամենը 51 բացառիկ բառերից, ապա BBC-ի հեռուստաշոուում արտասանվել է այդպիսի 17500 բառ, ինչն ավելի մեծ դժվարություն էր ներկայացնում համակարգչային ալգորիթմերի համար:
Google-ի ԱԻ-ի համակարգը դժվար թե հնարավոր լինի գործարկել գաղտնալսման համար, քանի որ ուղղորդված բարձրախոսները այդ խնդիրը ավելի լավ են լուծում: Ավելի հավանական սցենարն այն է, որ ալգորիթմերը կկիրառվեն սպառողական սարքերում` օգնելու համար Android սմարֆոններին հասկանալ, թե ինչ է փորձում ասել օգտատերը աղմկոտ միջավայրում: -0-
Ծանոթացեք լուրերին առաջինն ու քննարկեք դրանք մեր Telegram-ում
15:23 22.11.2016