Jump to content

Մեքենայական ուսուցում

Վիքիպեդիայից՝ ազատ հանրագիտարանից

Մեքենայական ուսուցում (անգլ.՝ machine learning), համակարգչային ալգորիթմների ուսումնասիրություն է, որը կարող է ավտոմատ կատարելագործվել փորձի և տվյալների օգտագործման միջոցով[1]։ Այն դիտարկվում է որպես արհեստական ինտելեկտի մաս։ Մեքենայական ուսուցման ալգորիթմները նմուշային տվյալների հիման վրա կառուցում են մոդել, հայտնի որպես մարզման տվյալներ, որպեսզի կանխատեսումներ կամ որոշումներ իրականացնեն՝ առանց դրա համար հստակ ծրագրավորված լինելու։[2] 915 / 5000

Մեքենայական ուսուցման ալգորիթմներն օգտագործվում են բազմաթիվ բնագավառներում, ինչպիսիք են բժշկությունը, էլփոստի զտումը, խոսքի ճանաչումը և համակարգչային տեսողությունը, որտեղ անհրաժեշտ աշխատանքները իրականացնելու համար դժվար է կամ անիրագործելի է մշակել սովորական ալգորիթմներ[3]։

Մեքենայական ուսուցման ենթաբազմությունը սերտորեն կապված է համակարգչային վիճակագրության հետ, որը կենտրոնանում է համակարգիչների միջոցով կանխատեսումներ կատարելու վրա. բայց ոչ բոլոր մեքենայական ուսուցումն է վիճակագրական ուսուցում։ Մաթեմատիկական օպտիմիզացիան ապահովում է մեքենայական ուսուցման մեթոդներ, տեսություն և կիրառական տիրույթ է ապահովում մեքենայական ուսուցման բնագավառին։ Տվյալների ինտելեկտուալ հետազոտությունը ուսումնասիրության հարակից ոլորտ է, որտեղ հիմնական ուշադրությունը դարձվում է տվյալների հետազոտական վերլուծությանը անվերահսկվող ուսուցման միջոցով։[5][6] Մեքենայական ուսուցման որոշ ծրագրեր տվյալները և նեյրոնային ցանցերն օգտագործում են կենսաբանական ուղեղի աշխատանքի նմանակող եղանակով[7][8]։ Բիզնեսի խնդիրներին վերաբերող կիրառություններում, մեքենայական ուսուցումը նաև կոչվում է կանխատեսող վերլուծություն։

Ընդհանուր ակնարկ

[խմբագրել | խմբագրել կոդը]

Մեքենայական ուսուցման ալգորիթմներն աշխատում են այն ելակետի վրա, որ ռազմավարությունները, ալգորիթմները և եզրակացությունները, որոնք լավ են աշխատել անցյալում, հավանաբար կշարունակեն լավ աշխատել ապագայում։ Այս եզրակացությունները կարող են ակնհայտ լինել, օրինակ՝ «քանի որ վերջին 10000 օրվա ընթացքում արևը ծագել է ամեն առավոտ, հավանաբար վաղն առավոտյան նույնպես կծագի»։ Դրանք կարող են երանգավորվել, օրինակ՝ «ընտանիքներ-ի X%-ն ունեն աշխարհագրորեն առանձին տեսակներ՝ գունային տարբերակներով, ուստի կա Y% հավանականություն, որ գոյություն ունեն չբացահայտված սև կարապներ»[9]։

Մեքենայական ուսուցման ծրագրերը կարող են կատարել առաջադրանքներ՝ առանց դրանք իրականացնելու համար հստակ ծրագրավորված լինելու։ Այն ներառում է համակարգիչներ, որոնք տրամադրված տվյալներից սովորում են որոշակի առաջադրանքներ կատարել։ Համակարգիչներին հանձնարարված պարզ առաջադրանքների դեպքում հնարավոր է ծրագրավորել ալգորիթմներ, որոնք մեքենային կհուշեն խնդիրը լուծելու համար անհրաժեշտ բոլոր քայլերը․ համակարգչի կողմից սովորելու կարիք չկա։ Ավելի բարդ առաջադրանքների դեպքում հնարավոր է մարդու համար դժվար լինի անհրաժեշտ ալգորիթմներ ստեղծելը։ Գործնականում ավելի արդյունավետ կարող է լինել օգնել մեքենային մշակել իր սեփական ալգորիթմը, այլ ոչ թե յուրաքանչյուր անհրաժեշտ քայլը ծրագրավորողները նշեն[10]։

Այն խնդիրների համար, որոնք չունեն լիովին բավարարող ալգորիթմներ, մեքենայական ուսուցան ճյուղը համակարգիչներին սովորեցնելու տարբեր մոտեցումներ է աշխատեցնում։ Այն գեպքերում, երբ բազմաթիվ պոտենցիալ պատասխաններ են առկա, մոտեցումներից մեկն այն է՝ ճիշտ պատասխաններից մի քանիսը պիտակավորել որպես ընդունելի։ Այնուհետ սրանք կարելի է օգտագործել որպես մարզման տվյալներ այն ալգորիթմներում, որոնք օգտագործում են դրանք ճիշտ պատասխանները որոշելու համար։ Օրինակ, որպեսզի համակարգը մարզեն թվային սիմվոլները ճանաչելու մեջ, հաճախ օգտագործվում էր ձեռագիր թվանշանների MNIST հավաքածու[10]։

Պատմություն և հարաբերություններ այլ ոլորտների հետ

[խմբագրել | խմբագրել կոդը]

«Մեքենայական ուսուցում» տերմինը հորինվել է 1959 թվականին ամերիկացի IBMer և համակարգչային խաղերի և արհեստական ինտելեկտի ոլորտում առաջամարտիկ Արթուր Սամուել կողմից[11][12]։ Այդ ժամանակահատվածում օգտագործվել է նաև «ինքնաուսուցվող համակարգիչներ» հոմանիշը[13][14]։ 1960-ականներին մեքենայական ուսուցման հետազոտության վերաբերյալ տարածված գիրքը Նիլսոնի «Մեքենաների ուսուցման մասին» գիրքն էր, որը հիմնականում վերաբերում էր շաբլոննների դասակարգման մեքենայական ուսուցմանը[15]:Ինչպես նկարագրել են Դուդան և Հարթը 1973 թվականին, շաբլոնների ճանաչման հետ կապված հետաքրքրությունը շարունակվեց մինչև 1970-ական թվականները[16]։ In 1981 թվականին ուսուցման ռազմավարությունների օգտագործման վերաբերյալ զեկույց տրվեց, այնպես որ նեյրոնային ցաանցը համակարգչային տերմինալից սովորում է ճանաչել 40 սիմվոլ (26 տառ, 10 թվանշան և 4 հատուկ սիմվոլ)[17]։

Թոմ Միտչելը ներկայացրեց ալգորիթմի լայնորեն տարածվախ ավելի ֆորմալ սահմանում, որն օգտագործվում է մեքենայական ուսուցման բնագավառում։ Ասվում է, որ «համակարգչային ծրագիրը T խնդիրների դասի նկատմամբ P արդյունավետության ցուցանիշով սովորում է E փորձառությունից, եթե նրա P արդյունավետության ցուցանիշը T խնդիրների դասը կատարելիս, բարելավվում է։»[18] Մեքենայական ուսուցման հետ կապված խնդիրների դասի այս սահմանումը ֆունդամենտալ է, այլ ոչ թե ճանաչողական տերմինների ոլորտում։ Սա հետևում է Ալան Թյուրինգի Հաշվիչ մեքենաներ հոդվածում կատարած հարցադրումից "Կարո՞ղ են մեքենաները մտածել", որը փոխարինվում է "Կարող են մեքենաներն անել այն ինչ մենք (մտածող էակները) ենք կարող"[19]։

Ժամանակակից մեքենայական ուսուցումը երկու նպատակ է հետապնդում՝ մշակված մոդելների հիման վրա տվյալների դասակարգում և ապագա արդյունքների կանխատեսում։ Տվյալների դասակարգման հատուկ հիպոթետիկ ալգորիթմը կարող է օգտագործել խալերի համակարգչային տեսողությունը՝ զուգակցված վերահսկվող ուսուցման հետ՝ վարժեցնելու քաղցկեղային խալերը դասակարգելու համար։ Իսկ ֆոնդային առևտրի մեքենայական ուսուցման ալգորիթմը կարող է վաճառողին տեղեկացնել ապագա հնարավոր կանխատեսումները[20]։

Արհեստական բանականություն

[խմբագրել | խմբագրել կոդը]
Մեքենայական ուսուցումը որպես ԱԲ-ի ենթաբազմություն[21]
Մեքենայական ուսուցման մասը որպես Արհեստական բանականության ենթաբաժին կամ Արհեստական բանականության մասը որպես Մեքենայական ուսուցման ենթաբաժին[22]

Որպես գիտական ուղղություն, մեքենայական ուսուցումն առաջացել է արհեստական ինտելեկտի որոնումներից։ Արհեստական ինտելեկտի վաղ շրջանում՝ ԱԲ-ն որպես գիտական ճյուղ դիտարկելիս, որոշ հետազոտողներ հետաքրքրված էին, որ մեքենաները սովորեն տվյալներից։ Նրանք փորձել են խնդրին մոտենալ տարբեր խորհրդանշական մեթոդներով, ինչն այն ժամանակ կոչվում էր «նեյրոնային ցանցեր»։ Հիմնականում դրանք պերսեպտրոններ և այլ մոդելներ էին, որոնք հետագայում դարձան վիճակագրության ընդհանրացված գծային մոդելների հայտնագործություններ[23]։

Այնուամենայնիվ, գիտելիքների վրա հիմնված տրամաբանական մոտեցման աճող շեշտադրումը հանգեցրեց ԱԲ-ի և մեքենայացված ուսուցման միջև խզմանը։ Հավանական համակարգերը տուժել են տվյալների հավաքագրման և ներկայացման տեսական և գործնական խնդիրներից։ 1980 թվականին փորձագիտական համակարգերը սկսեցին տիրել ԱԻ-ին, և վիճակագրությունը դուրս եկավ վերահսկողությունից։ Սիմվոլիկ / գիտելիքների վրա հիմնված ուսուցման աշխատանքը շարունակվել է ԱԲ-ի շրջանակներում, ինչը հանգեցրել էին դուկտիվ տրամաբանական ծրագրավորման, սակայն հետազոտության ավելի վիճակագրական ուղղությունը այժմ դուրս է եկել ԱԲ-ից, պատկերների ճանաչման և տեղեկատվության որոնման ոլորտում։ Նեյրոնային ցանցերի ուսումնասիրությունները դադարեցվել են արհեստական ինտելեկտի և ինֆորմատիկայի կողմից միևույն ժամանակ։ Այս գիծը նույնպես շարունակվել է AI/CS տարածքի սահմաններից դուրս, որպես «կոնեկցիոնիզմ», այլ առարկաներից հետազոտողների կողմից, ներառյալ Հոպֆիլդը, Ռումելհարտը և Հինթոնը։ Նրանց հիմնական հաջողությունը եկել է 1980-ականների կեսերին` երաիմաստավորելով հակառակ տարածումը։

Մեքենայական ուսուցումը (ML), որը վերակազմավորվել է առանձին տարածքի, սկսել է ծաղկել 1990-ականներին։ Այս տարածքը փոխել է իր նպատակը, հասնելով արհեստական բանականությունից մինչև գործնական խնդիրների լուծում։ Նա տեղափոխել է շեշտը արհեստական բանականությունից ժառանգած խորհրդանշական մոտեցումներից, մեթոդների և մոդելների վերցված վիճակագրության և հավանականության տեսության։

2020 թվականի դրությամբ շատ աղբյուրներ շարունակում են պնդել, որ մեքենայական ուսուցումը մնում է ԱԲ-ի տրամադրության տակ։ Հիմնական տարաձայնությունն կայանում է նրանում, թե ամբողջ ՄՈւ-ը հանդիսանում է ԱԲ-ի մի մասը, որովհետև դա կնշանակեր, որ ցանկացածը ով օգտագործում է ՄՈւ, կարող է պնդել, որ օգտագործում է ԱԲ[24][25][26]։

Մյուսները կարծում են, որ ոչ բոլոր ՄՈւ-ն ԱԲ-ի մի մասն է, որտեղ միայն ML-ի «խելացի» ենթաբազմությունը ՄՈւ-ի մի մասն է։

Այն հարցին, թե որն է տարբերությունը ՄՈւ-ի և ԱԲ-ի միջև, Ջուդեա Պեռլը պատասխանում է «Ինչու» գրքում։ Համապատասխանաբար, ՄՈւ-ը սովորում և կանխատեսում է պասիվ դիտարկումների հիման վրա, մինչդեռ ԱԲ-ն ենթադրում է շրջակա միջավայրի հետ փոխազդող գործակալ, որ սովորի և գործողություններ կատարի, որոնք առավելագույնի են հասցնում իր նպատակներին հասնելու հնարավորությունները[29]:

Տվյալների մայնինգ

[խմբագրել | խմբագրել կոդը]

Մեքենայական ուսուցումը և տվյալների մայնինգը հաճախ օգտագործում են նույն մեթոդները և համընկնում են զգալիորեն, բայց մինչ մեքենայական ուսուցումը կենրտոնանում է կանխատեսման վրա, տվյալների մայնինգը կենտրոնանում է տվյալների մեջ (նախկին) անհայտ հատկությունների հայտնաբերման վրա (սա տվյալների բազաներում գիտելիքների հայտնաբերման վերլուծության քայլ է)։

Տվյալների մայնինգը օգտագործում է մեքենայական ուսուցման բազմաթիվ մեթոդներ, բայց տարբեր նպատակներով. մյուս կողմից մեքենայական ուսուցումը նաև օգտագործում է տվյալնորի մայնինգի մեթոդներ՝ որպես «չվերահսկվող ուսուցում» կամ որպես նախնական մշակման քայլ՝ բարելավելու սովորողի ճշտգրտությունը։ Այս երկու հետազոտական համայնքների միջև շփոթության մեծ մասը (որոնք հաճախ ունենում են առանձին կոնֆերանսներ, ECML PKDD֊ն հիմնական բացառությունն է) գալիս է այն հիմնական ենթադրություններից, որոնց հետ նրանք աշխատում են. մեքենայական ուսուցման մեջ կատարողականը սովորաբար գնահատվում է հայտնի գիտելիքի վերարտադրելու ունակությամբ, մինչդեռ գիտելիքի հայտնաբերման և տվյալների մայնինգի (KDD) ժամանակ հիմնական խնդիրը մախկինում անհայտ գիտելիքի հայտնաբերումն է։

Օպտիմիզացում

[խմբագրել | խմբագրել կոդը]

Մեքենայական ուսուցումը նաև սերտ կապված է օպտիմիզացման հետ․ շատ ուսուցման խնդիրներ ձևակերպվում են որպես որոշ կորուստի ֆունկցիայի մինիմիզացիա մարզման օրինակների վրա։ Կորստի ֆունկցիաներն արտահայտում են մարզվող մոդելի կանխատեսումների և խնդրի իրական օրինակերի միջև եղած անհամապատասխանությունը[30]։

Ընդհանրացում

[խմբագրել | խմբագրել կոդը]

Օպտիմալացման և մեքենայական ուսուցման միջև տարբերությունը ծագում է ընդհանրացման նպատակից. օպտիմալացման ալգորիթմները կարող են նվազագույնի հասցնել կորուստը մարզման բազմության վրա, մինչդեռ մեքենայական ուսուցումը վերաբերում է անտեսանելի նմուշների կորուստը նվազագույնի հասցնելուն։ Ուսուցման տարբեր ալգորիթմների ընդհանրացումը բնութագրելը ընթացիկ հետազոտությունների թեմա է, հատկապես խորը ուսուցման ալգորիթմների համար։

Վիճակագրություն

[խմբագրել | խմբագրել կոդը]

Մեքենայական ուսուցումը և վիճակագրությունը մեթոդների առումով սերտ կապված ոլորտներ են, սակայն տարբերվում են իրենց հիմնական նպատակով. վիճակագրությունը բնակչության վերաբերյալ եզրակացություններ է անում նմուշների հիման վրա, մինչդեռ մեքենայական ուսուցումն ընդհանրական կանխատեսող օրինաչափություններ է գտնում[31]։ Համաձայն Մայքլ Ջորդանի՝ մեքենայական ուսուցման գաղափարները՝ մեթոդաբանական սկզբունքներից մինչև տեսական գործիքներ, երկար նախապատմություն են ունեցել վիճակագրության մեջ[32]։ Ընդհանուր ոլորտն անվանելու համար, նա նաև որպես տեղապահ առաջարկեց տվյալների գիտություն տերմինը[32]։

Լեո Բրեյմանը առանձնացրեց վիճակագրական մոդելավորման երկու պարադիգմ՝ տվյալների մոդել և ալգորիթմական մոդել[33], որտեղ «ալգորիթմական մոդելը» նշանակում է քիչ թե շատ մեքենայական ուսուցման ալգորիթմներ, ինչպիսին է Random forest-ը (պատահական անտառ)։

Որոշ վիճակագիրներ մեքենայական ուսուցումիցց մեթոդներ են որդեգրել, ինչը բերել է կոմբինացված դաշտի ստեղծմանը, որը նրանք անվանում են վիճակագրական ուսուցում[34]։

Մեքենայական ուսուցման ալգորիթմները, կախված ուսումնական համակարգին հասանելի «ազդանշանից» կամ «հետադարձ կապից», ավանդաբար բաժանվում են երեք լայն կատեգորիաների։

  • Ուսուցչի կողմից վերահսկվող ուսուցում․ Համակարգչին ներկայացվում են «ուսուցչի» կողմից մուտքային օրինակներ և դրանց ցանկալի ելքեր, որոնք տրվում են «ուսուցչի» կողմից, և նպատակն է ձեռք բերել ընդհանուր կանոն, որը մուտքային տվյալներին համապատասխանեցնում է ելքայիններըը։
  • Չվերահսկվող ուսուցում. Ուսուցման ալգորիթմին պիտակներ չեն տրվում՝ թողնելով նրան ինքնուրույն գտնել մուտքին համապատասխան կառուցվածքը Չվերահսկվող ուսուցումը կարող է ինքնանպատակ լինել (տվյալների մեջ թաքնված օրինաչափությունների հայտնաբերում) կամ նպատակին հասնելու միջոց (հատկությունների ուսուցում
  • Ուժեղացված ուսուցում․ Համակարգչային ծրագիրը փոխազդում է դինամիկ միջավայրի հետ, որտեղ այն պետք է որոշակի նպատակ իրականացնի (ինչպիսին՝ մեքենա վարելն է կամ հակառակորդի դեմ խաղ խաղալը)։ Երբ այն նավարկում է խնդրի տարածքում, ծրագրին պարգևների տիպի հետադարձ կապ է ապահովվում, որոնք և նա փորձում է առավելագույնի հասցնել[4]։

Վերահսկվող ուսուցում

[խմբագրել | խմբագրել կոդը]
Աջակցող-վեկտորային մեքենա վերահսկվող ուսուցման մոդել է, որը տվյալները բաժանում է գծային սահմանով առանձնացված շրջանների: Այստեղ գծային սահմանը բաժանում է սև շրջանակները սպիտակից:

Վերահսկվող ուսուցման ալգորիթմները կառուցում են տվյալների բազմության մաթեմատիկական մոդել, որը երկուսն էլ պարունակում է թե մուտքեր և թե ցանկալի ելքեր[35]։ Տվյալները հայտնի են որպես մարզման տվյալներ և բաղկացած են մարզման մի շարք օրինակներից։ Յուրաքանչյուր մարզման օրինակ ունի մեկ կամ ավելի մուտքեր և ցանկալի ելք, հայտնի նաև որպես վերահսկող ազդանշան։ Մաթեմատիկական մոդելում յուրաքանչյուր մարզման օրինակ ներկայացված է զանգվածով կամ վեկտորով, որ երբեմն անվանում են հատկանիշի վեկտոր, իսկ մարզման տվյալները ներկայացված են մատրիցայով։ Նպատակային ֆունկցիայի իտերատիվ օպտիմիզացիայի միջոցով վերահսկվող ուսուցման ալգորիթմներն ուսումնասիրում են ֆունկցիան, որը կարելի է օգտագործել նոր մուտքերի հետ կապված ելքը կանխատեսելու համար[36]։ Օպտիմալ ֆունկցիան թույլ կտա ալգորիթմին հնարավորություն կտա ճիշտ որոշել ելքը այն մուտքերի համար, որոնք մարզման տվյալների մաս չեն եղել։ Ասում են, որ ալգորիթմը սովորել է խնդիրը լուծել, եթե այն ժամանակի ընթացքում բարելավում է իր արդյունքների կամ կանխատեսումների ճշգրտությունը[18]։

Վերահսկվող ուսուցման ալգորիթմների տեսակները ներառում են ակտիվ ուսուցում, դասակարգում և ռեգրեսիա[37]։ Դասակարգման ալգորիթմներն օգտագործվում են, երբ ելքերի արժեքների բազմությունը սահմանափակ է, իսկ ռեգրեսիոն ալգորիթմները օգտագործվում են, երբ ելքերը կարող են ունենալ ցանկացած թվային արժեք միջակայքից։ Որպես օրինակ, դասակարգման ալգորիթմի համար, որը զտում է նամակները, մուտքը կլինի մուտքային նամակները, իսկ ելքը փաթեթի անունը, որտեղ կպահվի նամակը։

Նմանությամբ ուսուցումը վերահսկվող մեքենայական ուսուցման ոլորտ է, որը սերտորեն կապված է ռեգրեսիայի և դասակարգման հետ, սակայն նպատակն է սովորել օրինակներից՝ օգտագործելով նմանության ֆունկցիան, որը չափում է, թե որքան նման կամ կապված են երկու օբյեկտները։ Այն ունի վարկանիշավորման, առաջարկությունների համակարգերի, տեսողական ինքնության հետագծման, դեմքի ստուգման և բարձրախոսի ստուգման հավելվածներ։

Չվերահսկվող ուսուցում

[խմբագրել | խմբագրել կոդը]

Չվերահսկվող ուսուցման ալգորիթմները վերցնում են տվյալների բազմություն, որոնք միայն մուտքեր են պարունակում և գտնում տվյալների կառուցվածքը՝ տվյալների կետերի խմբավորումը կամ կլասերիզացիան։ Հետևաբար, ալգորիթմները սովորում են թեստային տվյալներից, որոնք պիտակավորված, դասակարգված կամ կատեգորիզացված չեն։ Չվերահսկվող ուսուցման ալգորիթմները հայտնաբերում են տվյալների մեջ առկա ընդհանրությունները և բացահայտում յուրաքանչյուր նոր տվյալների մեջ նման ընդհանրությունների առկայությունը կամ բացակայությունը։ Չվերահսկվող ուսուցման հիմնական կիրառումը խտության գնահատման դաշտն է վիճակագրության մեջ, օրինակ հավանականության խտության ֆունկցիան գտնելը[38]։ Չնայած չվերահսկվող ուսուցումն ընդգրկում է այլ ոլորտներ՝ տվյալների հատկությունների ամփոփումն ու բացատրությունը։

Կլաստերային վերլուծությունը դիտարկումների բազմության բաշխումն է ենթաբազմությունների (կոչվում են կլաստերներ), այնպես որ միևնույն կլաստերի դիտարկումները նման են ըստ նախապես տրված մեկ կամ մի քանի չափանիշների, մինչդեռ տարբեր կլաստերներից ստացված դիտարկումները տարբեր են։ Կլաստերավորման տարբեր մեթոդներ տվյալների կառուցվածքի վերաբերյալ տարբեր ենթադրություններ են անում, որոնք հաճախ սահմանված են որոշ նմանության մետրիկայով և գնահատվում են, օրինակ, ներքին կոմպակտությամբ կամ նույն կլաստերի անդամների միջև նմանությամբ և տարանջատվում կլաստերների տարբերությամբ։ Այլ մեթոդները հիմնված են ենթադրվող խտության և գրաֆների կապակցվածության վրա։

Կիսավերահսկվող ուսուցում

[խմբագրել | խմբագրել կոդը]

Կիսավերահսկվող ուսուցումը չվերահսկվող ուսուցման (առանց պիտակավորված վերապատրաստման տվյալների) և վերահսկվող ուսուցման (ամբողջովին պիտակավորված վերապատրաստման տվյալներով) միջև է։ Վերապատրաստման որոշ օրինակներում բացակայում են ուսուցանող պիտակները, սակայն մեքենայական ուսուցման շատ հետազոտողներ բացահայտել են, որ չպիտակավորված տվյալները, փոքր քանակությամբ պիտակավորված տվյալների հետ միասին օգտագործելիս, կարող են զգալի բարելավել ուսուցման ճշգրտությունը։

Թույլ վերահսկվող ուսուցման ժամանակ մարզման պիտակներն աղմկոտ են, սահմանափակ կամ ոչ ճշգրիտ։ Այնուամենայնիվ, այս պիտակները հաճախ ավելի էժան են ձեռք բերվում, ինչն հանգեցնում է ավելի մեծ արդյունավետ ուսուցանող հավաքածուների[39]։

Ամրապնդող ուսուցում

[խմբագրել | խմբագրել կոդը]

Ամրապնդող ուսուցումը մեքենայական ուսուցման ոլորտ է, որը վերաբերում է կուտակային պարգևի որոշ հասկացության առավելագույնի հասցնելուն, ծրագրային գործակալների գործողությունների ձեռնարկման միջոցով։ Իր ընդհանրության շնորհիվ ոլորտն ուսումնասիրվում է բազմաթիվ այլ ճյուղերում, ինչպիսիք են խաղերի տեսությունը, կառավարման տեսությունը, գործառնությունների հետազոտությունը, տեղեկատվական տեսությունը, սիմուլյացիայի վրա հիմնված օպտիմալացումը, բազմագործակալային համակարգերը, խմբերի տեսությունը, վիճակագրությունը և գենետիկական ալգորիթմները։ Մեքենայական ուսուցման մեջ միջավայրը սովորաբար ներկայացվում է որպես Մարկովյան որոշումներ ընդունելու գործընթաց (MDP): Ամրապնդող ուսուցման շատ ալգորիթմներ օգտագործում են դինամիկ ծրագրավորման տեխնիկա[40]։Ամրապնդող ուսուցման ալգորիթմները չեն ենթադրում MDP-ի ճշգրիտ մաթեմատիկական մոդելի իմացություն և օգտագործվում են, երբ ճշգրիտ մոդելներն անիրագործելի են։ Ամրապնդող ուսուցման ալգորիթմները օգտագործվում են ինքնակառավարվող տրանսպորտային միջոցներում կամ մարդ հակառակորդի դեմ խաղ խաղալ սովորելիս։

Չափականության կրճատում

[խմբագրել | խմբագրել կոդը]

Չափականության կրճատումը, հիմնական փոփոխականների բազմություն ստանալու եղանակով, դիտարկվող պատահական փոփոխականների քանակի կրճատման գործընթաց է[41]։ Այլ կերպ ասած, դա հատկանիշների բազմության չափը նվազեցնելու գործընթաց է, որը նաև կոչվում է «հատկությունների քանակ»։ Չափականության նվազեցման մեթոդներից շատերը կարելի է դիտարկել որպես հատկանիշի վերացում կամ հեռացում։ Չափականության կրճատման հանրաճանաչ մեթոդներից մեկը հիմնական բաղադրիչի վերլուծությունն է Այն ներառում է ավելի մեծ չափականության տվյալների (օրինակ՝ 3D) ավելի փոքր չափականության (օրինակ՝ 2D) փոխելը։ Սա հանգեցնում է տվյալների ավելի փոքր չափի (2D փոխարեն 3D), մոդելում պահպանելով բոլոր սկզբնական փոփոխականները[42]։ The manifold hypothesis proposes that high-dimensional data sets lie along low-dimensional manifolds, and many dimensionality reduction techniques make this assumption, leading to the area of manifold learning and manifold regularization.

1959 թվականին Արթուր Սամուելը սահմանեց մեքենայական ուսուցումը այսպես՝ «Հետազոտության ոլորտ է, որը հնարավորություն է տալիս մեքենային սովորել այն, ինչ բացահայտ ծրագրավորած չէ»։

Իսկ 1998-ին Թոմ Միտչելը սահմանեց ուսուցման խնդիրը հետևյալ կերպ՝ «Համակարգչային ծրագիրը ուսուցանվում է՝ ելնելով E փորձից, հաշվի առնելով T խնդիրը և ինչ որ մի P էֆեկտիվության գործակից, այնպես որ նրա(համակարգչային ծրագրի) էֆեկտիվությունը T խնդրի համար, որը չափվում է P էֆեկտիվության գործակցով, բարելավվի E փորձի ընթացքում։»

Ուսուցման եղանակներ

[խմբագրել | խմբագրել կոդը]

Հիմնական։

  • Վերահսկվող ուսուցում (Supervised learning)
  • Առանց վերահսկման ուսուցում (Unsupervised learning)
  • Ամրապնդմամբ ուսուցում (Reinforcement learning )

Այլ։

  • Կիսավերահսկվող ուսուցում (Semi-supervised learning)
  • Տրանսդուկցիոն ուսուցում (Transduction learning)
  • Օնլայն ուսուցում (Online learning)

Կիրառության ոլորտներ

[խմբագրել | խմբագրել կոդը]
  • Որոնողական համակարգեր (Web search engine)
  • Խոսքի ճանաչում (Speech recognition)
  • Կենսաինֆորմատիկա (Bioinformatics)
  • Ձեռագիր տեքստի ճանաչում (Handwriting recognition)
  • Բնական լեզվի մշակում (Natural language processing)
  • Համակարգչային տեսլական (Computer vision)
  • Կերպարների ճանաչում (Pattern recognition)
  • Տեքստի էմոցիաների վերլուծություն (Sentiment analysis)

Գրականություն

[խմբագրել | խմբագրել կոդը]

Ծանոթագրություններ

[խմբագրել | խմբագրել կոդը]
  1. Mitchell, Tom (1997). Machine Learning. New York: McGraw Hill. ISBN 0-07-042807-7. OCLC 36417892.
  2. The definition "without being explicitly programmed" is often attributed to Arthur Samuel, who coined the term "machine learning" in 1959, but the phrase is not found verbatim in this publication, and may be a paraphrase that appeared later. Confer "Paraphrasing Arthur Samuel (1959), the question is: How can computers learn to solve problems without being explicitly programmed?" in Koza, John R.; Bennett, Forrest H.; Andre, David; Keane, Martin A. (1996). Automated Design of Both the Topology and Sizing of Analog Electrical Circuits Using Genetic Programming. Artificial Intelligence in Design '96 (անգլերեն). Springer, Dordrecht. էջեր 151–170. doi:10.1007/978-94-009-0279-4_9.
  3. Hu, J.; Niu, H.; Carrasco, J.; Lennox, B.; Arvin, F., "Voronoi-Based Multi-Robot Autonomous Exploration in Unknown Environments via Deep Reinforcement Learning" IEEE Transactions on Vehicular Technology, 2020.
  4. 4,0 4,1 Bishop, C. M. (2006), Pattern Recognition and Machine Learning, Springer, ISBN 978-0-387-31073-2
  5. Machine learning and pattern recognition "can be viewed as two facets of the same field."[4]:vii
  6. Friedman, Jerome H. (1998). «Data Mining and Statistics: What's the connection?». Computing Science and Statistics. 29 (1): 3–9.
  7. «What is Machine Learning?». www.ibm.com (ամերիկյան անգլերեն). Վերցված է 2021 թ․ օգոստոսի 15-ին.
  8. Zhou, Victor (2019 թ․ դեկտեմբերի 20). «Machine Learning for Beginners: An Introduction to Neural Networks». Medium (անգլերեն). Վերցված է 2021 թ․ օգոստոսի 15-ին.
  9. Domingos, 2015, Գլուխ 6, Գլուխ 7
  10. 10,0 10,1 Ethem Alpaydin (2020). Introduction to Machine Learning (Fourth ed.). MIT. էջեր xix, 1–3, 13–18. ISBN 978-0262043793.
  11. Samuel, Arthur (1959). «Some Studies in Machine Learning Using the Game of Checkers». IBM Journal of Research and Development. 3 (3): 210–229. CiteSeerX 10.1.1.368.2254. doi:10.1147/rd.33.0210.
  12. R. Kohavi and F. Provost, "Glossary of terms," Machine Learning, vol. 30, no. 2–3, pp. 271–274, 1998.
  13. Gerovitch, Slava (2015 թ․ ապրիլի 9). «How the Computer Got Its Revenge on the Soviet Union». Nautilus. Արխիվացված է օրիգինալից 2021 թ․ սեպտեմբերի 22-ին. Վերցված է 2021 թ․ սեպտեմբերի 19-ին.
  14. Lindsay, Richard P. (1964 թ․ սեպտեմբերի 1). «The Impact of Automation On Public Administration». Western Political Quarterly (անգլերեն). 17 (3): 78–81. doi:10.1177/106591296401700364. ISSN 0043-4078. S2CID 154021253. Վերցված է 2021 թ․ հոկտեմբերի 6-ին.
  15. Nilsson N. Learning Machines, McGraw Hill, 1965.
  16. Duda, R., Hart P. Pattern Recognition and Scene Analysis, Wiley Interscience, 1973
  17. S. Bozinovski "Teaching space: A representation concept for adaptive pattern classification" COINS Technical Report No. 81-28, Computer and Information Science Department, University of Massachusetts at Amherst, MA, 1981. https://web.cs.umass.edu/publication/docs/1981/UM-CS-1981-028.pdf
  18. 18,0 18,1 Mitchell, T. (1997). Machine Learning. McGraw Hill. էջեր 2. ISBN 978-0-07-042807-2.
  19. Harnad, Stevan (2008), «The Annotation Game: On Turing (1950) on Computing, Machinery, and Intelligence», in Epstein, Robert; Peters, Grace (eds.), The Turing Test Sourcebook: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Kluwer, էջեր 23–66, ISBN 9781402067082, Արխիվացված է օրիգինալից 2012 թ․ մարտի 9-ին, Վերցված է 2021 թ․ հոկտեմբերի 30-ին
  20. «Introduction to AI Part 1». Edzion (անգլերեն). 2020 թ․ դեկտեմբերի 8. Վերցված է 2020 թ․ դեկտեմբերի 9-ին.
  21. «AN EMPIRICAL SCIENCE RESEARCH ON BIOINFORMATICS IN MACHINE LEARNING – Journal». Վերցված է 2020 թ․ հոկտեմբերի 28-ին. {{cite journal}}: Cite journal requires |journal= (օգնություն)
  22. «rasbt/stat453-deep-learning-ss20» (PDF). GitHub (անգլերեն).
  23. Կաղապար:Cite citeseerx
  24. August 2011, Dovel Technologies in (2018 թ․ մայիսի 15). «Not all Machine Learning is Artificial Intelligence». CTOvision.com. Արխիվացված է օրիգինալից 2019-03-30-ին. Վերցված է 2020 թ․ հոկտեմբերի 28-ին.{{cite web}}: CS1 սպաս․ թվային անուններ: authors list (link)
  25. «AI Today Podcast #30: Interview with MIT Professor Luis Perez-Breva -- Contrary Perspectives on AI and ML». Cognilytica. 2018 թ․ մարտի 28. Վերցված է 2020 թ․ հոկտեմբերի 28-ին.
  26. «rasbt/stat453-deep-learning-ss20» (PDF). GitHub (անգլերեն). Վերցված է 2020 թ․ հոկտեմբերի 28-ին.
  27. Poole, Mackworth, p. 1
  28. Russell, Norvig, էջ 55
  29. Definition of AI as the study of intelligent agents: * Poole, Mackworth & Goebel (1998), which provides the version that is used in this article. These authors use the term "computational intelligence" as a synonym for artificial intelligence.[27] * Russell & Norvig (2003) (who prefer the term "rational agent") and write "The whole-agent view is now widely accepted in the field".[28] * Nilsson 1998 * Legg & Hutter 2007
  30. Le Roux, Nicolas; Bengio, Yoshua; Fitzgibbon, Andrew (2012). "Improving+First+and+Second-Order+Methods+by+Modeling+Uncertainty&pg=PA403 «Improving First and Second-Order Methods by Modeling Uncertainty». In Sra, Suvrit; Nowozin, Sebastian; Wright, Stephen J. (eds.). Optimization for Machine Learning. MIT Press. էջ 404. ISBN 9780262016469.
  31. Bzdok, Danilo; Altman, Naomi; Krzywinski, Martin (2018). «Statistics versus Machine Learning». Nature Methods. 15 (4): 233–234. doi:10.1038/nmeth.4642. PMC 6082636. PMID 30100822.
  32. 32,0 32,1 Michael I. Jordan (2014 թ․ սեպտեմբերի 10). «statistics and machine learning». reddit. Վերցված է 2014 թ․ հոկտեմբերի 1-ին.
  33. Cornell University Library (2001 թ․ օգոստոս). «Breiman: Statistical Modeling: The Two Cultures (with comments and a rejoinder by the author)». Statistical Science. 16 (3). doi:10.1214/ss/1009213726. Վերցված է 2015 թ․ օգոստոսի 8-ին.
  34. Gareth James; Daniela Witten; Trevor Hastie; Robert Tibshirani (2013). An Introduction to Statistical Learning. Springer. էջ vii. Արխիվացված է օրիգինալից 2019 թ․ հունիսի 23-ին. Վերցված է 2021 թ․ դեկտեմբերի 3-ին.
  35. Russell, Stuart J.; Norvig, Peter (2010). Artificial Intelligence: A Modern Approach (Third ed.). Prentice Hall. ISBN 9780136042594.
  36. Mohri, Mehryar; Rostamizadeh, Afshin; Talwalkar, Ameet (2012). Foundations of Machine Learning. The MIT Press. ISBN 9780262018258.
  37. Alpaydin, Ethem (2010). Introduction to Machine Learning. MIT Press. էջ 9. ISBN 978-0-262-01243-0.
  38. Jordan, Michael I.; Bishop, Christopher M. (2004). «Neural Networks». In Allen B. Tucker (ed.). Computer Science Handbook, Second Edition (Section VII: Intelligent Systems). Boca Raton, Florida: Chapman & Hall/CRC Press LLC. ISBN 978-1-58488-360-9.
  39. Alex Ratner; Stephen Bach; Paroma Varma; Chris. «Weak Supervision: The New Programming Paradigm for Machine Learning». hazyresearch.github.io. referencing work by many other members of Hazy Research. Արխիվացված է օրիգինալից 2019 թ․ հունիսի 6-ին. Վերցված է 2019 թ․ հունիսի 6-ին.
  40. van Otterlo, M.; Wiering, M. (2012). Reinforcement learning and markov decision processes. Adaptation, Learning, and Optimization. Vol. 12. էջեր 3–42. doi:10.1007/978-3-642-27645-3_1. ISBN 978-3-642-27644-6. {{cite book}}: |journal= ignored (օգնություն)
  41. science.sciencemag.org/content/290/5500/2323
  42. towardsdatascience.com/all-machine-learning-models-explained-in-6-minutes-9fe30ff6776a

Արտաքին հղումներ

[խմբագրել | խմբագրել կոդը]