პერცეპტრონი არის ტერმინის, მახასიათებლების, გამოყენების განმარტება

Სარჩევი:

პერცეპტრონი არის ტერმინის, მახასიათებლების, გამოყენების განმარტება
პერცეპტრონი არის ტერმინის, მახასიათებლების, გამოყენების განმარტება
Anonim

მანქანურ სწავლებაში პერცეპტრონი არის ორობითი კლასიფიკატორების ზედამხედველობითი სწავლის ალგორითმი. მას ასევე ხშირად უწოდებენ პერცეპტრონს. ორობითი კლასიფიკატორი არის ფუნქცია, რომელსაც შეუძლია გადაწყვიტოს, ეკუთვნის თუ არა შეყვანა, რომელიც წარმოდგენილია რიცხვების ვექტორით, რომელიმე კონკრეტულ კლასს. ეს არის წრფივი კლასიფიკატორის ტიპი, ანუ კლასიფიკაციის ალგორითმი, რომელიც თავის პროგნოზებს აკეთებს ხაზოვანი პროგნოზირების ფუნქციის საფუძველზე, რომელიც აერთიანებს წონათა ერთობლიობას მახასიათებლის ვექტორთან.

პერცეპტრონის ფორმულები
პერცეპტრონის ფორმულები

ბოლო წლებში ხელოვნურმა ნერვულმა ქსელებმა მიიპყრეს ყურადღება ღრმა სწავლის მიღწევების გამო. მაგრამ რა არის ხელოვნური ნერვული ქსელი და რისგან შედგება?

გაიცანი პერცეპტრონი

ამ სტატიაში ჩვენ გადავხედავთ ზოგადად ხელოვნურ ნერვულ ქსელებს, შემდეგ გადავხედავთ ერთ ნეირონს და ბოლოს (ეს არის კოდირების ნაწილი) ჩვენ ავიღებთ ხელოვნურის ყველაზე ძირითად ვერსიას. ნეირონი, პერცეპტრონი და მისი წერტილების კლასიფიკაციათვითმფრინავი.

დაფიქრებულხართ, რატომ არის დავალებები, რომლებიც ასე მარტივია ნებისმიერი ადამიანისთვის, მაგრამ წარმოუდგენლად რთული კომპიუტერებისთვის? ხელოვნური ნერვული ქსელები (მოკლედ ANN) შთაგონებულია ადამიანის ცენტრალური ნერვული სისტემით. მათი ბიოლოგიური ანალოგის მსგავსად, ANN აგებულია სიგნალის დამუშავების მარტივ ელემენტებზე, რომლებიც გაერთიანებულია დიდ ბადეში.

ნეირონული ქსელები უნდა ისწავლონ

ტრადიციული ალგორითმებისგან განსხვავებით, ნერვული ქსელები არ შეიძლება "დაპროგრამებული" ან "მორგებული" იმუშაოს ისე, როგორც ეს იყო დაგეგმილი. ისევე, როგორც ადამიანის ტვინი, მათ უნდა ისწავლონ დავალების შესრულება. უხეშად რომ ვთქვათ, არსებობს სამი სწავლის სტრატეგია.

უმარტივესი ხერხის გამოყენება შეიძლება, თუ არსებობს ტესტი (საკმაოდ დიდი) ცნობილი შედეგებით. შემდეგ ტრენინგი ასე მიდის: დაამუშავეთ მონაცემთა ერთი ნაკრები. შეადარეთ შედეგი ცნობილ შედეგს. დააყენეთ ქსელი და სცადეთ ხელახლა. ეს არის სასწავლო სტრატეგია, რომელსაც აქ გამოვიყენებთ.

უკონტროლო სწავლა

სასარგებლოა, თუ ტესტის მონაცემები არ არის ხელმისაწვდომი და თუ შესაძლებელია სასურველი ქცევიდან გარკვეული ღირებულების ფუნქციის გამოტანა. ღირებულება ფუნქცია ეუბნება ნერვულ ქსელს, თუ რამდენად შორს არის ის სამიზნედან. ამის შემდეგ ქსელს შეუძლია შეცვალოს თავისი პარამეტრები რეალურ მონაცემებთან მუშაობისას.

გაძლიერებული სწავლა

"სტაფილო და ჯოხი" მეთოდი. შეიძლება გამოყენებულ იქნას, თუ ნერვული ქსელი წარმოქმნის უწყვეტ მოქმედებას. დროთა განმავლობაში, ქსელი სწავლობს სწორი ქმედებების უპირატესობას და არასწორი ქმედებების თავიდან აცილებას.

კარგი, ახლა ცოტა რამ ვიცითხელოვნური ნერვული ქსელების ბუნება, მაგრამ კონკრეტულად რისგან შედგება ისინი? რას დავინახავთ, თუ თავსახურს გავხსნით და შიგნით შევხედავთ?

ნეირონები არის ნერვული ქსელების სამშენებლო ბლოკები. ნებისმიერი ხელოვნური ნერვული ქსელის მთავარი კომპონენტია ხელოვნური ნეირონი. მათ არა მხოლოდ მათი ბიოლოგიური კოლეგების სახელები აქვთ, არამედ ისინი ასევე მოდელირებულია ჩვენს ტვინში ნეირონების ქცევის მიხედვით.

ბიოლოგია ტექნოლოგიების წინააღმდეგ

როგორც ბიოლოგიურ ნეირონს აქვს დენდრიტები სიგნალების მისაღებად, უჯრედის სხეულს აქვს მათი გადამუშავება და აქსონი სხვა ნეირონებისთვის სიგნალების გასაგზავნად, ხელოვნურ ნეირონს აქვს მრავალი შემავალი არხი, დამუშავების ეტაპი და ერთი გამომავალი, რომელსაც შეუძლია განშტოება ბევრ სხვაზე. ხელოვნური ნეირონები.

შეგვიძლია რამე სასარგებლო გავაკეთოთ ერთი პერცეპტრონით? არსებობს პრობლემების კლასი, რომელთა გადაჭრაც ერთ პერცეტრონს შეუძლია. განვიხილოთ შეყვანის ვექტორი, როგორც წერტილის კოორდინატები. ვექტორისთვის n-ელემენტებით, ეს წერტილი იცხოვრებს n-განზომილებიან სივრცეში. ცხოვრების გასამარტივებლად (და ქვემოთ მოცემული კოდი), დავუშვათ, რომ ეს არის 2D. როგორც ფურცელი.

შემდეგი, წარმოიდგინეთ, რომ ამ სიბრტყეზე დავხატოთ რამდენიმე შემთხვევითი წერტილი და გავყოთ ისინი ორ ნაწილად ფურცელზე სწორი ხაზის დახაზვით. ეს ხაზი ყოფს წერტილებს ორ ნაწილად, ერთს ხაზის ზემოთ და მეორეს ქვემოთ. შემდეგ ორ კომპლექტს უწოდებენ წრფივად განცალკევებულს.

ერთ პერცეტრონს, რაც არ უნდა მარტივი ჩანდეს, შეუძლია იცოდეს სად არის ეს ხაზი და როდესაც დაასრულებს ვარჯიშს, შეუძლია განსაზღვროს მოცემული წერტილი ამ ხაზის ზემოთ თუ ქვემოთ.

ისტორიაგამოგონება

ამ მეთოდის ალგორითმი გამოიგონეს 1957 წელს კორნელის საავიაციო ლაბორატორიაში ფრენკ როზენბლატის მიერ (ხშირად მისი სახელით), დაფინანსებული აშშ-ს საზღვაო კვლევის ოფისის მიერ. პერცეპტრონი გამიზნული იყო მანქანად და არა პროგრამად, და მიუხედავად იმისა, რომ მისი პირველი დანერგვა იყო IBM 704-ის პროგრამულ უზრუნველყოფაში, შემდგომში ის განხორციელდა სპეციალურად აშენებულ აპარატურაზე, როგორც "Mark 1 Perceptron". ეს მანქანა შექმნილია გამოსახულების ამოცნობისთვის: მას ჰქონდა 400 ფოტოცელისაგან შემდგარი მასივი, რომლებიც შემთხვევით დაკავშირებული იყო ნეირონებთან. წონები დაშიფრული იყო პოტენციომეტრებში და ვარჯიშის დროს წონის განახლება ელექტროძრავებით ხდებოდა.

1958 წელს აშშ-ს საზღვაო ძალების მიერ გამართულ პრესკონფერენციაზე როზენბლატმა გააკეთა განცხადება პერცეპტრონის შესახებ, რამაც გამოიწვია მწვავე დებატები ახალგაზრდა ხელოვნური ინტელექტის საზოგადოებაში; როზენბლატის პრეტენზიებზე დაყრდნობით, New York Times-მა იტყობინება, რომ პერცეტრონი არის „ემბრიონული ელექტრონული კომპიუტერი, რომელსაც საზღვაო ძალები ელოდება, რომ შეძლებს სიარული, საუბარი, დანახვა, წერა, საკუთარი თავის რეპროდუცირება და მისი არსებობის გაცნობიერება“.

პერცეპტრონის სეგმენტები
პერცეპტრონის სეგმენტები

შემდეგი განვითარება

მიუხედავად იმისა, რომ პერცეპტრონი თავდაპირველად პერსპექტიული ჩანდა, სწრაფად დადასტურდა, რომ პერცეპტრონები ვერ ივარჯიშებდნენ შაბლონების მრავალი კლასის ამოცნობაში. ამან გამოიწვია კვლევის სფეროში სტაგნაცია პერცეპტრონის ნერვულ ქსელებთან მრავალი წლის განმავლობაში, სანამ არ იქნა აღიარებული, რომ მიმავალი ნერვული ქსელი ორი ან მეტი ფენით (ასევე ე.წ.მრავალშრიანი პერცეპტრონი) ჰქონდა ბევრად მეტი დამუშავების ძალა, ვიდრე ერთი ფენის პერცეტრონს (ასევე უწოდებენ ერთ ფენის პერცეპტრონებს). ერთშრიანი პერცეტრონს შეუძლია მხოლოდ წრფივად განცალკევებული სტრუქტურების შესწავლა. 1969 წელს მარვინ მინსკისა და სეიმურ პეპერტის ცნობილმა წიგნმა „პერცეპტრონები“აჩვენა, რომ ქსელების ამ კლასებმა ვერ ისწავლეს XOR ფუნქცია. თუმცა, ეს არ ეხება არაწრფივი კლასიფიკაციის ფუნქციებს, რომლებიც შეიძლება გამოყენებულ იქნას ერთშრიანი პერცეპტრონი.

პერცეპტრონი როზენბლატი
პერცეპტრონი როზენბლატი

ასეთი ფუნქციების გამოყენება აფართოებს პერცეპტრონის შესაძლებლობებს, მათ შორის XOR ფუნქციის განხორციელებას. ხშირად ვარაუდობენ (არასწორად), რომ მათ ასევე ვარაუდობდნენ, რომ მსგავსი შედეგი იქნებოდა მრავალშრიანი პერცეპტრონის ქსელისთვის. თუმცა, ეს ასე არ არის, რადგან მინსკიმ და პეპერტმა უკვე იცოდნენ, რომ მრავალშრიანი პერცეპტრონები შეძლებდნენ XOR ფუნქციის გამომუშავებას. სამი წლის შემდეგ, სტივენ გროსბერგმა გამოაქვეყნა ნაშრომების სერია, სადაც წარმოდგენილია ქსელები, რომლებსაც შეუძლიათ დიფერენციალური ფუნქციების მოდელირება, კონტრასტის გაძლიერების ფუნქციები და XOR ფუნქციები.

ნამუშევრები გამოიცა 1972 და 1973 წლებში. თუმცა, ხშირად შეუმჩნეველი მინსკის/ქაღალდის ტექსტმა გამოიწვია ნერვული ქსელის პერცეპტრონით ინტერესისა და კვლევის დაფინანსების მნიშვნელოვანი შემცირება. კიდევ ათი წელი გავიდა, სანამ 1980-იან წლებში ნერვული ქსელების კვლევა აღორძინდებოდა.

ფუნქციები

პერცეპტრონის ბირთვის ალგორითმი დაინერგა 1964 წელს იზერმანმა და სხვებმა.მორი და როსტამიზადე (2013), რომლებიც აფართოებენ წინა შედეგებს და აძლევენ ახალ საზღვრებს L1.

პერცეპტრონი არის ბიოლოგიური ნეირონის გამარტივებული მოდელი. მიუხედავად იმისა, რომ ბიოლოგიური ნერვული მოდელების სირთულე ხშირად საჭიროა ნერვული ქცევის სრულად გასაგებად, კვლევა აჩვენებს, რომ პერცეპტრონის მსგავს ხაზოვან მოდელს შეუძლია გამოიწვიოს ზოგიერთი ქცევა, რომელიც ჩანს რეალურ ნეირონებში.

პერცეპტრონი არის წრფივი კლასიფიკატორი, ამიტომ ის ვერასოდეს მოხვდება ისეთ მდგომარეობაში, სადაც ყველა შეყვანის ვექტორი სწორად არის კლასიფიცირებული, თუ სასწავლო ნაკრები D არ არის წრფივად განცალკევებული, ე.ი. თუ დადებითი მაგალითები არ შეიძლება განცალკევდეს უარყოფითი მაგალითებისგან ჰიპერპლანით. ამ შემთხვევაში, არც ერთი "მიახლოებითი" გამოსავალი არ გაივლის ეტაპობრივად სტანდარტული სწავლის ალგორითმის მეშვეობით, სამაგიეროდ სწავლა მთლიანად ჩავარდება. ამიტომ, თუ სავარჯიშო ნაკრების წრფივი განცალკევება აპრიორი არ არის ცნობილი, უნდა გამოიყენოთ ქვემოთ მოცემული ტრენინგის ერთ-ერთი ვარიანტი.

პერცეპტრონის ურთიერთობები
პერცეპტრონის ურთიერთობები

ჯიბის ალგორითმი

რაჩეტის ჯიბის ალგორითმი წყვეტს პერცეპტრონის სწავლის სიმტკიცის პრობლემას, აქამდე ნაპოვნი საუკეთესო გამოსავლის "ჯიბეში" შენახვით. შემდეგ ჯიბის ალგორითმი აბრუნებს გამოსავალს ჯიბეში და არა ბოლო ამოხსნას. ის ასევე შეიძლება გამოყენებულ იქნას მონაცემთა განუყოფელ ნაკრებებზე, სადაც მიზანია პერცეპტრონის პოვნა რამდენიმე არასწორი კლასიფიკაციით. თუმცა, ეს გადაწყვეტილებები გამოიყურება სტოქასტური და, შესაბამისად, ჯიბის ალგორითმი არ შეესაბამება მათ.თანდათანობით ტრენინგის მსვლელობისას და არ არის გარანტირებული მათი გამოვლენა ვარჯიშის გარკვეული რაოდენობის საფეხურზე.

Maxover ალგორითმი

Maxover-ის ალგორითმი არის "მყარი" იმ გაგებით, რომ ის გადაიყრება მონაცემთა ნაკრების წრფივი განცალკევების ცოდნის მიუხედავად. ხაზოვანი გაყოფის შემთხვევაში, ეს გადაჭრის სასწავლო პრობლემას, სურვილისამებრ, თუნდაც ოპტიმალური სტაბილურობით (კლასებს შორის მაქსიმალური ზღვარი). განუყოფელი მონაცემთა ნაკრებისთვის, გადაწყვეტა მცირე რაოდენობის არასწორი კლასიფიკაციით დაბრუნდება. ყველა შემთხვევაში ალგორითმი სწავლის პროცესში თანდათან უახლოვდება გამოსავალს, წინა მდგომარეობების დამახსოვრებისა და შემთხვევითი ნახტომების გარეშე. კონვერგენცია მდგომარეობს გლობალურ ოპტიმალურობაში მონაცემთა გაზიარებული ნაკრებისთვის და ლოკალური ოპტიმალური მონაცემების განუყოფელი ნაკრებისთვის.

პერცეპტრონის განტოლება
პერცეპტრონის განტოლება

ხმის მიცემა Perceptron

ხმის პერცეპტრონის ალგორითმი არის ვარიანტი, რომელიც იყენებს მრავალჯერადი შეწონილი პერცეტრონს. ალგორითმი იწყებს ახალ პერცეპტრონს ყოველ ჯერზე, როცა მაგალითის არასწორად კლასიფიცირება ხდება, წონის ვექტორის ინიციალიზაცია ბოლო პერცეპტრონის საბოლოო წონებით. თითოეულ პერცეპტრონს ასევე მიენიჭება განსხვავებული წონა, რაც შეესაბამება იმ მაგალითს, თუ რამდენი მაგალითია სწორად კლასიფიცირებული ერთის არასწორ კლასიფიკაციამდე, და ბოლოს გამომავალი იქნება შეწონილი ხმა მთელს პერცეპტრონიზე.

აპლიკაცია

გამოყოფილ პრობლემებში, პერცეპტრონის ვარჯიში ასევე შეიძლება მიმართული იყოს კლასებს შორის ყველაზე დიდი გამიჯვნის საზღვრის პოვნაზე. Ე. წოპტიმალური სტაბილურობის პერცეტრონი შეიძლება განისაზღვროს განმეორებითი ვარჯიშისა და ოპტიმიზაციის სქემების გამოყენებით, როგორიცაა Min-Over ან AdaTron ალგორითმი. AdaTron იყენებს იმ ფაქტს, რომ შესაბამისი კვადრატული ოპტიმიზაციის პრობლემა ამოზნექილია. სტაბილურობის ოპტიმალური პერცეტრონი, ბირთვის ხრიკთან ერთად, წარმოადგენს დამხმარე ვექტორული მანქანის კონცეპტუალურ საფუძველს.

მრავალშრიანი პერცეპტრონი
მრავალშრიანი პერცეპტრონი

ალტერნატივა

არაწრფივი ამოცანების გადაჭრის კიდევ ერთი გზა მრავალი შრის გამოყენების გარეშე არის უფრო მაღალი რიგის ქსელების გამოყენება (sigma-pi ბლოკი). ამ ტიპის ქსელში, შეყვანის ვექტორის თითოეული ელემენტი გაფართოებულია გამრავლებული შეყვანის ყოველი წყვილი კომბინაციით (მეორე რიგი). ეს შეიძლება გაფართოვდეს n-წესრიგის ქსელში. Perceptron არის ძალიან მოქნილი რამ.

თუმცა, გახსოვდეთ, რომ საუკეთესო კლასიფიკატორი სულაც არ არის ის, რომელიც ზუსტად კლასიფიცირებს ყველა სასწავლო მონაცემს. მართლაც, თუ ჩვენ გვქონდა წინასწარი შეზღუდვა, რომ მონაცემები მომდინარეობს გაუსის თანაბარი ვარიანტიდან, შეყვანის სივრცეში წრფივი გაყოფა ოპტიმალურია და არაწრფივი ამონახსნები გადაფარდება.

სხვა ხაზოვანი კლასიფიკაციის ალგორითმები მოიცავს Winnow-ს, მხარდაჭერის ვექტორს და ლოგისტიკური რეგრესიას. პერცეპტრონი არის ალგორითმების უნივერსალური ნაკრები.

სქემის რუსული თარგმანი
სქემის რუსული თარგმანი

ძირითადი სფერო ზედამხედველობითი სწავლისთვის

ზედამხედველობის ქვეშ მყოფი სწავლება არის მანქანათმცოდნეობის ამოცანა, რომელიც სწავლობს ფუნქციას, რომელიც ასახავს შეყვანის გამომავალსI/O წყვილების მაგალითებზე დაყრდნობით. ისინი ადგენენ მახასიათებლებს ეტიკეტირებული ტრენინგის მონაცემებიდან, რომელიც შედგება მაგალითების ნაკრებისგან. ზედამხედველობით სწავლაში, თითოეული მაგალითი არის წყვილი, რომელიც შედგება შეყვანის ობიექტისგან (ჩვეულებრივ ვექტორისგან) და სასურველი გამომავალი მნიშვნელობისგან (ასევე უწოდებენ საკონტროლო სიგნალს).

ზედამხედველობითი სწავლის ალგორითმი აანალიზებს ტრენინგის მონაცემებს და აწარმოებს სავარაუდო ფუნქციას, რომელიც შეიძლება გამოყენებულ იქნას ახალი მაგალითების საჩვენებლად. ოპტიმალური სცენარი საშუალებას მისცემს ალგორითმს სწორად განსაზღვროს კლასის ეტიკეტები უხილავი შემთხვევებისთვის. ეს მოითხოვს სწავლის ალგორითმს სწავლის მონაცემების განზოგადებას უხილავ სიტუაციებზე „გონივრული“გზით.

ადამიანთა და ცხოველთა ფსიქოლოგიაში პარალელურ ამოცანას ხშირად უწოდებენ კონცეპტუალურ სწავლებას.

გირჩევთ: