ჰოპფილდის ქსელი
ჰოპფილდის ქსელი — რეკურენტული, ხელოვნური ნეირონული ქსელია, რომელსაც პოპულარიზაცია გაუწია ჯონ ჰოპფილდიმა 1982 წელს, თუმცა 1974 წელს ლიტლიმ აღწერა. ჰოპფილდის სისტემები ემსახურება ასოციაციურ მეხსიერებას, ორობითი ზღურბლის კვანძებით. ეს სისტემები გარანტირებულად იკრიბებიან ლოკალურ მინიმუმებში, თუმცა ხანდახან სწორის ნაცვლად, არასწორ ლოკალურ მინიმუმში იკრიბებიან. ჰოპფილდის სისტემები ასევე გვთავაზობს მოდელს ადამიანის მახსოვრობის გასაგებად.
სტრუქტურა
რედაქტირებაჰოპფილდის ქსელის ერთეულები, არიან ორობითი ზღურბლის ერთეულები. რაც ნიშნავს იმას, რომ ერთეულები იღებენ მხოლოდ ორ განსხვავებულ მნიშვნელობას და ეს მნიშვნელობა განმარტებულია იმის მიხედვით, აღაგზნებს თუ არა მდგომარეობას მიღებული ინფორმაცია. ჩვეულებრივ, ჰოპფილდის ქსელებს აქვს ერთეულები, რომლებიც იღებენ ორ მნიშვნელობას 1-სა და -1-ს, სწორედ ასეთი შეთანხმება იქნება გამოყენებული მთელს დარჩენილ სტატიაში. სხვა წყაროებში ასევე ხშირად გამოიყენება მნიშვნელობები 0 და 1.
ჰოპფილდის ქსელში კავშირებს შემდეგი შეზღუდვები აქვს:
- (არცერთ ერთეულს არ აქვს კავშირი თავის თავთან))
- (კავშირები სიმეტრიულია))</nowiki>
ის შეზღუდვა, რომ წონები სიმეტრიულია გარანტიას იძლევა, რომ ენერგიის ფუნქცია მონოტონურად კლებადია, თუ ყველა აქტივაციის წესს დავიცავთ. ჰოპფილდის ქსელმა არასიმეტრიული წონებით შესაძლოა პერიოდული ან ქაოტური ქცევები გამოამჟღავნოს. თუმცა ჰოპფილდმა აჩვენა, რომ ეს მაინც არ მოახდენს გავლენას ქსელის უნარზე, იფუნქციონიროს ასოციაციური მახსოვრობის მექანიზმის მსგავსად.
განახლება
რედაქტირებაერთი ერთეულის ატვირთვა ჰოპფილდის ქსელში შემდეგი წესით ხორციელდება:
როცა და სხვა ნებისმიერ შემთხვევაში
სადაცː
- არის კავშირის წონა i და j ერთეულებს შორის
- არის j ერთეულის მდგომარეობა
- არის i ერთეულის ზღურბლი
ატვირთვა ჰოპფილდის ქსელში შეიძლება მოხდეს ორნაირად:
- ასინქრონული: მხოლოდ ერთი ერთეულია იქნება ატვირთული ერთჯერადად. ეს ერთეული იქნება ამორჩეული შემთხვევითად ან რაიმე თავიდანვე შეთანხმებული წესის მიხედვით.
- სინქრონული: ყველა ერთეული განახლდება ერთდროულად. ამ შემთხვევაშის აჭიროა ერთგვარი ცენტრალური საათი რათა სინქრონულობა შევინარჩუნოთ. მიიჩნევა, რომ ეს მეთოდი ნაკლებად რეალისტურია.
იზიდავენ თუ განიზიდავენ ნეირონები ერთმანეთს
რედაქტირებაორ ერთეულს შორის წონებს დიდი გავლენა აქვს ნეირონების მდგომარეობებზე (მნიშვნელობებზე). განვიხილოთ კავშირის წონა ორ ნეირონს i და j შორის. თუ განახლების წესი გვკარნახობს:
- როდესაც j ნეირონის კონტრიბუცია ჯამში დადებითია.
- როდესაც ,j ნეირონის კონტრიბუცია ჯამში უარყოფითია.
ასევე, i და j ნეირონების მნიშვნელობა კრებადია თუ მათ შორის კავშირის წონა დადებითია, ხოლო თუ უარყოფითია - მნიშვნელობები განშლადია.
ენერგია
რედაქტირებაჰოპფილდის ქსელებს აქვთ სკალარული მნიშვნელობა თითოეული მდგომარეობისთვის, რომელსაც ენერგიას ვუწოდებთ ქსელისა, რომელიც, მოიცემა შემდეგნაირად: მას ჰქვია ენერგია, რადგან თუ ერთეულებს შევარჩევთ შემთხვევითად, მისი მნიშვნელობა ან დაიკლებს ან დარჩება იგივე. უფრო მეტიც, თუ გავიმეორებთ განახლებებს, საბოლოოდ ქსელი დაეშვება იმ მდგომარეობამდე, როდასაც მისი მდგოამრეობა მიიღებს ლოკალურ მინიმალურ მნიშვნელობას ენერგის ფუნქციაში (ამას ეწოდება ლიაპუნოვის ფუნქცია). თუ მდგომარეობა არის ლოკალური მინიმუმი ენერგიის ფუნქციაში, ის მაშინ სტაბილური მდგოამრეობაა. აღსანიშნავია, რომ ეს ენერგიის ფუნქცია ეკუთვნის ფიზუკური მოდელების ზოგად კლასს და სახელის ისინგის მოდელის ქვეშ ერთიანდება. უფრო კონკრეტულად, ესენი არიან მარკოვის ქსელები, რამდენადაც ასოციაციურ ალბათურ გაზომვებსა და გიბსის გაზომვებს აქვს მარკოვის ქსელის თვისებები.
ინიციალიზაცია და მუშაობა
რედაქტირებაჰოპფილდის ქსელების ინიციალიზაცია ხდება ერთეულებისთვის საწყისი მნიშვნელობების მინიჭებით. შემდეგ ხდება განახლება მანამ, სანამ ქსელი არ შეიკრიბება მიმზიდველ ფორმამდე. კრებადობა ზოგადად უეჭველია. როგორც ჰოპფილდმა დაამტკიცა, ამ არაწრფივი დინამიკური სისტემის მიმზიდველები სტაბილურები არიან, ზოგი სხვა სისტემისგან განსხვავებით არც პერიოდული და არც ქაოტურები არიან. შესაბამისად, ჰოპფილდის სისტემების კონტექსტის მიხედვით, მიმზიდველები სისტემის საბოლოო სტაბილური ფორმები არიან და შეუძლებელია მათი შეცვლა ნებისმიერი შიდა განახლებით.
გაწვრთნა
რედაქტირება„გაწვრთნა“ ჰოპფილდის ქსელში გულისხმობს „დასამახსოვრებელ“ მდგომარეობაში ენერგიის დონის დადაბლებას. ეს აძლევს საშუალებას ქსელს, რომ მოიქცეს, როგორც ასოციაციური მეხსიერება. ქსელს ასევე შეუძლია, რომ აღდგეს მოსალოდნელისგან ოდნავ გადახრილი ინფორმაციის ატვირთვის შემთხვევაში იმ მდგომარეობამდე, რომელიც ყველაზე ახლოსაა აღნიშნულ ინფორმაციასთან. ამიტომაც ჰქვია მას ასოციაციური მეხსიერება, რადგანაც შეუძლია აღადგინოს მეხსიერება მსგავსებებზე დაყრდნობით. მაგალითად, თუ გავწვრთნით ჰოპფილდის ქსელს ისე რომ ჰქონდეს 5 ერთეული მდგომარეობებით (1,-1,1,-1,1) ენერგიის მინიმუმად, და გადავცემთ ქსელს მდგომარეობას (1, -1, -1, -1, 1) ის მიიღებს სახეს (1, -1, 1, -1, 1). ეს იმიტომ, რომ ძალიან მნიშვნელოვანია მდგომარეობა შენარჩუნდეს ენერგეტიკულ მინიმუმზე.
სწავლის წესები
რედაქტირებაარსებობს რამდენიმე განსხვავებული სწავლების წესი, რომლებიც შესაძლოა გამოვიყენოთ, რომ ჰოპფილდის ქსელებს შევანახინოთ ინფორმაცია. სასურველია, რომ სწავლების წესებს ჰქონდეთ შემდეგი ორი თვისება:
- • ლოკალური: სწავლების წესი არის ლოკალური, თუ თითოეული წონა განახლებადია მის გარშემო არსებული ნეირონებით და მხოლოდ ეს ნეირონებია საკამრისი.
- • განახლებადი: ახალი ფორმების ათვისება შესაძლებელია უკვე არსებული ძველი ფორმებისგანაა, რომლებიც გაწვრთვნისთვის გამოიყენეს. ასეა მაგალითად, როცა ახალი ფორმა გამოიყენება წვრთვნისთვის და ახალი წონების მნიშვნელობები მხოლოდ დამოკდიებულია ახალ და ძველ ფორმებზე.
ეს თვისებები სასურველია, რადგან თუ სწავლების წესები ამ თვისებებს აკმაყოფილებენ, მაშინ ისინი მეტად შესაძლებელი და დასაშვებია ბიოლოგიურად. მაგალითად, რადგან ადამიანის ტვინი მუდმივად სწავლობს ახალ კონცეპტებს, შესაძლოა ითქვას, რომ ადამიანის სწავლება განახლებადია. ისეთი სისტემები, რომლებიც განახლებადი არ არიან მხოლოდ ერთხელ არის შესაძლებელი, რომ გამოიწვრთნან დიდი რაოდენობის მონაცემებით.
ჰებიანური სწავლების წესი ჰოპფილდის ქსელისთვის
რედაქტირებაჰებიანური თეორია 1949 წელს დონალდ ჰებმა ჩამოაყალიბა, რომ „ასოციაციური სწავლება“ აეხსნა. აღნიშნულ თეორიაში, ნეირონული ქსოვილების ერთდროული აქტივაცია ამ ქსოვილებს შორის სინაფსური სიძლიერის გაზრდას იწვევს. ეს წესი ზოგადად ასე ყალიბდება: „ნეირონები, რომლებიც ერთად აღიგზნებიან, ერთმანეთს უკავშირდებიან და ერთ სისტემად ყალიბდებიან. ნეირონები, რომლებიც ცალ-ცალკე აღიგზნებიან, ერთმანეთს არ უკავშირდებიან.“
ჰებიანის წესი არის ორივე, ლოკალურიც და განახლებადიც. ჰოპფილდის ქსელისათვის ის ჩაიწერება შემდეგნაირად, როცა n ცალი ახალი ორობითი მოდელი ისწავლება:
სადაც წარმოადგენს i ბიტს მოდელიდან თუ ბიტები i და j ერთმანეთის ტოლია მაშინ დადებითი იქნება. მაშინ მათ ექნებათ დადებითი ეფექტი წონაზეც. შესაბამისად i და j ერთეულები კიდევ უფრო დაუახლოვდებიან ერთმანეთს. საწინააღმდეგო ხდება როდესაც ბიტები i და j ერთმანეთის ტოლი არ არის.
სტორკის სწავლების წესი
რედაქტირებაწესი 1997 წელს ამოს სტორკმა ჩამოაყალიბა. ეს წესი როგორც ლოკალური, ასევე განახლებადია. სტორკმა აჩვენა, რომ თუ ჰოპფილდის ქსელი გამოიწვრთნება მისი წესით, მაშინ მას ექნება მეტი ტევადობა, ვიდრე ჰებიანის წესის შემთხვევაში. სტორკის სწავლების წესის ალგორითმი კავშირის წონისათვის შემდეგია:
სადაც არის i ნეირონის ლოკალური ველის ფორმა. [1]
ეს სწავლების წესი ლოკალურია, რადგანაც სინაფსები ითვალისწინებენ მხოლოდ ნეირონების ნაწილს. ეს წესი საბოლოო ჯამში უფრო მეტი ინფორმაციის შენახვის საშუალებას იძლევა, რადგანაც ის იყენებს ლოკალურ ველს განსხვავებით ჰებიანის წესისა.
ყალბი მოდელები
რედაქტირებაის მოდელები, რომლებსაც ქსელი იყენებს წვრთნისთვის (აღმდგენი მდგომარეობები) სისტემის მიმზიდველი მოდელები ხდება. მუდმივი განახლება სისტემას მიიყვანს აღმდგენ მდგომარეობამდე. თუმცა ხანდახან სისტემები საბოლოოდ ყალბ მოდელებამდე მივლნენ (გამომწვრთნელი მოდელებისგან განსხვავებულ). ენერგიაც ასევე ლოკალური მინიმუმია აღნიშნულ მოდელში.
შესაძლოა რომ ყალბი მოდელი იყოს წრფივი კომბინაცია კენტი რაოდენობის აღმდგენი მოდელებისა. მაგალითად, როდესაც ვიყენებთ სამ მოდელს
ყალბ მოდელებს შეუძლებელია ჰქონდეთ ლუწი რაოდენობა მდგომარეობებისა, რადგან ის შეიძლება აიჯამოს 0-ზე.
ტევადობა
რედაქტირებაქსელის ტევადობა ჰოპფილდის ქსელში განსაზღვრულია ნეირონების რაოდენობით და კავშირებით მოცემულ ქსელში. შესაბამისად, რაოდენობა, ანუ თუ რამდენი ინფორმაციის შენახვაა შესაძლებელი, დამოკიდებულია ნეირონების რიცხვსა და კავშირებზე. უფრო მეტიც, აჩვენეს, რომ ყოველ 1000 კვანძე შეიძლება 138 ვექტორის შენახვა. ცხადია, რომ თუ იმაზე მეტი ინფორმაცის შენახვას ვეცდებით, ვიდრე ქსელს შეუძლია, მაშინ ბევრი შეცდომა დაგროვდება სისტემაში. ხშირად ისეც ხდება, რომ სხვადასხვა გადაცემული ინფორმაცია ერთში ირევა, როდესაც ვიყენებთ ჰოპფილდის ქსელს. საბოლოოდ, შეიძლება ითქვას, რომ იდეალურ შემთხვევაში 0.14 არის ის კოეფიციენტი, რომლითაც შესაძლებელია ინფორმაციის შენახვა, რაც გულისხმობს ყოველ 100 ნეირონულ კვანძზე 14 მდგომარეობის შენახვას..[2][3]
ადამიანის მეხსიერება
რედაქტირებაროდესაც დამახსოვრებულ ვექტორს ვიყენებთ, ეს ოდნავ შეაშფოთებს არსებულ მოდელს. მიუხედავად ამისა ჩვენ მაინც ვხედავთ, რომ ახალი ინფორმაცია შემოდის. ჰოპფილდის ქსელისათვის ეს პროცესი აღიწერება ორი ოპერატორით ავტოასოციატორითა და ჰეტეროასოციატორით. პირველი მაშინ ვლინდება, როდესაც ვექტორი ასოცირებს თავის თავთან, ხოლო მეორე როდესაც ორი ვექტორი მახსოვრობიდან ერთმანეთთან ასოცირებენ. ორივე სახის ოპერატორი ინახება მახსოვრობაში, თუმცა მხოლოდ იმ შემთხვევაში, როცა არა ცალკეული, არამედ ორივე ოპერატორის კომბინაციის შენახვას ვეცდებით. აქ გასათვალისწინებელია ის ფაქტი, რომ ჰოპფილდის ქსელი აქ იყენებს ჰების მახსოვრობის წესს, რომელიც აჩვენებს, რომ დამახსოვრება ეს არის ნეირონებს შორის კავშირის გაძლიერების შედეგი.
პუზუტომ და კაჰანამ (2001) წელს აჩვენეს, რომ ნეირონული ქსელი შესაძლოა იყოს მუდმივად განახლებადი (განმეორებადი), თუ ვიყენებთ ალბათური დასწავლის ალგორითმს. აჩვენეს, რომ ამ დროს კავშირების სიძლიერეები ფიქსირებული რჩება და ასევე შესაძლებელია შენახვიდან გახსენების პროცესსზე უპრობლემოდ გადასვლა. შესაძლებელია იმის ჩვენება, რომ დავიწყების პროცესით რომელის ჰოპფილდის მოდელში მიმდინარეობს რეალურად წაადგება მთელს სისტემას საერთო ჯამში.
მაკკულიხის და პიტის (1943) დინამიკური წესი აჩვენებს, რომ ბევრი ნეირონის აქტივაცია ფარავს ახალი ნეირონების აქტივაციას. ასევე ახდენს გავლენას ნეირონებს შორის კავშირების სიძლიერეზე. აღიშნულ წესს ჰოპფილდი იმისთვისაც იყენებს, რომ აღმდგენი მდგომარეობების შესაძლებლობა აჩვენოს ჰოპფილდის სისტემებში. აღსანიშნავია, რომ ჰოპფილდის სისტემებს ურჩევნია არაწრფივი აქტივაცის ფუნქციების გამოყენება, ვიდრე წრფივისა. ეს შესაძლოა ითქვას, რომ არის ჰოპფილდის დინამიკური წესი. ამით ჰოპფილდმა შეძლო ეჩვენებინა, რომ არაწრფივი აქტივაციის ფუნქციის გამოყენების შემთხვევაში დინამიკური წესი ყოველთვის შეინახავდა ვექტორებს უკვე არსებული ფორმის მიხედვით.
რესურსები ინტერნეტში
რედაქტირება- შეგიძლიათ იხილოთ მედიაფაილები თემაზე „ჰოპფილდის ქსელი“ ვიკისაწყობში.
- თავი 13 "Hopfield მოდელი of Neural Networks - სისტემატური შესავალი მიერ რაულ Rojas (ISBN 978-3-540-60505-8)
- Hopfield ქსელი Javascript
- მოგზაურობა გამყიდველი პრობლემა დაარქივებული 2015-05-30 საიტზე Wayback Machine. - Hopfield ნერვული ქსელის JAVA აპლეტი
- scholarpedia.org - Hopfield ქსელი - სტატია Hopfield ქსელები ჯონ Hopfield
- Hopfield ქსელი სწავლის გამოყენებით დეტერმინისტული ლატენტური ცვლადები - სამეურვეო მიერ ტრისტან ფლეტჩერი
- ნერვული ლაბორატორია გრაფიკული ინტერფეისი - Hopfield ნერვული ქსელის გრაფიკული ინტერფეისი (Python და gtk)
სქოლიო
რედაქტირება- ↑ Storkey, Amos J., and Romain Valabregue. "The basins of attraction of a new Hopfield learning rule." Neural Networks 12.6 (1999): 869-876.
- ↑ Liou, C.-Y.; Lin, S.-L. (2006). „Finite memory loading in hairy neurons“ (PDF). Natural Computing. 5 (1): 15–42. doi:10.1007/s11047-004-5490-x.
- ↑ Liou, C.-Y.; Yuan, S.-K. (1999). „Error Tolerant Associative Memory“ (PDF). Biological Cybernetics. 81: 331–342. doi:10.1007/s004220050566.