ამ გვერდს არა აქვს შემოწმებული ვერსია, სავარაუდოდ მისი ხარისხი არ შეესაბამებოდა პროექტის სტანდარტებს.

ჰოპფილდის ქსელი — რეკურენტული, ხელოვნური ნეირონული ქსელია, რომელსაც პოპულარიზაცია გაუწია ჯონ ჰოპფილდიმა 1982 წელს, თუმცა 1974 წელს ლიტლიმ აღწერა. ჰოპფილდის სისტემები ემსახურება ასოციაციურ მეხსიერებას, ორობითი ზღურბლის კვანძებით. ეს სისტემები გარანტირებულად იკრიბებიან ლოკალურ მინიმუმებში, თუმცა ხანდახან სწორის ნაცვლად, არასწორ ლოკალურ მინიმუმში იკრიბებიან. ჰოპფილდის სისტემები ასევე გვთავაზობს მოდელს ადამიანის მახსოვრობის გასაგებად.

სტრუქტურა

რედაქტირება
 
ჰოპფილდის ქსელი ოთხი კვანძით

ჰოპფილდის ქსელის ერთეულები, არიან ორობითი ზღურბლის ერთეულები. რაც ნიშნავს იმას, რომ ერთეულები იღებენ მხოლოდ ორ განსხვავებულ მნიშვნელობას და ეს მნიშვნელობა განმარტებულია იმის მიხედვით, აღაგზნებს თუ არა მდგომარეობას მიღებული ინფორმაცია. ჩვეულებრივ, ჰოპფილდის ქსელებს აქვს ერთეულები, რომლებიც იღებენ ორ მნიშვნელობას 1-სა და -1-ს, სწორედ ასეთი შეთანხმება იქნება გამოყენებული მთელს დარჩენილ სტატიაში. სხვა წყაროებში ასევე ხშირად გამოიყენება მნიშვნელობები 0 და 1. 

I და j ერთეულების ნებისმიერ წყვილს აქვს კავშირი ერთმანეთთან, ეს კავშირი აღწერილია კავშირის სიმძიმით -   ამიტომაც, ჰოპფილდის ქსელი ფორმალურად შესაძლოა აღიწეროს გრაფით G(V,f), სადაც V არის მაკკულოხ-პიტის ნეირონების სიმრავლე, ხოლო f: V^2 → R არის ფუნქცია, რომელიც კვანძების წყვილებს აკავშირებს ერთმანეთთან და უსაბამებს რეალურ რიცხვს, ეს არის სწორედ კავშირის წონა.

ჰოპფილდის ქსელში კავშირებს შემდეგი შეზღუდვები აქვს:

  •   (არცერთ ერთეულს არ აქვს კავშირი თავის თავთან))
  •   (კავშირები სიმეტრიულია))</nowiki>

ის შეზღუდვა, რომ წონები სიმეტრიულია გარანტიას იძლევა, რომ ენერგიის ფუნქცია მონოტონურად კლებადია, თუ ყველა აქტივაციის წესს დავიცავთ. ჰოპფილდის ქსელმა არასიმეტრიული წონებით შესაძლოა პერიოდული ან ქაოტური ქცევები გამოამჟღავნოს. თუმცა ჰოპფილდმა აჩვენა, რომ ეს მაინც არ მოახდენს გავლენას ქსელის უნარზე, იფუნქციონიროს ასოციაციური მახსოვრობის მექანიზმის მსგავსად.

განახლება

რედაქტირება

ერთი ერთეულის ატვირთვა ჰოპფილდის ქსელში შემდეგი წესით ხორციელდება:

  როცა   და   სხვა ნებისმიერ შემთხვევაში

სადაცː

  •   არის კავშირის წონა i და j ერთეულებს შორის
  •  არის j ერთეულის მდგომარეობა
  •  არის i ერთეულის ზღურბლი

ატვირთვა ჰოპფილდის ქსელში შეიძლება მოხდეს ორნაირად:

  • ასინქრონული: მხოლოდ ერთი ერთეულია იქნება ატვირთული ერთჯერადად. ეს ერთეული იქნება ამორჩეული შემთხვევითად ან რაიმე თავიდანვე შეთანხმებული წესის მიხედვით.
  • სინქრონული: ყველა ერთეული განახლდება ერთდროულად. ამ შემთხვევაშის აჭიროა ერთგვარი ცენტრალური საათი რათა სინქრონულობა შევინარჩუნოთ. მიიჩნევა, რომ ეს მეთოდი ნაკლებად რეალისტურია.

იზიდავენ თუ განიზიდავენ ნეირონები ერთმანეთს

რედაქტირება

ორ ერთეულს შორის წონებს დიდი გავლენა აქვს ნეირონების მდგომარეობებზე (მნიშვნელობებზე). განვიხილოთ კავშირის წონა  ორ ნეირონს i და j შორის. თუ   განახლების წესი გვკარნახობს:

  • როდესაც   j ნეირონის კონტრიბუცია ჯამში დადებითია.
  • როდესაც   ,j ნეირონის კონტრიბუცია ჯამში უარყოფითია.

ასევე, i და j ნეირონების მნიშვნელობა კრებადია თუ მათ შორის კავშირის წონა დადებითია, ხოლო თუ უარყოფითია - მნიშვნელობები განშლადია.

 
ენერგეტიკული სურათი ჰოპფილდის ქსელისა, რომელზეც გამოკვეთილად ჩანს არსებული მდგომარეობა. ნახაზზე ხედავთ მინიმალურ ენერგიას, მიმზიდავ ლოკალურ მინიმუმს და მიზიდვის ცენტრს. ასევე ჩანს როგორ ხდება ინფორმაციის განახლება.

ჰოპფილდის ქსელებს აქვთ სკალარული მნიშვნელობა თითოეული მდგომარეობისთვის, რომელსაც ენერგიას ვუწოდებთ ქსელისა, რომელიც, მოიცემა შემდეგნაირად:   მას ჰქვია ენერგია, რადგან თუ ერთეულებს შევარჩევთ შემთხვევითად, მისი მნიშვნელობა ან დაიკლებს ან დარჩება იგივე. უფრო მეტიც, თუ გავიმეორებთ განახლებებს, საბოლოოდ ქსელი დაეშვება იმ მდგომარეობამდე, როდასაც მისი მდგოამრეობა მიიღებს ლოკალურ მინიმალურ მნიშვნელობას ენერგის ფუნქციაში (ამას ეწოდება ლიაპუნოვის ფუნქცია). თუ მდგომარეობა არის ლოკალური მინიმუმი ენერგიის ფუნქციაში, ის მაშინ სტაბილური მდგოამრეობაა. აღსანიშნავია, რომ ეს ენერგიის ფუნქცია ეკუთვნის ფიზუკური მოდელების ზოგად კლასს და სახელის ისინგის მოდელის ქვეშ ერთიანდება. უფრო კონკრეტულად, ესენი არიან მარკოვის ქსელები, რამდენადაც ასოციაციურ ალბათურ გაზომვებსა და გიბსის გაზომვებს აქვს მარკოვის ქსელის თვისებები.

ინიციალიზაცია და მუშაობა

რედაქტირება

ჰოპფილდის ქსელების ინიციალიზაცია ხდება ერთეულებისთვის საწყისი მნიშვნელობების მინიჭებით. შემდეგ ხდება განახლება მანამ, სანამ ქსელი არ შეიკრიბება მიმზიდველ ფორმამდე. კრებადობა ზოგადად უეჭველია. როგორც ჰოპფილდმა დაამტკიცა, ამ არაწრფივი დინამიკური სისტემის მიმზიდველები სტაბილურები არიან, ზოგი სხვა სისტემისგან განსხვავებით არც პერიოდული და არც ქაოტურები არიან. შესაბამისად, ჰოპფილდის სისტემების კონტექსტის მიხედვით, მიმზიდველები სისტემის საბოლოო სტაბილური ფორმები არიან და შეუძლებელია მათი შეცვლა ნებისმიერი შიდა განახლებით.

გაწვრთნა

რედაქტირება

„გაწვრთნა“ ჰოპფილდის ქსელში გულისხმობს „დასამახსოვრებელ“ მდგომარეობაში ენერგიის დონის დადაბლებას. ეს აძლევს საშუალებას ქსელს, რომ მოიქცეს, როგორც ასოციაციური მეხსიერება. ქსელს ასევე შეუძლია, რომ აღდგეს მოსალოდნელისგან ოდნავ გადახრილი ინფორმაციის ატვირთვის შემთხვევაში იმ მდგომარეობამდე, რომელიც ყველაზე ახლოსაა აღნიშნულ ინფორმაციასთან. ამიტომაც ჰქვია მას ასოციაციური მეხსიერება, რადგანაც შეუძლია აღადგინოს მეხსიერება მსგავსებებზე დაყრდნობით. მაგალითად, თუ გავწვრთნით ჰოპფილდის ქსელს ისე რომ ჰქონდეს 5 ერთეული მდგომარეობებით (1,-1,1,-1,1) ენერგიის მინიმუმად, და გადავცემთ ქსელს მდგომარეობას (1, -1, -1, -1, 1) ის მიიღებს სახეს (1, -1, 1, -1, 1). ეს იმიტომ, რომ ძალიან მნიშვნელოვანია მდგომარეობა შენარჩუნდეს ენერგეტიკულ მინიმუმზე.

სწავლის წესები

რედაქტირება

არსებობს რამდენიმე განსხვავებული სწავლების წესი, რომლებიც შესაძლოა გამოვიყენოთ, რომ ჰოპფილდის ქსელებს შევანახინოთ ინფორმაცია. სასურველია, რომ სწავლების წესებს ჰქონდეთ შემდეგი ორი თვისება:

  • • ლოკალური: სწავლების წესი არის ლოკალური, თუ თითოეული წონა განახლებადია მის გარშემო არსებული ნეირონებით და მხოლოდ ეს ნეირონებია საკამრისი.
  • • განახლებადი: ახალი ფორმების ათვისება შესაძლებელია უკვე არსებული ძველი ფორმებისგანაა, რომლებიც გაწვრთვნისთვის გამოიყენეს. ასეა მაგალითად, როცა ახალი ფორმა გამოიყენება წვრთვნისთვის და ახალი წონების მნიშვნელობები მხოლოდ დამოკდიებულია ახალ და ძველ ფორმებზე.

ეს თვისებები სასურველია, რადგან თუ სწავლების წესები ამ თვისებებს აკმაყოფილებენ, მაშინ ისინი მეტად შესაძლებელი და დასაშვებია ბიოლოგიურად. მაგალითად, რადგან ადამიანის ტვინი მუდმივად სწავლობს ახალ კონცეპტებს, შესაძლოა ითქვას, რომ ადამიანის სწავლება განახლებადია. ისეთი სისტემები, რომლებიც განახლებადი არ არიან მხოლოდ ერთხელ არის შესაძლებელი, რომ გამოიწვრთნან დიდი რაოდენობის მონაცემებით.

ჰებიანური სწავლების წესი ჰოპფილდის ქსელისთვის

რედაქტირება

ჰებიანური თეორია 1949 წელს დონალდ ჰებმა ჩამოაყალიბა, რომ „ასოციაციური სწავლება“ აეხსნა. აღნიშნულ თეორიაში, ნეირონული ქსოვილების ერთდროული აქტივაცია ამ ქსოვილებს შორის სინაფსური სიძლიერის გაზრდას იწვევს. ეს წესი ზოგადად ასე ყალიბდება: „ნეირონები, რომლებიც ერთად აღიგზნებიან, ერთმანეთს უკავშირდებიან და ერთ სისტემად ყალიბდებიან. ნეირონები, რომლებიც ცალ-ცალკე აღიგზნებიან, ერთმანეთს არ უკავშირდებიან.“

ჰებიანის წესი არის ორივე, ლოკალურიც და განახლებადიც. ჰოპფილდის ქსელისათვის ის ჩაიწერება შემდეგნაირად, როცა n ცალი ახალი ორობითი მოდელი ისწავლება:

 

სადაც   წარმოადგენს i ბიტს მოდელიდან   თუ ბიტები i და j ერთმანეთის ტოლია მაშინ  დადებითი იქნება. მაშინ მათ ექნებათ დადებითი ეფექტი წონაზეც. შესაბამისად i და j ერთეულები კიდევ უფრო დაუახლოვდებიან ერთმანეთს. საწინააღმდეგო ხდება როდესაც ბიტები i და j ერთმანეთის ტოლი არ არის.

სტორკის სწავლების წესი 

რედაქტირება

წესი 1997 წელს ამოს სტორკმა ჩამოაყალიბა. ეს წესი როგორც ლოკალური, ასევე განახლებადია. სტორკმა აჩვენა, რომ თუ ჰოპფილდის ქსელი გამოიწვრთნება მისი წესით, მაშინ მას ექნება მეტი ტევადობა, ვიდრე ჰებიანის წესის შემთხვევაში. სტორკის სწავლების წესის ალგორითმი კავშირის წონისათვის შემდეგია:

 

სადაც   არის i ნეირონის ლოკალური ველის ფორმა. [1]

ეს სწავლების წესი ლოკალურია, რადგანაც სინაფსები ითვალისწინებენ მხოლოდ ნეირონების ნაწილს. ეს წესი საბოლოო ჯამში უფრო მეტი ინფორმაციის შენახვის საშუალებას იძლევა, რადგანაც ის იყენებს ლოკალურ ველს განსხვავებით ჰებიანის წესისა.

ყალბი მოდელები

რედაქტირება

ის მოდელები, რომლებსაც ქსელი იყენებს წვრთნისთვის (აღმდგენი მდგომარეობები) სისტემის მიმზიდველი მოდელები ხდება. მუდმივი განახლება სისტემას მიიყვანს აღმდგენ მდგომარეობამდე. თუმცა ხანდახან სისტემები საბოლოოდ ყალბ მოდელებამდე მივლნენ (გამომწვრთნელი მოდელებისგან განსხვავებულ). ენერგიაც ასევე ლოკალური მინიმუმია აღნიშნულ მოდელში. 

შესაძლოა რომ ყალბი მოდელი იყოს წრფივი კომბინაცია კენტი რაოდენობის აღმდგენი მოდელებისა. მაგალითად, როდესაც ვიყენებთ სამ მოდელს  

 

ყალბ მოდელებს შეუძლებელია ჰქონდეთ ლუწი რაოდენობა მდგომარეობებისა, რადგან ის შეიძლება აიჯამოს 0-ზე.

ტევადობა

რედაქტირება

ქსელის ტევადობა ჰოპფილდის ქსელში განსაზღვრულია ნეირონების რაოდენობით და კავშირებით მოცემულ ქსელში. შესაბამისად, რაოდენობა, ანუ თუ რამდენი ინფორმაციის შენახვაა შესაძლებელი, დამოკიდებულია ნეირონების რიცხვსა და კავშირებზე. უფრო მეტიც, აჩვენეს, რომ ყოველ 1000 კვანძე შეიძლება 138 ვექტორის შენახვა. ცხადია, რომ თუ იმაზე მეტი ინფორმაცის შენახვას ვეცდებით, ვიდრე ქსელს შეუძლია, მაშინ ბევრი შეცდომა დაგროვდება სისტემაში. ხშირად ისეც ხდება, რომ სხვადასხვა გადაცემული ინფორმაცია ერთში ირევა, როდესაც ვიყენებთ ჰოპფილდის ქსელს. საბოლოოდ, შეიძლება ითქვას, რომ იდეალურ შემთხვევაში 0.14 არის ის კოეფიციენტი, რომლითაც შესაძლებელია ინფორმაციის შენახვა, რაც გულისხმობს ყოველ 100 ნეირონულ კვანძზე 14 მდგომარეობის შენახვას..[2][3]

ადამიანის მეხსიერება

რედაქტირება

როდესაც დამახსოვრებულ ვექტორს ვიყენებთ, ეს ოდნავ შეაშფოთებს არსებულ მოდელს. მიუხედავად ამისა ჩვენ მაინც ვხედავთ, რომ ახალი ინფორმაცია შემოდის. ჰოპფილდის ქსელისათვის ეს პროცესი აღიწერება ორი ოპერატორით ავტოასოციატორითა და ჰეტეროასოციატორით. პირველი მაშინ ვლინდება, როდესაც ვექტორი ასოცირებს თავის თავთან, ხოლო მეორე როდესაც ორი ვექტორი მახსოვრობიდან ერთმანეთთან ასოცირებენ. ორივე სახის ოპერატორი ინახება მახსოვრობაში, თუმცა მხოლოდ იმ შემთხვევაში, როცა არა ცალკეული, არამედ ორივე ოპერატორის კომბინაციის შენახვას ვეცდებით. აქ გასათვალისწინებელია ის ფაქტი, რომ ჰოპფილდის ქსელი აქ იყენებს ჰების მახსოვრობის წესს, რომელიც აჩვენებს, რომ დამახსოვრება ეს არის ნეირონებს შორის კავშირის გაძლიერების შედეგი.

პუზუტომ და კაჰანამ (2001) წელს აჩვენეს, რომ ნეირონული ქსელი შესაძლოა იყოს მუდმივად განახლებადი (განმეორებადი), თუ ვიყენებთ ალბათური დასწავლის ალგორითმს. აჩვენეს, რომ ამ დროს კავშირების სიძლიერეები ფიქსირებული რჩება და ასევე შესაძლებელია შენახვიდან გახსენების პროცესსზე უპრობლემოდ გადასვლა. შესაძლებელია იმის ჩვენება, რომ დავიწყების პროცესით რომელის ჰოპფილდის მოდელში მიმდინარეობს რეალურად წაადგება მთელს სისტემას საერთო ჯამში.

მაკკულიხის და პიტის (1943) დინამიკური წესი აჩვენებს, რომ ბევრი ნეირონის აქტივაცია ფარავს ახალი ნეირონების აქტივაციას. ასევე ახდენს გავლენას ნეირონებს შორის კავშირების სიძლიერეზე. აღიშნულ წესს ჰოპფილდი იმისთვისაც იყენებს, რომ აღმდგენი მდგომარეობების შესაძლებლობა აჩვენოს ჰოპფილდის სისტემებში. აღსანიშნავია, რომ ჰოპფილდის სისტემებს ურჩევნია არაწრფივი აქტივაცის ფუნქციების გამოყენება, ვიდრე წრფივისა. ეს შესაძლოა ითქვას, რომ არის ჰოპფილდის დინამიკური წესი. ამით ჰოპფილდმა შეძლო ეჩვენებინა, რომ არაწრფივი აქტივაციის ფუნქციის გამოყენების შემთხვევაში დინამიკური წესი ყოველთვის შეინახავდა ვექტორებს უკვე არსებული ფორმის მიხედვით.

რესურსები ინტერნეტში

რედაქტირება
  1. Storkey, Amos J., and Romain Valabregue. "The basins of attraction of a new Hopfield learning rule." Neural Networks 12.6 (1999): 869-876.
  2. Liou, C.-Y.; Lin, S.-L. (2006). „Finite memory loading in hairy neurons“ (PDF). Natural Computing. 5 (1): 15–42. doi:10.1007/s11047-004-5490-x.
  3. Liou, C.-Y.; Yuan, S.-K. (1999). „Error Tolerant Associative Memory“ (PDF). Biological Cybernetics. 81: 331–342. doi:10.1007/s004220050566.