Perceptron është Përkufizimi i termit, veçorive, aplikimit

Përmbajtje:

Perceptron është Përkufizimi i termit, veçorive, aplikimit
Perceptron është Përkufizimi i termit, veçorive, aplikimit
Anonim

Në mësimin e makinerive, një perceptron është një algoritëm mësimi i mbikëqyrur për klasifikuesit binarë. Shpesh quhet edhe perceptron. Një klasifikues binar është një funksion që mund të vendosë nëse një hyrje, e përfaqësuar nga një vektor numrash, i përket një klase të caktuar. Ky është një lloj klasifikuesi linear, domethënë një algoritëm klasifikimi që bën parashikimet e tij bazuar në një funksion parashikues linear që kombinon një grup peshash me një vektor të veçorive.

Formulat e perceptronit
Formulat e perceptronit

Vitet e fundit, rrjetet nervore artificiale kanë fituar vëmendje për shkak të përparimeve në të mësuarit e thellë. Por çfarë është një rrjet nervor artificial dhe nga çfarë përbëhet ai?

Njihuni me Perceptron

Në këtë artikull, ne do t'i hedhim një vështrim të shpejtë rrjeteve nervore artificiale në përgjithësi, më pas do të shikojmë një neuron të vetëm dhe në fund (kjo është pjesa e kodimit) ne do të marrim versionin më themelor të një artificiale neuron, perceptron, dhe klasifikoni pikat e tij nëaeroplan.

A keni menduar ndonjëherë pse ka detyra që janë kaq të lehta për çdo person, por tepër të vështira për kompjuterët? Rrjetet nervore artificiale (shkurt ANN) u frymëzuan nga sistemi nervor qendror i njeriut. Ashtu si homologu i tyre biologjik, ANN-të janë ndërtuar mbi elementë të thjeshtë të përpunimit të sinjalit që kombinohen në një rrjet të madh.

Rrjetet nervore duhet të mësojnë

Ndryshe nga algoritmet tradicionale, rrjetet nervore nuk mund të "programohen" ose "akordohen" për të punuar siç synohet. Ashtu si truri i njeriut, ata duhet të mësojnë të kryejnë detyrën. Përafërsisht, ekzistojnë tre strategji të të mësuarit.

Mënyra më e lehtë mund të përdoret nëse ka një rast testimi (mjaft të madh) me rezultate të njohura. Pastaj trajnimi shkon kështu: përpunoni një grup të dhënash. Krahasoni rezultatin me rezultatin e njohur. Konfiguro rrjetin dhe provo sërish. Kjo është strategjia e të mësuarit që do të përdorim këtu.

Mësim i pambikëqyrur

E dobishme nëse nuk ka të dhëna testimi të disponueshme dhe nëse është e mundur të nxirret një funksion i kostos nga sjellja e dëshiruar. Funksioni i kostos i tregon rrjetit nervor se sa larg është nga objektivi. Rrjeti më pas mund të rregullojë parametrat e tij menjëherë, duke punuar me të dhëna reale.

Mësim i përforcuar

Metoda "karrota dhe shkopi". Mund të përdoret nëse rrjeti nervor gjeneron një veprim të vazhdueshëm. Me kalimin e kohës, rrjeti mëson të preferojë veprimet e duhura dhe të shmangë ato të gabuara.

Mirë, tani dimë paknatyra e rrjeteve nervore artificiale, por nga çfarë përbëhen saktësisht? Çfarë do të shohim nëse hapim kapakun dhe shikojmë brenda?

Neuronet janë blloqet ndërtuese të rrjeteve nervore. Komponenti kryesor i çdo rrjeti nervor artificial është një neuron artificial. Jo vetëm që janë emërtuar sipas homologëve të tyre biologjikë, por janë modeluar edhe sipas sjelljes së neuroneve në trurin tonë.

Biologjia kundër teknologjisë

Ashtu si një neuron biologjik ka dendrite për të marrë sinjale, një trup qelizor për t'i përpunuar ato dhe një akson për të dërguar sinjale te neuronet e tjera, një neuron artificial ka kanale të shumta hyrëse, një fazë përpunimi dhe një dalje që mund të degëzohet në shumë të tjerë. neuronet artificiale.

A mund të bëjmë diçka të dobishme me një perceptron të vetëm? Ekziston një klasë problemesh që një perceptron i vetëm mund të zgjidhë. Konsideroni vektorin hyrës si koordinata pikash. Për një vektor me n-elemente, kjo pikë do të jetojë në hapësirën n-dimensionale. Për të thjeshtuar jetën (dhe kodin më poshtë), le të supozojmë se është 2D. Si një copë letër.

Më pas, imagjinoni se vizatojmë disa pika të rastësishme në këtë plan dhe i ndajmë ato në dy grupe duke vizatuar një vijë të drejtë përgjatë letrës. Kjo linjë i ndan pikat në dy grupe, një sipër dhe një poshtë vijës. Të dy grupet quhen më pas të ndashme në mënyrë lineare.

Një perceptron, pavarësisht sa i thjeshtë mund të duket, është në gjendje të dijë se ku është kjo linjë dhe kur të ketë mbaruar stërvitjen, mund të përcaktojë nëse një pikë e caktuar është mbi ose nën këtë vijë.

Historishpikjet

Algoritmi për këtë metodë u shpik në vitin 1957 në Laboratorin e Aviacionit Cornell nga Frank Rosenblatt (shpesh i emëruar pas tij), financuar nga Zyra Amerikane e Kërkimeve Detare. Perceptroni synohej të ishte një makinë, jo një program, dhe megjithëse zbatimi i tij i parë ishte në softuer për IBM 704, ai u zbatua më pas në harduer të ndërtuar me porosi si "Mark 1 Perceptron". Kjo makinë ishte projektuar për njohjen e imazheve: kishte një grup prej 400 fotocelash të lidhura rastësisht me neuronet. Peshat ishin të koduara në potenciometra dhe përditësimi i peshës gjatë stërvitjes bëhej nga motorët elektrikë.

Në një konferencë shtypi të organizuar nga Marina e SHBA-së në vitin 1958, Rosenblatt bëri deklarata në lidhje me perceptronin që shkaktoi debat të nxehtë midis komunitetit të ri të AI; bazuar në pretendimet e Rosenblatt, New York Times raportoi se perceptroni është "kompjuteri elektronik embrional që Marina pret të jetë në gjendje të ecë, të flasë, të shohë, të shkruajë, të riprodhojë veten dhe të jetë i vetëdijshëm për ekzistencën e tij."

Segmentet e perceptronit
Segmentet e perceptronit

Zhvillime të mëtejshme

Megjithëse fillimisht perceptroni dukej premtues, u vërtetua shpejt se perceptronet nuk mund të trajnoheshin për të njohur shumë klasa modelesh. Kjo çoi në një stagnim në fushën e kërkimit me rrjetet nervore perceptron për shumë vite përpara se të njihej se një rrjet nervor me dy ose më shumë shtresa (i quajtur gjithashtuperceptron me shumë shtresa) kishte shumë më tepër fuqi përpunuese sesa perceptronet me një shtresë (të quajtur edhe perceptron me një shtresë). Një perceptron me një shtresë është i aftë vetëm të studiojë struktura të ndashme në mënyrë lineare. Në vitin 1969, libri i famshëm "Perceptrons" nga Marvin Minsky dhe Seymour Papert tregoi se këto klasa rrjetesh nuk mund të mësonin funksionin XOR. Megjithatë, kjo nuk vlen për funksionet e klasifikimit jolinear që mund të përdoren në një perceptron me një shtresë.

Perceptron Rosenblatt
Perceptron Rosenblatt

Përdorimi i funksioneve të tilla zgjeron aftësitë e perceptronit, duke përfshirë zbatimin e funksionit XOR. Shpesh supozohet (gabimisht) se ata gjithashtu supozuan se një rezultat i ngjashëm do të ishte për një rrjet perceptron me shumë shtresa. Megjithatë, ky nuk është rasti, pasi Minsky dhe Papert e dinin tashmë se perceptronet me shumë shtresa ishin në gjendje të prodhonin një funksion XOR. Tre vjet më vonë, Steven Grossberg botoi një seri punimesh që paraqisnin rrjete të afta për të modeluar funksionet diferenciale, funksionet e përmirësimit të kontrastit dhe funksionet XOR.

Vepra u botuan në 1972 dhe 1973. Megjithatë, teksti i Minsky/Papert shpesh i anashkaluar shkaktoi një rënie të ndjeshme të interesit dhe financimit të kërkimit me perceptronin e rrjetit nervor. Kaluan dhjetë vjet të tjerë përpara se kërkimi i rrjetit nervor të ringjallej në vitet 1980.

Karakteristikat

Algoritmi i Kernelit të Perceptronit u prezantua në vitin 1964 nga Yzerman et al. Mori dhe Rostamizadeh (2013), të cilët zgjerojnë rezultatet e mëparshme dhe japin kufij të rinj L1.

Perceptron është një model i thjeshtuar i një neuroni biologjik. Ndërsa kompleksiteti i modeleve biologjike nervore shpesh kërkohet për të kuptuar plotësisht sjelljen nervore, hulumtimi tregon se një model linear i ngjashëm me perceptronin mund të nxisë disa nga sjelljet që shihen në neuronet reale.

Perceptron është një klasifikues linear, kështu që nuk do të hyjë kurrë në një gjendje me të gjithë vektorët hyrës të klasifikuar saktë nëse grupi i trajnimit D nuk është i ndashëm në mënyrë lineare, d.m.th. nëse shembujt pozitivë nuk mund të ndahen nga shembujt negativë me një hiperplan. Në këtë rast, asnjë zgjidhje "e përafërt" nuk do të kalojë hap pas hapi përmes algoritmit standard të të mësuarit, përkundrazi të mësuarit do të dështojë plotësisht. Prandaj, nëse ndashmëria lineare e grupit të trajnimit nuk dihet apriori, duhet të përdoret një nga opsionet e trajnimit më poshtë.

Marrëdhëniet e perceptronit
Marrëdhëniet e perceptronit

Algoritmi xhepi

Algoritmi i xhepit me arpion zgjidh problemin e qëndrueshmërisë së të mësuarit të perceptronit duke mbajtur zgjidhjen më të mirë të gjetur deri tani "në xhep". Më pas, algoritmi i xhepit e kthen zgjidhjen në xhep dhe jo zgjidhjen e fundit. Mund të përdoret gjithashtu për grupe të dhënash jo të ndashme, ku qëllimi është të gjendet një perceptron me pak klasifikime të gabuara. Megjithatë, këto zgjidhje duken stokastike dhe kështu algoritmi i xhepit nuk i përshtatet atyre.gradualisht gjatë kursit të trajnimit dhe nuk garantohet se do të zbulohen gjatë një numri të caktuar hapash trajnimi.

Algoritmi Maxover

Algoritmi i Maxover është "i fortë" në kuptimin që do të konvergojë pavarësisht nga njohuria për ndarjen lineare të grupit të të dhënave. Në rastin e një ndarje lineare, kjo do të zgjidhë problemin e të mësuarit, opsionalisht edhe me stabilitet optimal (diferencë maksimale midis klasave). Për grupet e të dhënave jo të ndashme, një zgjidhje me një numër të vogël klasifikimesh të gabuara do të kthehet. Në të gjitha rastet, algoritmi i afrohet zgjidhjes gradualisht gjatë procesit mësimor, pa kujtuar gjendjet e mëparshme dhe pa kërcime të rastësishme. Konvergjenca qëndron në optimalitetin global për grupet e të dhënave të përbashkëta dhe optimalitetin lokal për grupet e të dhënave jo të ndashme.

ekuacioni i perceptronit
ekuacioni i perceptronit

Voted Perceptron

Algoritmi Voted Perceptron është një variant që përdor perceptrone të shumëfishta të peshuara. Algoritmi fillon një perceptron të ri sa herë që një shembull klasifikohet gabimisht, duke inicializuar vektorin e peshës me peshat përfundimtare të perceptronit të fundit. Secilit perceptron do t'i jepet gjithashtu një peshë e ndryshme që korrespondon me numrin e shembujve që ata klasifikojnë saktë përpara se të keqklasifikojnë njërin, dhe në fund rezultati do të jetë një votë e peshuar në të gjithë perceptronin.

Aplikacion

Në problemet e ndashme, trajnimi me perceptron mund të synojë gjithashtu gjetjen e kufirit më të madh të ndarjes midis klasave. E ashtuquajturaNjë perceptron i qëndrueshmërisë optimale mund të përcaktohet duke përdorur skemat përsëritëse të trajnimit dhe optimizimit si algoritmi Min-Over ose AdaTron. AdaTron shfrytëzon faktin që problemi përkatës i optimizimit kuadratik është konveks. Perceptroni i qëndrueshmërisë optimale, së bashku me trukun e bërthamës, është baza konceptuale e makinës së vektorit mbështetës.

Perceptron me shumë shtresa
Perceptron me shumë shtresa

Alternativë

Një mënyrë tjetër për të zgjidhur problemet jolineare pa përdorur shumë shtresa është përdorimi i rrjeteve të rendit më të lartë (bllok sigma-pi). Në këtë lloj rrjeti, çdo element i vektorit të hyrjes zgjerohet nga çdo kombinim çift i hyrjeve të shumëzuara (rendi i dytë). Kjo mund të zgjerohet në një rrjet të rendit n. Perceptroni është një gjë shumë fleksibël.

Megjithatë, mbani mend se klasifikuesi më i mirë nuk është domosdoshmërisht ai që klasifikon me saktësi të gjitha të dhënat e trajnimit. Në të vërtetë, nëse do të kishim kufizimin paraprak që të dhënat vijnë nga shpërndarjet Gaussian me variante të barabarta, një ndarje lineare në hapësirën hyrëse është optimale dhe një zgjidhje jolineare anashkalohet.

Algoritme të tjera të klasifikimit linear përfshijnë Winnow, vektorin mbështetës dhe regresionin logjistik. Perceptroni është një grup universal algoritmesh.

Përkthimi rusisht i skemës
Përkthimi rusisht i skemës

Fusha kryesore për mësimin e mbikëqyrur

Mësimi i mbikëqyrur është një detyrë e të mësuarit të makinës që mëson një funksion që harton hyrjen në daljebazuar në shembuj të çifteve I/O. Ata nxjerrin një veçori nga të dhënat e etiketuara të trajnimit që përbëhen nga një grup shembujsh. Në mësimin e mbikëqyrur, çdo shembull është një çift i përbërë nga një objekt hyrës (zakonisht një vektor) dhe një vlerë dalëse e dëshiruar (e quajtur gjithashtu një sinjal kontrolli).

Algoritmi i mësimit të mbikëqyrur analizon të dhënat e trajnimit dhe prodhon një funksion të vlerësuar që mund të përdoret për të shfaqur shembuj të rinj. Skenari optimal do të lejonte algoritmin të përcaktojë saktë etiketat e klasave për raste të padukshme. Kjo kërkon që algoritmi i të mësuarit të përgjithësojë të dhënat e të mësuarit në situata të padukshme në një mënyrë "të arsyeshme".

Detyra paralele në psikologjinë njerëzore dhe të kafshëve shpesh quhet të mësuarit konceptual.

Recommended: