Introduktion till konvolutionala nervnätverk

Convolutional Neural Networks, även känd som CNN eller ConvNet, hör till kategorin konstgjorda nervnätverk som används för bildbehandling och visualisering. Konstgjord intelligens använder djup inlärning för att utföra uppgiften. Neurala nätverk är antingen hårdvara eller mjukvara programmerad som neuroner i den mänskliga hjärnan. Det traditionella neurala nätverket tar bara bilder med reducerad upplösning som ingångar. CNN löser problemet genom att ordna sina nervceller som den främre loben av mänskliga hjärnor. Förbehandlingen på CNN är mycket mindre jämfört med andra algoritmer. Convolution, en linjär matematisk operation används på CNN. Den använder upplösning istället för allmän matrismultiplikation i ett av dess lager.

Skikt i indragna nervnätverk

Nedan visas lagren av invändiga neurala nätverk:

1. Bildinmatningslager

Inmatningsskiktet ger ingångar (mestadels bilder) och normalisering utförs. Ingångsstorlek måste nämnas här.

2. Konvolutional Layer

Convolution utförs i detta lager och bilden är uppdelad i perceptroner (algoritm), lokala fält skapas vilket leder till komprimering av perceptroner för att visa kartor som en matris med storlek mx n.

3. Icke-linearitetslager

Här tas funktionskartor som inmatning och aktiveringskartor ges som utgång med hjälp av aktiveringsfunktion. Aktiveringsfunktionen implementeras generellt som sigmoid eller hyperbolisk tangentfunktion.

4. Rektifikationslager

Den viktiga komponenten i CNN, detta lager gör träningen snabbare utan att minska noggrannheten. Den utför elementvis funktion av absolut värde på aktiveringskartor.

5. Rektifierade linjära enheter (ReLU)

ReLU kombinerar icke-linjära och korrigerande lager på CNN. Detta gör tröskeloperationen där negativa värden konverteras till noll. ReLU ändrar dock inte storleken på ingången.

6. Poollager

Samlingslagret kallas också det nedmonterade lagret, eftersom detta ansvarar för att minska storleken på aktiveringskartor. Ett filter och steg med samma längd appliceras på ingångsvolymen. Mindre signifikanta data ignoreras av detta lager, varför bildigenkänning görs i en mindre representation. Detta lager reducerar övermontering. Eftersom mängden parametrar reduceras med poolningsskiktet reduceras också kostnaden. Ingången är indelad i rektangulära poolningsregioner och antingen maximalt eller medelvärdet beräknas, vilket ger maximalt eller genomsnittet följaktligen. Max Pooling är ett populärt.

7. Dropout Layer

Detta lager ställer inmatningsskiktet slumpmässigt till noll med en given sannolikhet. Fler resultat i olika element tappas efter denna operation. Detta lager hjälper också till att minska övermontering. Det gör att nätverket blir överflödigt. Inget lärande händer i detta lager. Denna operation utförs endast under träning.

8. Fullt anslutet lager

Aktiveringskartor, som är utgången från tidigare lager, förvandlas till en klass sannolikhetsfördelning i detta lager. FC-lagret multiplicerar ingången med en viktmatris och lägger till biasvektorn.

9. Output Layer

FC-skiktet följs av softmax och klassificeringslager. Softmax-funktionen tillämpas på ingången. Klassificeringsskiktet beräknar funktionen för tvär entropi och förlust för klassificeringsproblem.

10. Regressionslager

Halva medelkvadratfelet beräknas i detta lager. Detta lager ska följa FC-lagret.

Arkitektur av convolutional Neural Network

Nedan visas arkitekturen för invandrade neurala nätverk:

1. LeNet

LeNet introducerades för optisk och karaktärigenkänning i dokument 1998. Den är liten och perfekt för att köra i CPU. LeNet är liten och lätt att förstå. Detta är byggt med tre huvudidéer: lokala mottagliga fält delade vikter och rumslig undersampling. Nätverket visar den bästa interna representationen av råbilder. Det har tre sammankopplade lager, två poollager, ett helt anslutet lager och ett utgående lager. Ett konvolutionsskikt följdes omedelbart av poolskiktet. Alla skikten förklaras ovan.

2. AlexNet

AlexNet utvecklades 2012. Denna arkitektur populariserade CNN inom datorsyn. Den har fem sammankopplade och tre helt anslutna lager där ReLU appliceras efter varje lager. Det tar fördelarna med båda lagren eftersom ett invändigt lager har få parametrar och lång beräkning och det är motsatsen för ett helt anslutet lager. Överpassningen reducerades mycket genom dataförstoring och bortfall. AlexNet var djupare, större och invecklade lager separeras inte av poollager jämfört med LeNet.

3. ZF Net

ZF Net utvecklades 2013 som var en modifierad version av AlexNet. Storleken på det mellersta invridningsskiktet utvidgades och det första invändiga lagrets steg och filterstorlek gjordes mindre. Det erkände bara bristerna hos AlexNet och utvecklade en överlägsen. Alla lager är desamma som AlexNet. ZF Net justerar skiktparametrarna som filterstorlek eller steg i AlexNet vilket gör att det minskar felhastigheterna.

4. GoogLeNet

Denna arkitektur utvecklades 2014. Initialskiktet är kärnbegreppet. Detta lager täcker det större området men noterar liten information om bilden. För att förbättra prestanda används nio startmoduler i GoogLeNet. Eftersom initieringsskiktet är benägen att överanpassa, används fler icke-lineariteter och färre parametrar här. Max poollager används för att sammanfoga utgången från det föregående lagret. Denna arkitektur har 22 lager och parametrarna är 12 gånger mindre. Detta är mer exakt än AlexNet, snabbare också. Felfrekvensen är jämförelsevis lägre. Det genomsnittliga poollagret används i slutet istället för ett helt anslutet lager. Beräkningen minskas, djupet och bredden ökas. Många startmoduler är anslutna för att gå djupare in i arkitekturen. GoogLeNet överträffade alla andra arkitekturer som utvecklats till 2014. Flera uppföljningsversioner finns tillgängliga för denna arkitektur.

5. VGG Net

Detta var en förbättring jämfört med ZFNet och därefter över AlexNet. Den har 16 lager med 3 × 3 sammankopplingslager, 2 × 2 poollager och helt anslutna lager. Denna arkitektur antar den enklaste nätverksstrukturen men har de flesta av parametrarna.

6. ResNet

Restnätverksarkitektur utvecklades 2015. Den använder batchnormalisering och hoppar över användningen av FC-lager. Denna arkitektur använder 152 lager och använder hoppa-anslutningar. ResNet används mest i alla djupinlärningsalgoritmer nu.

Slutsats

Facebook använder CNN för bildtaggning, Amazon för produktrekommendationer och Google för att söka bland användarfoton. Alla dessa görs med större noggrannhet och effektivitet. Framstegen inom djup inlärning nådde ett stadium där CNN utvecklades och hjälper på många sätt. När komplicerat CNN blir, hjälper det till att förbättra effektiviteten.

Rekommenderad artikel

Detta är en guide till convolutional neurala nätverk. Här diskuterar vi Introduktion till convolutional neurala nätverk och dess lager tillsammans med arkitektur. Du kan också gå igenom våra andra föreslagna artiklar för att lära dig mer -

  1. Klassificering av neuralt nätverk
  2. Machine Learning vs Neural Network
  3. Översikt över neurala nätverksalgoritmer
  4. Återkommande nervnätverk (RNN)
  5. Implementering av nervnätverk
  6. Topp 6 jämförelser mellan CNN vs RNN

Kategori: