Vikt

Författare: Roger Morrison
Skapelsedatum: 27 September 2021
Uppdatera Datum: 1 Juli 2024
Anonim
VIKT(A)R xOi! - На танцполе
Video: VIKT(A)R xOi! - На танцполе

Innehåll

Definition - Vad betyder vikt?

Tanken på vikt är ett grundläggande koncept i konstgjorda neurala nätverk. En uppsättning viktade ingångar gör att varje artificiell neuron eller nod i systemet kan producera relaterade utgångar. Professionals som arbetar med maskininlärning och artificiell intelligensprojekt där konstgjorda neurala nätverk för liknande system används ofta talar om vikt som en funktion av både biologiska och tekniska system.


Vikt är också känd som synaptisk vikt.

En introduktion till Microsoft Azure och Microsoft Cloud | I hela denna guide kommer du att lära dig vad cloud computing handlar om och hur Microsoft Azure kan hjälpa dig att migrera och driva ditt företag från molnet.

Techopedia förklarar vikt

I en konstgjord neuron är en samling viktade ingångar fordonet genom vilket neuronet engagerar sig i en aktiveringsfunktion och ger ett beslut (antingen skjuter eller inte skjuter). Typiska konstgjorda neurala nätverk har olika lager inklusive ett inmatningsskikt, dolda lager och ett utgångsskikt. Vid varje lager tar den enskilda neuron in dessa insignaler och väger dem i enlighet därmed. Detta simulerar den biologiska aktiviteten hos enskilda nervceller och sätter in signaler med en given synaptisk vikt från en neurons axon till dendritterna från en annan neuron.


IT-proffs kan använda specifika matematiska ekvationer och visuella modelleringsfunktioner för att visa hur synaptiska vikter används i ett konstgjordt neuralt nätverk. I ett system som kallas bakpropagering kan ingångsvikter ändras i enlighet med utgångsfunktionerna när systemet lär sig hur de ska tillämpas korrekt. Allt detta är grundläggande för hur neurala nätverk fungerar i sofistikerade maskininlärningsprojekt.

Den här definitionen skrevs i con Neural Networks