Innehållsförteckning:
Definition - Vad betyder bakpropagering?
Backpropagation är en teknik som används för att träna vissa klasser av nervnätverk - det är i huvudsak en princip som gör att maskininlärningsprogrammet kan anpassa sig efter att man tittar på dess tidigare funktion.
Backpropagation kallas ibland "backpropagation of error."
Techopedia förklarar Backpropagation
Backpropagation som en teknik använder gradient nedstigning: Den beräknar gradienten för förlustfunktionen vid utgången och distribuerar den tillbaka genom lagren i ett djupt neuralt nätverk. Resultatet är justerade vikter för neuroner. Även om backpropagation kan användas i både övervakade och icke-övervakade nätverk, ses det som en övervakad inlärningsmetod.
Efter uppkomsten av enkla feedforward neurala nätverk, där data bara går en väg, fann ingenjörer att de kunde använda backpropagation för att justera neurala ingångsvikt efter faktum. Backpropagation kan ses som ett sätt att träna ett system baserat på dess aktivitet, att justera hur exakt eller exakt det neurala nätverket bearbetar vissa ingångar, eller hur det leder mot något annat önskat tillstånd.
