Fehler-Rückführung mit der Backpropagation
Dies ist Artikel 4 von 6 der Artikelserie –Einstieg in Deep Learning. Das Gradienten(abstiegs)verfahren ist der Schlüssel zum Training einzelner Neuronen bzw. deren Gewichtungen zu den Neuronen der vorherigen Schicht. Wer dieses Prinzip verstanden hat, hat bereits die halbe Miete zum Verständnis des Trainings von künstlichen neuronalen Netzen. Der Gradientenabstieg wird häufig fälschlicherweise mit der Backpropagation […]