Neural Networks: Eingangssignal

Moderator: Einführung in die Künstliche Intelligenz

KidAndroid
Neuling
Neuling
Beiträge: 9
Registriert: 26. Okt 2015 16:49

Neural Networks: Eingangssignal

Beitrag von KidAndroid »

Wenn wir ein Eingangssignal (x,y) bekommen, müssen wir nicht zuerst die Aktivierungsfunktion darauf anwenden und diesen Output weiterpropagieren? So weit ich es nämlich verstehe ist das Eingangssignal in_x,in_y .In der Übung und in den Altklausuren scheint es nicht zu sein. Es würde es mich sehr interessieren warum oder warum es nicht gemacht wird.

Vielen Dank.

Benutzeravatar
mmi1991
Computerversteher
Computerversteher
Beiträge: 349
Registriert: 20. Okt 2011 18:46
Wohnort: Hattersheim

Re: Neural Networks: Eingangssignal

Beitrag von mmi1991 »

Wenn du dir mal Folie 13 anschaust (ein einzelnes Neuron):
Die Eingaben werden durch die Eingabefunktion gejagt (idR die Summe). Erst das Ergebnis kommt in die Aktivierungsfunktion, dessen Ergebnis der Output darstellt.
Ophasentutor SoSe 2014, WiSe 2015/16
Alle Angaben wie immer ohne Gewähr

ddimitrov
Erstie
Erstie
Beiträge: 20
Registriert: 17. Jul 2015 16:28

Re: Neural Networks: Eingangssignal

Beitrag von ddimitrov »

Ich stelle die gleiche Frage.

Nehmen wir das Beispiel aus der Klausur WS14-15 (Aufgabe 3-c)
Wir haben die Aktivierungsfunktion g(x)=2x und das Eingangssignal (x,y)=(1,2). Müssen wir daraus das Ausgangssignal Out(x,y) = (1,4) berechnen? Und erst damit a,b und c berechnen?
Die Eingangsknoten sind auch Perceptronen, oder? Die haben nur Eingangssignal ohne Gewichtung. Gibt es eine Ausnahme für die Eingangsknoten? Ist meine Logik falsch?

Gruß

Dimitar

Daki
Windoof-User
Windoof-User
Beiträge: 36
Registriert: 4. Nov 2010 14:34

Re: Neural Networks: Eingangssignal

Beitrag von Daki »

Ich denke, das ist genau so gemeint, wie es dasteht, also dass die Eingabeneuronen die jeweiligen Zahlen als Output haben. Wohlgemerkt: Als Output, das heißt, jegliche Magie mit irgendwelchen Aktivierungsfunktionen usw. ist schon vorher passiert. Der Output wird jetzt nur noch gewichtet (entsprechend der "Dicke" der Leitung, falls das bei der Vorstellung hilft) weitergereicht. Eventuell hilft es, sich die Darstellung auf Folie 16 im entsprechenden Foliensatz noch mal genau anzusehen: Die Gewichte hängen an den Eingängen der nächsten Neuronen, nicht an den Ausgängen der vorangegangenen. Deswegen: Gewichten? Ja. Aber: Aktivieren? Nicht mehr nötig, da schon passiert.

Also, das ist nur meine höchst inoffizielle Vermutung. ^^
Nein, mein Nick hat nichts mit Kissen zu tun!

Antworten

Zurück zu „Einführung in die Künstliche Intelligenz“