Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen der Seite angezeigt.
Beide Seiten, vorherige Überarbeitung Vorherige Überarbeitung Nächste Überarbeitung | Vorherige Überarbeitung | ||
faecher:informatik:oberstufe:machine_learning:einfuehrung_nn:start [16.03.2023 08:07] – [Wie ist ein künstliches Neuron aufgebaut?] Marco Kuemmel | faecher:informatik:oberstufe:machine_learning:einfuehrung_nn:start [12.09.2023 16:44] (aktuell) – Marco Kuemmel | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
+ | ((Quelle siehe: [[faecher: | ||
+ | <WRAP center round important 90%> | ||
+ | Orientiere dich bei der Bearbeitung der Arbeitsblätter am **WIKI**! Lies hier genau welche Aufgabe als nächstes bearbeitet werden soll und lies zwischen den Aufgaben (falls vorhanden) erst hier die nächste Information. | ||
+ | </ | ||
+ | |||
===== Wie funktioniert die Informationsverarbeitung und -weiterleitung im Gehirn? ===== | ===== Wie funktioniert die Informationsverarbeitung und -weiterleitung im Gehirn? ===== | ||
Zeile 4: | Zeile 9: | ||
{{: | {{: | ||
- | === (A1) === | + | === Arbeitsblatt 1) === |
+ | Bearbeite das folgende Arbeitsblatt. | ||
+ | Nutze für die Aufgabe 1 u. a. die folgende Seite: http:// | ||
- | - Informiere dich im Internet (insb. auf der Webseite http:// | + | {{ :faecher:informatik: |
- | | + | |
- | - Fasse die Signalaufnahme, | + | |
+ | ==== Informationsweiterleitung zwischen den Zellen ==== | ||
+ | Wir wissen nun, wie die Informationen **innerhalb __einer__ Zelle** verarbeitet werden. Aber wie springen die Signale von der einen Zelle zur nächsten durchs ganze Gehirn? Schaue dir dazu das folgende Video an. Es genügt, es bis zur Minute 2:31 anzuschauen: | ||
+ | {{youtube> | ||
- | {{ : | + | ===== Wie ist ein künstliches Neuron aufgebaut? ===== |
{{: | {{: | ||
- | === (A2) === | + | === Arbeitsblatt 2) === |
- | Skizziere deine Vermutung, wie ein Modell eines __künstlichen__ Neurons aussehen könnte. Das Modell soll so weit reduziert sein, dass nur die Bestandteile enthalten sind, die zur Signalaufnahme, | + | Besorge dir das folgende Arbeitsblatt "AB 2 - Maschinelles Lernen |
- | - Die eingehenden Signale sind Zahlen unterschiedlicher Größe. | + | |
- | - Nicht alle Bestandteile eines natürlichen Neurons sind im Modell nötig. | + | |
- | ==== Informationsweiterleitung zwischen den Zellen | + | {{ : |
- | Wir wissen nun, wie die Informationen | + | |
+ | |||
+ | * **Bearbeite Aufgabe 1** | ||
+ | |||
+ | ++++Überprüfe deine Lösung für die 1 b) und übernehme diesen Aufschrieb. | | ||
+ | {{: | ||
+ | ++++ | ||
+ | |||
+ | * **Bearbeite Aufgabe 2** | ||
+ | |||
+ | ==== Was bringt also nun ein solches Neuron? | ||
+ | | ||
+ | * Die gesamte Logik dazu steckt in den Gewichten und Aktivierungsschwellen der Neuronen. | ||
+ | * Im Moment sind das alles noch kleine mathematische Beispiele, die man auch mit imperativer Programmierung lösen könnte. | ||
+ | | ||
+ | |||
+ | **Frage:** könnte man die entscheidenden Werte (Gewichte und Schwellenwert) auch **manuell** festlegen? | ||
+ | |||
+ | * **Bearbeite Aufgabe 3** | ||
+ | |||
+ | Die Bearbeitung der Aufgabe 3 führt zu folgender Erkenntnis: | ||
+ | ++++Erkenntnis: | ||
+ | Es lassen sich nicht alle Funktionen (Teil e) mit nur einem Neuron realisieren! | ||
+ | |||
+ | Die **Lösung** dazu lautet: Wir benutzen mehrere Neuronen in Form von mehreren Schichten (= **künstliches neuronales __Netzwerk__**) | ||
+ | ++++ | ||
+ | |||
+ | ===== Künstliches neuronales Netzwerk ===== | ||
+ | Wenn wir mehrere (künstliche) Neuronen hintereinander schalten und vielfach miteinander verknüpfen, | ||
+ | |||
+ | {{ : | ||
+ | |||
+ | Typischerweise | ||
+ | * Der **Input-Layer** hat keine wirkliche Funktion (insb. keine Aktivierungsschwelle), | ||
+ | * Der **Hidden-Layer** (davon muss mindestens einer existieren, um von einem Netzwerk sprechen zu können), ist notwendig, um komplexere Zusammenhänge zwischen den Eingabedaten berücksichtigen zu können. Er ist versteckt (hidden), da man ihn von außerhalb nicht direkt erkennen kann, da man nur mit der Ein- und Ausgabe zu tun hat. | ||
+ | * Der **Output-Layer** gibt schließlich | ||
+ | |||
+ | {{ : | ||
+ | * Wenn es mehrere Hidden-Layer gibt, dann spricht man vom **deep learning** (in etwa " | ||
+ | * Bei diesem zweiten Bild sieht man außerdem gut, dass alle Neuronen **benachbarter Ebenen** miteinander verbunden sind, aber **nicht** die Neuronen innerhalb einer Ebene. | ||
+ | * Zudem sieht man, dass es auch mehrere Outputs geben kann. Diese können je nach Anwendungszweck beispielsweise als Binärzahl, Koordinaten oder ähnliches aufgefasst werden. | ||
+ | |||
+ | **Bearbeite nun die (Knobel-)Aufgabe Nr. 4 auf dem Arbeitsblatt.** | ||
+ | ++++Mögliche Lösung: | | ||
+ | {{ :faecher:informatik: | ||
+ | ++++ | ||
- | ===== Wie ist ein künstliches Neuron aufgebaut? ===== | ||
- | Vergleiche deine Lösung aus Aufgabe 1 mit dem hier abgebildeten Neuron. | + | <WRAP center round info 90%> |
- | {{: | + | **Erkenntnis: |
+ | Die Gewichte und Schwellenwerte kann man mit viel Aufwand bei kleinen Netzwerken manuell bestimmen. Bei großen Netzwerken wird das aber praktisch unmöglich.\\ | ||
+ | => **Wir müssen dem neuronalen Netz daher das eigenständige Lernen beibringen (siehe nächstes Kapitel)!** | ||
+ | </ | ||
+ | {{simplefilelist> |