Neuronales Netz
Ein von biologischen Gehirnen inspiriertes Rechenmodell, das aus vernetzten künstlichen Neuronen besteht und Muster in Daten erkennen kann.
Die Bausteine neuronaler Netze – Input Layer empfängt Daten, Hidden Layers verarbeiten sie, Output Layer liefert das Ergebnis. Mehr Layers = tieferes Netz = Deep Learning.
Neuronale Netze bestehen aus gestapelten Schichten (Layers), die jeweils eine spezifische Transformation der Daten durchführen. Jede Schicht nimmt die Ausgabe der vorherigen als Eingabe, verarbeitet sie und gibt das Ergebnis weiter. Diese hierarchische Struktur ermöglicht es, komplexe Muster schrittweise zu abstrahieren: frühe Schichten erkennen einfache Merkmale wie Kanten, spätere Schichten kombinieren diese zu komplexen Konzepten wie Gesichtern oder Objekten.
Ein neuronales Netz besteht aus Schichten (Layers) von künstlichen Neuronen. Jede Schicht transformiert die Daten ein Stück weiter – von rohen Eingaben zu nützlichen Vorhersagen.
Die drei Haupttypen:
Beispiel:
Input Layer Hidden Layers Output Layer
[Pixel] → [Kanten] → [Formen] → [Objekte] → ["Katze" 95%]
[Text] → [Wörter] → [Phrasen] → [Bedeutung] → [Sentiment: positiv]
Wie viele Layers braucht man? Das hängt von der Aufgabe ab. Einfache Probleme: 2-3 Layers. Bildverarbeitung: 50-150+ Layers. GPT-5 hat ~120+ Transformer-Layers. Mehr Layers = mehr Kapazität, aber auch mehr Rechenaufwand.
output = activation(weights · input + bias)
Layers sind wie Stationen in einer Fabrik: Rohstoffe kommen rein (Input), werden in mehreren Schritten verarbeitet (Hidden Layers), und am Ende kommt das fertige Produkt raus (Output).
Input Layer: Empfängt die Rohdaten (Pixel, Tokens, Zahlen)
Hidden Layers: Lernen zunehmend abstrakte Merkmale – von Kanten zu Objekten
Output Layer: Liefert die Vorhersage (Klasse, Wahrscheinlichkeit, generierter Text)
Bildklassifikation
Frühe Layers erkennen Kanten, mittlere Texturen, tiefe Layers ganze Objekte
Sprachverarbeitung
Frühe Layers erfassen Wortbedeutung, tiefe Layers verstehen Kontext und Semantik
Feature Extraction
Hidden Layers als Feature-Extraktoren für Transfer Learning nutzen
Das hängt von der Aufgabe ab. Einfache Probleme: 2-3 Layers. Bildverarbeitung: 50-150+ Layers (ResNet). LLMs: 32-96 Transformer-Layers. Mehr Layers = mehr Kapazität, aber auch mehr Rechenaufwand.
Deep Learning = viele Hidden Layers (>2). Tiefe Netze können hierarchische Merkmale lernen, flache Netze nicht. GPT-5 hat ~120+ Transformer-Layers.
Die Anzahl der Hidden Layers kann die Fähigkeit eines neuronalen Netzes zur Mustererkennung erheblich beeinflussen. Mehr Layers ermöglichen es dem Netzwerk, komplexere Funktionen zu lernen, jedoch kann dies auch zu Überanpassung führen, wenn nicht genügend Daten vorhanden sind.
Zu den häufigsten Aktivierungsfunktionen in den Hidden Layers gehören ReLU (Rectified Linear Unit), Sigmoid und Tanh. Jede Funktion hat ihre eigenen Vor- und Nachteile, wobei ReLU oft bevorzugt wird, da sie die Berechnung beschleunigt und das Problem der verschwindenden Gradienten verringert.