new Layer(config, layerIndex)
- Description:
Erstellt einen neuen Layer mit der gegebenen Konfiguration.
- Source:
Parameters:
| Name | Type | Description |
|---|---|---|
config |
LayerConfig | |
layerIndex |
number | Position des Layers im Netzwerk (für Snapshot/Debug) |
Members
activation :ActivationFunction
- Description:
Referenz auf die Aktivierungsfunktion (aus Registry).
- Source:
Referenz auf die Aktivierungsfunktion (aus Registry).
Type:
activationName :string
- Description:
Name der Aktivierungsfunktion.
- Source:
Name der Aktivierungsfunktion.
Type:
- string
index :number
- Description:
Index des Layers im Netzwerk.
- Source:
Index des Layers im Netzwerk.
Type:
- number
inputCount :number
- Description:
Anzahl der Eingänge pro Neuron.
- Source:
Anzahl der Eingänge pro Neuron.
Type:
- number
neuronCount :number
- Description:
Anzahl der Neuronen.
- Source:
Anzahl der Neuronen.
Type:
- number
neurons :Array.<Neuron>
- Description:
Array aller Neuronen in diesem Layer.
- Source:
Array aller Neuronen in diesem Layer.
Type:
- Array.<Neuron>
outputs :Float64Array
- Description:
Pre-allokierter Output-Buffer (Float64Array für V8-Performance). Wird bei jedem Forward-Pass überschrieben.
- Source:
Pre-allokierter Output-Buffer (Float64Array für V8-Performance). Wird bei jedem Forward-Pass überschrieben.
Type:
- Float64Array
preActivations :Float64Array
- Description:
Pre-Activation-Werte (z-Werte) für den gesamten Layer. Benötigt für Softmax-Ableitung.
- Source:
Pre-Activation-Werte (z-Werte) für den gesamten Layer. Benötigt für Softmax-Ableitung.
Type:
- Float64Array
useSoftmax :boolean
- Description:
Ob Softmax als Vektor-Aktivierung genutzt wird (nur Output-Layer).
- Source:
Ob Softmax als Vektor-Aktivierung genutzt wird (nur Output-Layer).
Type:
- boolean
Methods
forward(inputs) → {Float64Array}
- Description:
Forward-Pass: Berechnet den Output aller Neuronen.
Ablauf:
- Jedes Neuron berechnet z = Σ(w·x) + b 2a. Wenn useSoftmax: Per-Neuron Aktivierung ist linear, dann Softmax über den Vektor 2b. Sonst: Per-Neuron Aktivierung (ReLU, Sigmoid, etc.)
- Source:
Parameters:
| Name | Type | Description |
|---|---|---|
inputs |
Float64Array | Array.<number> | Eingabewerte (Output des vorherigen Layers) |
Returns:
Ausgabewerte aller Neuronen
- Type
- Float64Array
getParameterCount() → {number}
- Description:
Gibt die Gesamtzahl der Parameter (Gewichte + Biases) dieses Layers zurück.
- Source:
Returns:
- Type
- number
getSnapshot() → {LayerSnapshot}
- Description:
Erstellt einen Snapshot des gesamten Layers. Immutable: Alle Daten werden kopiert (Convention §5).
- Source:
Returns:
- Type
- LayerSnapshot
setBias(neuronIndex, value)
- Description:
Setzt den Bias eines bestimmten Neurons.
- Source:
Parameters:
| Name | Type | Description |
|---|---|---|
neuronIndex |
number | Index des Neurons |
value |
number | Neuer Bias-Wert |
setWeight(neuronIndex, weightIndex, value)
- Description:
Setzt ein einzelnes Gewicht eines bestimmten Neurons.
- Source:
Parameters:
| Name | Type | Description |
|---|---|---|
neuronIndex |
number | Index des Neurons |
weightIndex |
number | Index des Gewichts |
value |
number | Neuer Wert |