Die Revolution nach den LLMs: Neue KI-Architekturen setzen auf Effizienz statt Gigantismus
Wie Dr. Zero, VL-JEPA und Liquid Networks das intensive Training von Large Language Models neu denken
Von der Kopfwelt-Redaktion | Januar 2026
Die Ära der immer größeren Large Language Models (LLMs) nähert sich einem Wendepunkt. Während Tech-Giganten weiterhin Milliarden in das Training massiver Sprachmodelle investieren, entsteht in Forschungslaboren weltweit eine neue Generation von KI-Systemen, die effizienter, adaptiver und in manchen Bereichen bereits überlegen sind. Zwei bahnbrechende Papers – eines von Meta unter der Leitung von KI-Pionier Yann LeCun, das andere von einem Team aus Meta und der University of Illinois – zeigen eindrucksvoll, wohin die Reise geht: weg von rechenintensivem Pretraining, hin zu selbstlernenden Architekturen und fundamentalen Paradigmenwechseln.
Die dominante Strategie der letzten Jahre lässt sich einfach zusammenfassen: mehr Parameter, mehr Trainingsdaten, mehr Rechenleistung. GPT-4 setzt auf geschätzte 1,7 Billionen Parameter, Gemini Ultra auf ähnliche Dimensionen. Doch diese Skalierungsstrategie stößt an Grenzen – ökonomische, ökologische und zunehmend auch technische.[huggingface]
Die neue Forschung verfolgt einen radikal anderen Ansatz: Statt durch schiere Größe zu beeindrucken, setzen innovative Architekturen auf Effizienz durch intelligenteres Design. Drei zentrale Entwicklungen kristallisieren sich heraus:
Self-Evolution statt Supervised Learning – KI-Systeme entwickeln sich ohne menschlich kuratierte Trainingsdaten weiter
Embedding-Prediction statt Token-Generation – Lernen in abstrakten Repräsentationsräumen vereinfacht die Lernaufgabe
Adaptive Architekturen statt statischer Modelle – Systeme, die während der Inferenz weiterlernen
Das im Januar 2026 veröffentlichte Paper "Dr. Zero: Self-Evolving Search Agents without Training Data" demonstriert einen faszinierenden Ansatz: Ein KI-System, das sich vollständig ohne menschlich kuratierte Trainingsdaten weiterentwickelt.[arxiv]
Das Kernkonzept ist elegant: Zwei Agenten, beide aus demselben Basismodell initialisiert, treiben sich gegenseitig an:
Der Proposer generiert zunehmend anspruchsvollere, aber lösbare Fragen
Der Solver entwickelt Strategien, um diese Fragen durch mehrstufiges Reasoning und Tool-Nutzung zu beantworten
Mit jeder Iteration verbessert sich der Solver, was den Proposer motiviert, schwierigere Aufgaben zu stellen
Dieses selbstverstärkende System etabliert ein automatisches Curriculum – vergleichbar mit einem Schachspieler, der stärker wird, indem er gegen einen ebenfalls lernenden Gegner antritt.
Die größte technische Innovation ist Hop-Grouped Relative Policy Optimization (HRPO). Diese Methode clustert strukturell ähnliche Fragen zu Gruppen und konstruiert gruppenbasierte Baselines statt individueller Bewertungen. Das Ergebnis: Eine Reduktion des Rechenaufwands um 75% ohne Performance-Einbußen.[arxiv]
Konkret bedeutet das: Statt für jede der tausenden Trainingsfragen einzeln zu evaluieren, wie schwierig und lösbar sie ist (was normalerweise aufwendiges nested sampling erfordert), identifiziert HRPO strukturelle Ähnlichkeiten und bewertet ganze Cluster gemeinsam.
Die Ergebnisse sind beeindruckend: Dr. Zero erreicht oder übertrifft fully supervised Baselines auf komplexen Multi-Hop-QA-Benchmarks – und das mit einem um bis zu 14,1% höheren Erfolg, ohne ein einziges menschlich annotiertes Trainingsbeispiel.[i-scoop]
Was bedeutet das für Unternehmen und Entwickler? Dr. Zero beweist, dass komplexe Reasoning-Fähigkeiten durch reine Selbst-Evolution entstehen können. Das öffnet neue Wege für:
Domain-Spezialisierung ohne Expertendaten: In Feldern wie Medizin oder Jura, wo Experten-Annotationen rar und teuer sind, könnte Self-Evolution Agenten trainieren, die sich in spezifischen Nischen entwickeln
Dynamisches Wissensmanagement: Search Agents lernen den Prozess des Suchens statt bloßes Faktenwissen – sie bleiben dadurch aktuell, auch wenn sich Informationen ändern
Reduzierte Abhängigkeit von Big Tech: Kleinere Organisationen können spezialisierte Agenten entwickeln, ohne Zugang zu Millionen menschlicher Annotationen zu benötigen
Parallel dazu präsentiert Meta unter der Federführung von Chief AI Scientist Yann LeCun mit VL-JEPA (Joint Embedding Predictive Architecture for Vision-Language) einen fundamentalen Architekturwandel.[arxiv]
Klassische Vision-Language Models (VLMs) wie GPT-4V oder Gemini generieren autoregressiv Token für Token. Das Problem: Sie müssen nicht nur die semantische Bedeutung erfassen, sondern auch oberflächliche linguistische Details wie Wortwahl, Stil und Paraphrasierungen lernen.[kopfwelt]
VL-JEPA bricht mit diesem Paradigma radikal: Statt Tokens im Datenraum zu generieren, sagt es kontinuierliche Embeddings im abstrakten Repräsentationsraum vorher.[arxiv]
textVisuelle Eingabe (Xv) → X-Encoder (V-JEPA 2, frozen ViT-L) → Visuelle Embeddings (Sv) ↓ Textuelle Query (Xq) + Sv → Predictor (Llama-3.2, 8 Layer) → Vorhergesagtes Embedding (Ŝy) ↓ Textliches Ziel (Y) → Y-Encoder (EmbeddingGemma-300M) → Ziel-Embedding (Sy) ↓ Training: InfoNCE Loss minimiert D(Ŝy, Sy) ↓ Inferenz: Y-Decoder (Ŝy → Ŷ) nur bei Bedarf
Die Eleganz liegt in der Vereinfachung der Lernaufgabe: Im rohen Token-Space erscheinen verschiedene plausible Antworten (z.B. "Die Lampe geht aus" vs. "Der Raum wird dunkel") nahezu orthogonal, da sie keine gemeinsamen Tokens teilen. Im Embedding-Space jedoch werden semantisch ähnliche Antworten zu nahen Punkten gemappt – eine unimodale statt multimodale Zielverteilung, die drastisch einfacher zu lernen ist.[openreview]
In streng kontrollierten Vergleichen (gleicher Vision-Encoder, gleiche Daten, gleiche Batch-Größe, gleiche Iterationen) zeigt VL-JEPA beeindruckende Vorteile gegenüber token-basierten VLMs:[arxiv]
Metrik | VL-JEPA (0.5B Predictor) | Token-VLM (1B LLM) | Verbesserung |
|---|---|---|---|
Video Captioning (CIDEr, 3 Datasets) | 14.8 | 7.1 | +108% |
Video Classification (Top-5, 3 Datasets) | 41.0% | 27.2% | +50.7% |
Trainierbare Parameter | 794M | 1.6B | -50.4% |
Inference Latenz | Vergleichbar | Vergleichbar | Parity |
Besonders bemerkenswert: VL-JEPA erreicht höhere Performance mit der Hälfte der trainierbaren Parameter. Das ist kein marginaler Fortschritt – es deutet auf eine fundamental effizientere Lernstrategie hin.[arxiv]
Ein weiterer Durchbruch: Selektives Dekodieren. Da VL-JEPA kontinuierliche Embedding-Streams produziert, kann es semantische Shifts erkennen und nur bei Bedarf dekodieren. In Experimenten mit EgoExo4D (6-Minuten-Videos mit durchschnittlich 143 Action-Annotationen) reduziert adaptive Selektion via Clustering die Anzahl der Dekodieroperationen um Faktor 2.85×, während die durchschnittliche CIDEr-Score-Übereinstimmung erhalten bleibt.[arxiv]
Für Real-World-Anwendungen wie Live Action Tracking in AR-Brillen, autonome Fahrzeuge oder Robotik bedeutet das: Kontinuierliches semantisches Monitoring ohne die Latenz-Probleme autoregressiver Token-Generierung.
VL-JEPA demonstriert außergewöhnliche Vielseitigkeit mit einer einzigen Architektur:[arxiv]
Generative Tasks (Captioning, open-ended VQA): Dekodieren von Ŝy zu Text
Klassifikation (8 Video-Klassifikations-Datasets): Kosinus-Ähnlichkeit zwischen Ŝy und Label-Embeddings
Retrieval (8 Text-to-Video-Datasets): Ranking von Videos nach Ähnlichkeit zu Query-Embeddings
Diskriminative VQA (GQA, TallyQA, POPE): Nächstgelegene Antwort-Embedding selektieren
Benchmarks (VL-JEPABASE, Zero-Shot):
Video-Klassifikation: 46.4% avg. accuracy (übertrifft PE-Core-G mit 44.6%)
Text-to-Video Retrieval: 58.4% avg. Recall@1 (übertrifft PE-Core-G mit 58.1%)
WorldPrediction-WM (Inverse Dynamics): 65.7% accuracy – neues State-of-the-Art, übertrifft GPT-4o (52.7%), Gemini-2 (55.6%) und Claude-3.5 (53.3%)[arxiv]
Während Transformer auf quadratisch skalierender Self-Attention basieren (O(n²) für Sequenzlänge n), bieten State Space Models (SSMs) wie Mamba lineare Komplexität (O(n)). Die S-Mamba-Familie zeigt beeindruckende Ergebnisse:[emergentmind]
Simple-Mamba (Time Series Forecasting): Beste MSE auf 8/13 Datasets mit weniger Parametern und GPU-Memory als Transformer-Baselines[emergentmind]
ST-Mamba (Spatio-Temporal): 61.11% Speedup gegenüber Transformern bei vergleichbarer/besserer Accuracy[emergentmind]
Routing Mamba (RoM): Kombination von SSMs mit Mixture-of-Experts für sparse, skalierbare Architekturen[microsoft]
Liquid Neural Networks (LNNs), entwickelt am MIT, brechen mit der Annahme statischer Post-Training-Gewichte. Durch Liquid Time-Constant (LTC) Models passen Neuronen ihre Dynamik kontinuierlich via Differentialgleichungen an:[linkedin]
dxdt=−xτ(t,I,x,θ)+A⋅f(xt,It,θ,t)dtdx=−τ(t,I,x,θ)x+A⋅f(xt,It,θ,t)
wobei τ(t, I, x, θ) der adaptive Zeit-Constant ist.[linkedin]
Effizienz-Beispiele:
Intel Loihi-2 (Neuromorphic Chip): 91.3% Accuracy auf CIFAR-10 mit nur 213 μJ/Frame[linkedin]
Autonomes Fahren: Nur 19 Neuronen für Lane-Keeping, übertrifft Modelle mit zehntausenden Parametern, generalisiert auf neue Umgebungen ohne Retraining[linkedin]
Liquid Foundation Models (LFM2): 2× schneller CPU-Decode, 3× weniger Trainingszeit als Qwen3, lineare Skalierung mit Sequenzlänge[linkedin]
Inspiriert vom Kolmogorov-Arnold Representation Theorem, ersetzen KANs lineare Gewichte durch lernbare univariate Funktionen (oft Splines) auf Kanten statt festen Aktivierungen auf Knoten.[en.wikipedia]
Vorteile:
Steilere Scaling Laws: N⁻⁴ (KAN) vs. N⁻² (MLP) – kleinere Modelle erreichen bessere Accuracy[arxiv]
Interpretierbarkeit: Funktionen auf Kanten sind visuell nachvollziehbar, unterstützt wissenschaftliche Entdeckung[arxiv]
Continual Learning: Lokale Spline-Anpassungen vermeiden Catastrophic Forgetting besser als globale Weight-Updates[en.wikipedia]
OpenAIs o1/o3-Familie und DeepSeeks R1 demonstrieren einen neuen Skalierungsparadigmenwechsel: Statt immer größere Modelle zu pre-trainen, investieren sie Compute während der Inferenz in Chain-of-Thought-Reasoning, Self-Verification und Selbst-Korrektur.[arxiv]
DeepSeek-R1:
Pure RL-Training (R1-Zero): Accuracy steigt von 15.6% auf 71% (MATH Benchmark) ohne Supervised Fine-Tuning, erreicht OpenAI-o1-0912-Level[arxiv]
"Aha Moments": Modell erkennt selbst Inkonsistenzen, pausiert, re-evaluiert Schritte und generiert korrigierte Lösungen – emergent durch RL, nicht vorprogrammiert[fireworks]
Compute-Optimal Strategy: Adaptive Allokation je Prompt-Schwierigkeit, 4× effizienter als Best-of-N Sampling[arxiv]
Implikation: In FLOPs-matched Evaluierungen kann test-time compute ein 14× größeres Modell übertreffen. Das verschiebt Investitionen von Pretraining-Infrastruktur zu Inference-Compute und demokratisiert potenziell Zugang zu SOTA-Reasoning.[arxiv]
MoE-Architekturen wie Mixtral 8×7B, Switch Transformer oder DeepSeek-V3 kombinieren viele spezialisierte "Experten"-Netzwerke, aktivieren aber pro Token nur eine Top-k-Auswahl (typisch k=2).[centron]
Effizienzgewinne:
Switch Transformer: ~4× Vor-Trainings-Beschleunigung gegenüber dichten Modellen ähnlicher Performance[centron]
Expertenparallelität: Verteilung von Experten über GPUs ermöglicht Skalierung auf Billionen Parameter, während nur Bruchteil aktiv ist[centron]
SimSMoE: Framework zur Vermeidung von Representation Collapse zwischen Experten, bis zu 50% Trainingskosten-Reduktion[aclanthology]
Anthropics Constitutional AI (CAI) ersetzt menschliches Feedback durch Self-Critique gegen explizite Prinzipien. Modelle evaluieren eigene Outputs ("Folgt diese Antwort dem Prinzip 'hilfsam, harmlos, ehrlich'?"), generieren Revisionen und erstellen via RLAIF (RL from AI Feedback) eigene Preference-Labels.[mbrenndoerfer]
Vorteile:
Transparenz: Entscheidungen referenzieren explizite Prinzipien statt opake Präferenzen
Skalierbarkeit: Weniger menschliche Annotation nötig; Prinzipien können algorithmisch angewendet werden
Safety: Systematischeres Refusal-Verhalten bei harmful Requests durch explizite Harmlessness-Prinzipien[mbrenndoerfer]
Die nächste Frontier verschiebt sich von Sprachmodellen zu World Foundation Models (WFMs) und Large Geospatial Models (LGMs).[nianticspatial]
Aktuelle Entwicklungen:
Google Genie 3: Generiert persistente 3D-Welten über mehrere Minuten
Meta Habitat 3: Virtuelle Umgebungen für Embodied AI (Roboter-Training)
World Labs (Fei-Fei Li): Marble – downloadbare 3D-Environments aus Text/Image/Video-Prompts
Niantic Spatial LGM: Georeferenzierte Real-World-Daten für spatial intelligence[nianticspatial]
Anwendungen: Robotik-Training in sicheren Simulationen, Digital Twins für Fabriken, Architekturvisualisierung mit Physik-Simulationen, autonome Fahrzeuge in synthetischen Städten.[bernardmarr]
Parallel zu gigantischen Modellen wächst das SLM-Ökosystem – kompakte, domänenspezifische Modelle für On-Premises-Betrieb:[businessinsider]
Europäische Alternativen:
Mistral 7B (FR): Führend bei effizienten Open-Weight-Modellen, übertrifft ähnlich große Modelle bei Coding/Übersetzung
Phi-3 (Microsoft): Beste Hardware-Effizienz für Edge-Deployments
TildeOpenLLM (LV): Fokus auf Mehrsprachigkeit und regionale Sprachen
EuroLLM-Projekt: EU-Initiative für offene, DSGVO-konforme Modelle
SwissGPT (CH): DSGVO-konformes Modell für sensible Einsatzbereiche
TrustLLM (DE): Kontrollierbare LLM-Infrastruktur mit integrierter Compliance[businessinsider]
Treiber: EU AI Act (ab August 2026 für hochriskante Systeme) verlangt Transparenz, Auditierbarkeit und Explainability – Anforderungen, die SLMs besser erfüllen als Black-Box-Giganten.[industr]
Auf der Training-Ebene revolutionieren Learnable Multipliers (LRM) und Group-SAE die Effizienz:[aclanthology]
LRM: Befreit Matrix-Skalierung vom "Noise-WD-Gleichgewicht" durch lernbare Skalierungsfaktoren (global, per Zeile, per Spalte). Ergebnis: Vergleichbare Verbesserung wie Wechsel von Adam zu Muon, additiv (verbessert beide), reduziert Hyperparameter-Tuning.[mind-verse]
Group-SAE: Clustert ähnliche Layer (via AMAD-Metrik) und trainiert ein Sparse Autoencoder pro Gruppe statt pro Layer. Ergebnis: Bis zu 50% Trainingskosten-Reduktion ohne Qualitätsverlust.[openreview]
Die beschriebenen Entwicklungen sind keine Science Fiction – sie sind heute verfügbar und werden produktiv eingesetzt. Für die Praxis ergeben sich konkrete Implikationen:
Die Kombination aus VL-JEPA (50% weniger Parameter, höhere Performance), Dr. Zero (data-free evolution), SLMs und Test-Time Compute zeigt: Intelligenteres Design schlägt rohe Größe. Für Unternehmen bedeutet das:
Kostenreduktion: Kleinere, spezialisierte Modelle sind günstiger zu trainieren, zu hosten und zu betreiben
Schnellere Iteration: Kürzere Trainingszyklen ermöglichen agiles Experimentieren
On-Premises-Fähigkeit: SLMs laufen auf Unternehmens-Hardware, keine Cloud-Abhängigkeit
Dr. Zero und Constitutional AI demonstrieren, dass Systeme sich ohne massive menschliche Annotation verbessern können. Das öffnet Märkte:
Domain-Spezialisierung ohne Expertendaten (Medizin, Jura, Wissenschaft)
Continuous Learning ohne Retraining-Zyklen
Demokratisierung – kleine Teams können spezialisierte Agenten entwickeln
VL-JEPA, World Models und Liquid Networks konvergieren auf Embodied AI – Systeme, die in der physischen Welt agieren:[nianticspatial]
Robotik: Training in World Model-Simulationen, Deployment mit Liquid Networks für kontinuierliche Anpassung
AR/VR: VL-JEPA für Echtzeit-Szenenverständnis mit selektivem Dekodieren
Autonome Systeme: Kombination von LGMs (Geospatial Intelligence), WFMs (Physik-Simulation) und LLMs (Reasoning)[nianticspatial]
Der EU AI Act (ab August 2026) ist kein Hindernis, sondern Katalysator für Architekturen wie KAN (interpretierbar), Constitutional AI (explainable), SLMs (auditierbar):[ultralytics]
Technische Dokumentation mit Modellarchitektur, Trainingsdaten, Risikobewertung wird Pflicht
Erklärbarkeit verschafft Wettbewerbsvorteil bei Kunden mit Compliance-Anforderungen
Europäische Alternativen (Mistral, EuroLLM, SwissGPT) gewinnen Traktion[technologyreview]
Für die technisch versierten unter unseren Lesern hier Details zu den Architekturen:
VL-JEPA nutzt bidirektionalen InfoNCE-Loss, der mathematisch in zwei Komponenten zerfällt:[arxiv]
Alignment: Minimiert Distanz zwischen normalisierten Prediction- und Target-Embeddings
Uniformity: Regularisierung, die Embeddings in einem Batch voneinander wegdrückt (verhindert Collapse)
Im Gegensatz zu token-space Cross-Entropy vereinfacht dieser Embedding-Space-Loss multimodale Zielverteilungen zu unimodalen – dramatisch einfacher zu optimieren.
Zweistufiges Training:
Stage 1 (Pretraining): Query-free Captioning auf PLM-Image/Video-Auto, Datacomp, YFCC-100M, Ego4D, Action100M (2B Samples). Batch size 24k, constant LR 5e-5
Stage 2 (SFT): Query-conditioned auf 25M VQA + 2.8M Captioning + 1.8M Klassifikation. Batch size 6k, cosine LR annealing (2.5B Samples total)[arxiv]
Statt individueller advantage estimation via nested sampling clustert HRPO Fragen nach struktureller Ähnlichkeit (z.B. via embedding-distance oder hop-count):[huggingface]
Clustering: Gruppiere Fragen q₁...qₙ in K Cluster C₁...Cₖ
Group Baseline: Für Cluster Cᵢ, berechne Baseline bᵢ als Durchschnitt der Rewards aller Fragen in Cᵢ
Advantage: Für Frage qⱼ ∈ Cᵢ, Advantage Aⱼ = R(qⱼ) - bᵢ
Policy Update: Standard PPO mit gruppenbasierten Advantages
Ergebnis: Sampling-Overhead sinkt von O(n²) auf O(n·K), K << n.
Die LTC-Formulierung ermöglicht adaptive Zeitdynamik:[linkedin]
textdx/dt = -x/τ(t, I, x, θ) + A·f(x_t, I_t, θ, t)
τ(t, I, x, θ): Lernbarer Zeit-Constant (input-dependent)
A·f(...): Nicht-lineare Aktivierung mit lernbaren Parametern θ
Bidirektionalität: Oft vorwärts + rückwärts Pass, fusioniert via Gating
Implementierung: Closed-Form Continuous (CFC) Networks bieten analytische Lösungen für Trainings-Effizienz, vergleichbar mit LSTMs, aber mit adaptiven Dynamics.[linkedin]
Ersetzen diese Architekturen LLMs vollständig? Nein – zumindest nicht kurzfristig. Die realistischere Prognose:
Hybride Systeme: Kombinationen aus LLMs (General Reasoning), VL-JEPA (Multimodal Grounding), Liquid Networks (Continuous Adaptation), World Models (Physical Simulation)[nianticspatial]
Spezialisierung: LLMs für Language-Heavy Tasks, State Space Models für Long-Context, MoE für Multi-Domain, KANs für Scientific Computing[en.wikipedia]
Shift zu Inference-Compute: Test-Time Scaling (o1/R1-Stil) wird Standard, Pre-Training-Gigantismus verlangsamt sich[cameronrwolfe.substack]
Europäische Souveränität: Compliance-Druck (EU AI Act) und Chinesische Open-Source-Modelle (DeepSeek, Qwen mit 8.85M Downloads) fragmentieren Markt – Chance für spezialisierte, transparente, regionale Lösungen[industr]
Die beiden vorgestellten Papers – Dr. Zero und VL-JEPA – sind Vorboten eines fundamentalen Wandels. Die Forschung bewegt sich weg von "brute force scaling" hin zu intelligenteren Architekturen, die mit weniger Ressourcen mehr erreichen.
Für Kopfwelt und unsere Partner bedeutet das konkret:
Neue Möglichkeiten für mittelständische Digitalprojekte ohne Big-Tech-Budgets
Spezialisierte KI-Agenten für Nischen-Anwendungen ohne Millionen-Trainingsdaten
Echtzeit-Adaptation für dynamische Umgebungen (IoT, Robotik, AR)
Compliance-konforme Lösungen mit Transparenz und Auditierbarkeit
Die Ära der Giganten ist nicht vorbei – aber sie wird zunehmend ergänzt durch eine vielfältige Landschaft adaptiver, effizienter und spezialisierter Systeme. Und das ist eine gute Nachricht für Innovation.
Über Kopfwelt:
Wir entwickeln komplexe, datengetriebene Webapplikationen, die Design und Benutzerfreundlichkeit verbinden – und beobachten die technologischen Entwicklungen, die unsere Arbeit prägen, mit Leidenschaft. Dieser Blog-Post ist Teil unserer Serie über zukunftsweisende Technologien.
Quellen & Vertiefung:
Dr. Zero Paper: https://arxiv.org/abs/2601.07055[kopfwelt]
VL-JEPA Paper: https://arxiv.org/pdf/2512.10942[huggingface]
DeepSeek R1 Technical Report: https://arxiv.org/pdf/2501.12948.pdf[arxiv]
Meta AI V-JEPA Blog: https://ai.meta.com/blog/v-jepa-yann-lecun-ai-model-video-joint-embedding-predictive-architecture/[arxiv]
S-Mamba: Scalable State Space Models Research (EmergentMind)[emergentmind]
Constitutional AI: Principle-Based Alignment (Anthropic Research)[mbrenndoerfer]
KAN: Kolmogorov-Arnold Networks Paper: https://arxiv.org/abs/2404.19756[arxiv]
Liquid Neural Networks Review (LinkedIn Pulse, MIT Research)[linkedin]
Alle zitierten Benchmarks und technischen Details wurden aus den verlinkten wissenschaftlichen Papers und offiziellen Dokumentationen entnommen (Stand: Januar 2026).