The Fort Worth Press - Clockwork.io führt eine neue Klasse der Fehlertoleranz ein, um die durch Ausfälle verursachte Verschwendung von GPU-Leistung beim KI-Training zu beenden

USD -
AED 3.672498
AFN 62.496986
ALL 83.291464
AMD 377.439595
ANG 1.789731
AOA 917.000162
ARS 1400.469598
AUD 1.41232
AWG 1.8025
AZN 1.698173
BAM 1.694199
BBD 2.016199
BDT 122.837565
BGN 1.647646
BHD 0.377414
BIF 2971.660726
BMD 1
BND 1.276166
BOB 6.917163
BRL 5.2286
BSD 1.00104
BTN 92.213603
BWP 13.49469
BYN 2.951217
BYR 19600
BZD 2.013349
CAD 1.36213
CDF 2177.999933
CHF 0.78479
CLF 0.022975
CLP 907.36009
CNY 6.86625
CNH 6.88236
COP 3701.16
CRC 471.846847
CUC 1
CUP 26.5
CVE 95.515497
CZK 21.223604
DJF 178.26731
DKK 6.48997
DOP 61.148914
DZD 132.128096
EGP 52.343129
ERN 15
ETB 156.259621
EUR 0.86853
FJD 2.211034
FKP 0.746092
GBP 0.74932
GEL 2.715008
GGP 0.746092
GHS 10.846186
GIP 0.746092
GMD 73.499098
GNF 8775.835484
GTQ 7.676181
GYD 209.435286
HKD 7.827085
HNL 26.497925
HRK 6.545198
HTG 131.124962
HUF 338.651004
IDR 16911
ILS 3.13355
IMP 0.746092
INR 92.452799
IQD 1311.383107
IRR 1321774.999815
ISK 125.419785
JEP 0.746092
JMD 156.677437
JOD 0.708977
JPY 159.238999
KES 129.249551
KGS 87.450489
KHR 4017.619314
KMF 426.000519
KPW 900.033195
KRW 1494.239788
KWD 0.30705
KYD 0.834214
KZT 489.986487
LAK 21446.144251
LBP 89646.951814
LKR 311.234699
LRD 183.202668
LSL 16.537878
LTL 2.95274
LVL 0.604891
LYD 6.389356
MAD 9.380988
MDL 17.383357
MGA 4149.359621
MKD 53.508642
MMK 2100.020186
MNT 3570.143099
MOP 8.070343
MRU 39.781882
MUR 45.910262
MVR 15.449927
MWK 1735.895148
MXN 17.854325
MYR 3.927005
MZN 63.909988
NAD 16.537162
NGN 1392.86006
NIO 36.842607
NOK 9.68135
NPR 147.541765
NZD 1.70668
OMR 0.384497
PAB 1.001066
PEN 3.425678
PGK 4.31732
PHP 59.596501
PKR 279.653751
PLN 3.70761
PYG 6481.288981
QAR 3.649688
RON 4.423901
RSD 101.977032
RUB 79.663123
RWF 1463.556195
SAR 3.752491
SBD 8.045182
SCR 13.2498
SDG 600.999804
SEK 9.34515
SGD 1.278695
SHP 0.750259
SLE 24.6015
SLL 20969.49935
SOS 571.126617
SRD 37.366504
STD 20697.981008
STN 21.223146
SVC 8.759377
SYP 110.877339
SZL 16.542141
THB 32.152978
TJS 9.595243
TMT 3.5
TND 2.943062
TOP 2.40776
TRY 44.115302
TTD 6.793139
TWD 31.891975
TZS 2599.999715
UAH 44.324249
UGX 3747.401247
UYU 40.028759
UZS 12148.091682
VES 437.65724
VND 26275
VUV 119.598123
WST 2.714424
XAF 568.215936
XAG 0.011764
XAU 0.000195
XCD 2.70255
XCG 1.804188
XDR 0.705783
XOF 568.247932
XPF 103.311763
YER 238.60094
ZAR 16.753975
ZMK 9001.198647
ZMW 19.446021
ZWL 321.999592
  • SDAX

    -42.7100

    17043.56

    -0.25%

  • Goldpreis

    -47.6000

    5131.5

    -0.93%

  • Euro STOXX 50

    -51.9000

    5742.78

    -0.9%

  • TecDAX

    -22.8700

    3576.58

    -0.64%

  • DAX

    -73.0200

    23567.01

    -0.31%

  • MDAX

    -168.4400

    29246.4

    -0.58%

  • EUR/USD

    -0.0041

    1.1529

    -0.36%

Clockwork.io führt eine neue Klasse der Fehlertoleranz ein, um die durch Ausfälle verursachte Verschwendung von GPU-Leistung beim KI-Training zu beenden
Clockwork.io führt eine neue Klasse der Fehlertoleranz ein, um die durch Ausfälle verursachte Verschwendung von GPU-Leistung beim KI-Training zu beenden

Clockwork.io führt eine neue Klasse der Fehlertoleranz ein, um die durch Ausfälle verursachte Verschwendung von GPU-Leistung beim KI-Training zu beenden

Die neue TorchPass-Lösung bewältigt eine millionenschwere Herausforderung im Bereich der KI-Infrastruktur und nutzt Live-GPU-Migration, um groß angelegte KI-Trainings trotz Hardwareausfällen fortzusetzen, anstatt kostspielige Neustarts zu erzwingen

Textgröße:

PALO ALTO, Kalifornien / ACCESS Newswire / 10. März 2026 / Clockwork.io, der Marktführer im Bereich Software-Driven AI Fabrics - einer programmierbaren, herstellerneutralen Software-Layer, die groß angelegte GPU-Cluster für Echtzeit-Beobachtbarkeit, Fehlertoleranz und deterministische Leistung optimiert - gab heute die allgemeine Verfügbarkeit von TorchPass Workload Fault Tolerance bekannt. Diese neue Klasse softwaregesteuerter Fehlertoleranz beseitigt einen der kostspieligsten Ausfallmodi beim groß angelegten KI-Training: katastrophale Job-Neustarts aufgrund von Infrastrukturfehlern.

TorchPass wird als Kernfunktion der Clockwork.io FleetIQ-Plattform bereitgestellt und wendet die Prinzipien Software-Driven AI Fabrics auf verteiltes Training an. Dabei nutzt es Live-GPU-Migration, um Workloads auch bei GPU-Ausfällen, Netzwerkstörungen, Treiberfehlern und sogar vollständigen Node-Abstürzen weiterlaufen zu lassen - ohne Neustarts an Checkpoints oder Verlust des Fortschritts.

„Unternehmen investieren Milliarden in Chips der nächsten Generation, doch die Kosten für die Ausführung verteilter KI-Jobs sind nach wie vor extrem hoch, da das Ökosystem Ausfälle als unvermeidbar akzeptiert hat", so Suresh Vasudevan, CEO von Clockwork.io. „Wir haben TorchPass entwickelt, um diese Prämisse grundlegend zu widerlegen. Anstatt Ausfälle als unvermeidbar zu betrachten und nachträglich neu zu starten, macht TorchPass Infrastrukturfehler für die Workload unsichtbar - das Training wird trotz Ausfällen transparent in der Software fortgesetzt. Bei einer typischen Bereitstellung mit 2.048 GPUs bedeutet dies eine Einsparung von über 6 Millionen $ pro Jahr an Rechenleistung. Genau dafür wurde unser softwaregesteuerter KI-Fabric-Ansatz entwickelt: eine fehlertolerante KI-Infrastruktur."

Dylan Patel, Gründer und CEO von SemiAnalysis, stimmte zu, dass groß angelegte Trainingsaufgaben durch Unterbrechungen eingeschränkt werden.

„Da Blackwell-Cluster mit einer NVL72-Domäne eingeführt werden und wir mit der NVL576-Domäne von Rubin Ultra in die Zukunft blicken, ist die Vorstellung, dass ein einziger GPU-Fehler oder eine Netzwerkverbindung einen gesamten Lauf zum Erliegen bringen kann, völlig inakzeptabel", so Patel. „TorchPass löst eine große Herausforderung hinsichtlich der Zuverlässigkeit von Clustern: Es bietet transparentes Failover und Live-Workload-Migration, wodurch die MFU hoch bleibt, was wiederum zu einer besseren GPU-Wirtschaftlichkeit führt."

Warum KI-Training in großem Maßstab scheitert

Verteiltes KI-Training ist nach wie vor eine der fehleranfälligsten Workloads in modernen Infrastrukturen. Mit zunehmender Clustergröße steigt die Anfälligkeit stark an. Untersuchungen von Meta FAIR zeigen, dass die mittlere Zeit bis zum Ausfall in einem Cluster mit 1.024 GPUs auf 7,9 Stunden und bei 16.384 GPUs auf nur 1,8 Stunden sinkt. Das bedeutet, dass für die meisten großen, auf KI fokussierten Unternehmen oder KI-Clouds ausfallbedingte Neustarts völlig unvermeidlich sind - was ein großes Hindernis für die Skalierung der Auswirkungen von KI darstellt.

Jeder Ausfall zwingt Trainingsjobs dazu, zum letzten Checkpoint zurückzukehren, wodurch Minuten oder Stunden bereits geleisteter Arbeit verloren gehen und zusätzliche Zeit für manuelle Eingriffe, die Neuzuweisung von Ressourcen und den Neustart des Trainings verschwendet wird. Diese Neustarts begrenzen stillschweigend die GPU-Auslastung, wodurch die Zuverlässigkeit zu einem der größten versteckten Kostenfaktoren in der KI-Infrastruktur wird.

TorchPass behebt dieses Problem, indem es kostspielige Ausfälle von KI-Workloads proaktiv angeht und sie löst, bevor der Job gestoppt wird oder neu gestartet werden muss. TorchPass ist für Unternehmen, die große KI-Workloads und KI-Clouds betreiben, von entscheidender Bedeutung und verbessert die Zuverlässigkeit von Workloads und die Clusterauslastung erheblich. Für KI-Clouds, die nun betroffene GPUs beheben können, während der Trainingslauf wie geplant fortgesetzt wird, bedeutet dies bessere Kunden-SLAs und eine insgesamt bessere Wirtschaftlichkeit der KI-Cloud, wodurch sie ihre Margen besser schützen und neue Modelle schneller bereitstellen können.

„Die Steuerung der Rechenleistung/-kapazität in großen GPU-Clustern ist entscheidend, um sicherzustellen, dass wir unseren Kunden zuverlässige Kapazitäten bieten können. Mit TorchPass haben wir die Unterstützung eines Unternehmens, das sich auf Ausfallsicherheit als Kernfunktion konzentriert: Es ersetzt jede einzelne ausgefallene GPU und sorgt dafür, dass der Rest des Jobs weiterläuft, anstatt dass ein kleines Problem Auswirkungen auf unseren gesamten Betrieb hat", so David Power, CTO von Nscale. „Bei unserer Bewertung hat Live GPU Migration sowohl die Laufkontinuität als auch den Durchsatz unter realen Fehlerbedingungen aufrechterhalten, was genau das ist, was man braucht, um eine vorhersehbare Trainingszeit und ein besseres Kundenerlebnis in großem Maßstab zu erzielen."

So funktioniert Live GPU Migration: Zuverlässigkeit ohne Neustart

TorchPass führt bei Ausfällen eine transparente Migration der betroffenen Trainingsprozesse zu freien Ressourcen durch. TorchPass schließt die Wiederherstellung in der Regel in etwa drei Minuten ab, während der Trainingsprozess ohne Unterbrechung fortgesetzt wird.

Es unterstützt die Ausfallsicherheit in drei Ausfallszenarien:

  • Ungeplante Migration, die plötzliche Ereignisse wie Kernel-Abstürze, Stromausfälle oder GPU-Fehler durch die Rekonstruktion des Zustands aus fehlerfreien Replikaten behandelt

  • Präventive Migration, ausgelöst durch Frühwarnsignale wie steigende Temperaturen oder ECC-Speicherfehler, ermöglicht eine kontrollierte Migration vor einem schwerwiegenden Ausfall

  • Geplante Migration, die Wartungsarbeiten, Patches und die Neuverteilung der Arbeitslast ohne Unterbrechung des Trainings ermöglicht

Dieser Ansatz reduziert den Verlust an Trainingsfortschritt um 95 % und verkürzt die Ausfallzeit von etwa drei Stunden pro Tag auf weniger als zehn Minuten in einem Cluster mit 1.024 GPUs.

Jordan Nanos, Mitglied des technischen Stabs und Hauptautor des unabhängigen Benchmarks von ClusterMAX-SemiAnalysis für groß angelegtes KI-Training, hat Clockwork.io TorchPass einem Stresstest unterzogen und festgestellt, dass es bei groß angelegten verteilten Trainings eine hervorragende Leistung und Effizienz bietet, wodurch Benutzer den Checkpointing-Overhead beim Training reduzieren können. Er teilte die folgenden Ergebnisse mit:

„In unseren Tests lieferte Clockwork.io TorchPass die schnellste und effizienteste fehlertolerante Leistung für einen gpt-oss-120B-Trainingslauf. Wir haben TorchTitan auf einem Kubernetes-Cluster mit 64x H200-GPUs verwendet. Während unserer Tests haben wir die Job-Abschlusszeit (JCT) und die Modell-FLOPs-Auslastung (MFU) im Vergleich zu einem Standardansatz (Checkpoint-Neustart) und dem führenden Open-Source-Fehlertoleranz-Trainingsframework (TorchFT) gemessen. Wir haben mehrere Hardwareausfälle auf dem Cluster simuliert, um die fehlertoleranten Trainingsframeworks einem Stresstest zu unterziehen.

Im Vergleich zu Checkpoint-Restart war TorchPass bei der Wiederherstellung nach Ausfällen deutlich schneller. Dies reduzierte die Gesamt-JCT und sorgte für eine hohe MFU. Im Vergleich zu TorchFT hatte TorchPass eine deutlich höhere MFU. Dies reduzierte die Gesamt-JCT und sorgte gleichzeitig für eine gleichbleibende Zeit zur Wiederherstellung nach Ausfällen.

Die Verwendung von TorchPass hat auch einen Downstream-Effekt, da es Benutzern die Möglichkeit bietet, Checkpoints in ihrem Trainingscode zu reduzieren oder sogar ganz zu entfernen. Dies bedeutet größere effektive Batch-Größen, ein geringeres Risiko für Speicherfehler (OOMs) und weniger Zeitaufwand für Überlegungen zum Speicherplatz. Für eine Forschungsorganisation kann dies letztendlich eine schnellere Erreichung ihrer Trainingsziele bedeuten", schloss Nanos.

Messbare geschäftliche Auswirkungen durch softwaregesteuerte Fehlertoleranz

Für Kunden, die große KI-Cluster betreiben, sind die Auswirkungen unmittelbar und messbar. In einer typischen H200-Bereitstellung mit 2.048 GPUs sorgt TorchPass Workload Fault Tolerance durch die Vermeidung von Rechenleistungsverschwendung für jährliche Einsparungen von über 6 Millionen US-Dollar.

Diese Einsparungen resultieren aus der Eliminierung von Hunderttausenden von GPU-Stunden, die sonst durch fehlerbedingte Neustarts, kaskadierende Wiederholungsversuche und Leerlaufzeiten verloren gehen würden. Indem TorchPass Trainingsjobs trotz Infrastrukturfehlern weiterlaufen lässt, anstatt sie neu zu starten, wandelt es verlorene GPU-Zeit in produktives Training um und verbessert so erheblich die Rendite von GPU-Investitionen, die heute oft nur 30 bis 50 % der theoretischen Leistung erreichen.

Die nächste Generation der KI-Infrastruktur ermöglichen

Indem TorchPass Zuverlässigkeit zu einer softwaredefinierten Funktion statt zu einer Hardwarebeschränkung macht, bietet es die erforderliche Betriebssicherheit für den Einsatz eng gekoppelter Systeme der nächsten Generation wie NVIDIA GB200 und GB300 NVL72 sowie zukünftiger Rack-Scale-Systeme, bei denen dichte Architekturen selbst die Kosten kleinerer Ausfälle vervielfachen.

TorchPass baut auf der früheren Version von Network Fault Tolerance von Clockwork.io auf, die dieselben Prinzipien der softwaregesteuerten KI-Struktur auf die Netzwerkausfallsicherheit anwendet, indem sie den Datenverkehr bei Verbindungsausfällen transparent umleitet.

Zusammen bilden diese Funktionen die Software-Driven AI Fabric von Clockwork.io, eine herstellerneutrale Software-Layer, die Netzwerk, Rechenleistung und Speicher umfasst. Da moderne KI-Workloads auf eng gekoppelten Clustern laufen, auf denen Hunderte oder Tausende von Prozessoren koordiniert im Gleichschritt arbeiten müssen, verhält sich die Infrastruktur wie ein einziges System, in dem Zuverlässigkeit und Leistung direkt die Gesamteffizienz bestimmen. Durch die Verwaltung dieser Komplexität in der Software ermöglicht Clockwork.io den Betreibern, heterogene KI-Infrastrukturen als einheitliche Plattform zu betreiben und dabei eine hohe Auslastung, vorhersehbare Leistung und Ausfallsicherheit zu gewährleisten, während die Flexibilität zur Weiterentwicklung der Hardware und zur Verbesserung der Wirtschaftlichkeit groß angelegter KI-Implementierungen erhalten bleibt.

Um mehr über die Einführung von TorchPass zu erfahren, besuchen Sie das Clockwork.io-Team persönlich auf der NVIDIA GTC vom 16. bis 19. März am Stand Nr. 205 oder besuchen Sie https://clockwork.io.

Über Clockwork.io

Clockwork.io ist ein Pionier im Bereich Software-Driven AI Fabrics™ und bietet eine programmierbare Software-Layer, die große KI-Cluster beobachtbar, deterministisch und von Grund auf widerstandsfähig macht, um einen kontinuierlichen Workload-Fortschritt und eine maximale Cluster-Auslastung zu erzielen. Mit der FleetIQ-Plattform können Unternehmen die anspruchsvollsten KI-Workloads der Welt schneller, zuverlässiger und kostengünstiger trainieren, bereitstellen und bedienen. Unternehmen wie Uber, Wells Fargo, DCAI, Nebius, Nscale und White Fiber vertrauen auf Clockwork.io, um ihre KI-Infrastruktur zu betreiben. Weitere Informationen finden Sie unter www.clockwork.io.

Medienkontakt

Dana Trismen
[email protected]
650-269-7478

QUELLE: Clockwork

T.M.Dan--TFWP