Deep Learning & Inferenz-Server

GPU-beschleunigte Machine-Learning- und Inferencing-Server bringen Flexibilität und Kosteneffizienz in die Hochleistungsberechnung. Diese AI-Workstations, auf denen NVIDIAs leistungsstärkste Software-Bibliotheken für tiefgehendes Lernen laufen, eignen sich ideal für den Einsatz im Bildungs- und Gesundheitswesen, im Einzelhandel, in der Fertigung und in kommerziellen Geschäftsgebäuden

AGX-Inferenz-Server

Angetrieben von einer Anordnung von 12x Jetson AGX Xavier-Modulen

Mit einer Leistung von 11 TFLOPS/s bei weniger als 400 W verfügt dieser Inference Server über 12x Ethernet-Verbindungen und kann mit bis zu 24 Terabyte NVMe-Speicher ausgestattet werden!