NVIDIA aktualisiert die Programmiertools um GPU-Leistung zu beschleunigen

2013-12-28  |  Comebuy News

NVIDIA hat Verbesserungen der zugrunde liegenden Software-Tools zu schreiben von Programmen zur schnelleren Ausführung über CPUs und Grafikprozessoren erleichtern.

Comebuy Verwandte Artikel: Nvidia Updates Programmiertools, Mobilgerät SpeednVidia steigert Erhöhung braucht 3D-Spiele mit Physc EngineConsortium Schritte, Multi-Core Programmierung BarriersNvidia Grafikprozessoren mit Maxwell beschleunigen zu brechen, VoltaNvidia steigert Leistung mit neuen Tesla-GPU

Das Unternehmen am Donnerstag kündigte CUDA-6, die Programmierung einfacher für Supercomputer, Server, PCs und, in geringerem Maße, Smartphones machen. Das Ziel der CUDA ist das zugrunde liegende Tools bereitstellen, sodass Programmierer Verarbeitung von CPUs, GPUs, Entlastung können und das ist für technische und Grafik-Anwendungen schneller.

CUDA 6 bietet einheitliche Speicher, eine erweiterte Management-Funktion, die GPU-Speicher als CPU Speicher so leicht zugänglich macht. Zuvor Daten für die Ausführung von CPUs auf GPUs verschoben werden musste und dann zog zurück, Erstellen von zwei Datenpools. Aber mit vereinheitlichten Speicher, ein Entwickler muss nicht verwalten, wo soll die GPU nutzen.

Die Speicher-Management-Funktion wird herauszufinden, ob die Daten in den Arbeitsspeicher CPU oder GPU Versand und, die verringert die Notwendigkeit für Programmierer Hinzufügen von Zeilen Code zu definieren, wo die Daten gesendet werden sollen, sagt Sumit Gupta, general Manager von Produkten bei Nvidia Tesla Computing beschleunigt.

Der Entwickler muss nicht befürchten, GPU und CPU Speicher da diejenigen wird nicht durch Programmierung, sondern durch Richtlinien in CUDA behandelt, sagte Dan Olds, principal Analyst bei Gabriel Consulting Group.

"Diese Erweiterung CUDA ist evolutionär, nicht revolutionär", sagte alt.

Zum Beispiel sagte GPUs sind häufig verwendet in Servern zur desktop-Virtualisierung und Automatisierung Speicher, Platzierung der Bereitstellung von OS-Instanzen über virtuelle Maschinen beschleunigen könnte, Olds.

Die CUDA-unified Memory-Feature ähnelt der HSA (heterogene System Architecture)-Stiftung-HUMA-Spezifikation, in denen verschiedene Speichertypen in einem System von Prozessoren gemeinsam genutzt werden. Die Spezifikation ermöglicht Programmierern, Anwendungen zu schreiben, ohne sich Gedanken über die Speicherressource der Code übertragen wird. NVIDIA ist nicht Mitglied der HSA-Stiftung, die letztes Jahr von Unternehmen, einschließlich der Advanced Micro Devices, ARM und Qualcomm gegründet wurde.

Die Funktion fällt auch im Einklang mit Nvidias Ziel, CPU und GPU-Speicher eine freigegebene Ressource auf Hardwareebene zu machen. NVIDIAs kommende Tegra-6 mobile Prozessor mit dem Codenamen Parker wird pool CPU und GPU-Speicher in die Geräte, Server und PCs zu den adressierbaren Arbeitsspeicher verfügbar auf Programme zu erweitern. Derzeit GPU und CPU Speicher sind unterteilt, obwohl das unified Memory-Feature CUDA 6 das Problem auf eine Software-Ebene bis zur Umsetzung des bevorstehende Hardware-Verbesserungen lindern sollte.

Einige der schnellsten Supercomputer der Welt verwenden GPUs als Co-Prozessoren, computing zu beschleunigen. Das letzte CUDA-Update, Version 5.5, fügte Unterstützung für ARM CPUs. CUDA 6 hat auch Bibliotheken, die Berechnungen auf Graphikprozessoren beschleunigen könnte verbessert hat.

« Back