
Nvidia RTX 4070 Ti - 12GB vs. AMD RX 9070 - 16GB
In diesem Vergleich von Nvidia RTX 4070 Ti - 12GB versus AMD RX 9070 - 16GB vergleichen wir die technischen Daten der beiden GPUs. Welche Grafikkarte ist schneller? Hier gibt es FPS & Benchmarks in Gaming und Anwendungen. Außerdem Daten zu Verbrauch, Effizienz (FPS pro Watt) und Preis-Leistung (FPS pro Euro).
Die Produktdaten, Händler- und Angebotsdaten werden freundlicherweise von Geizhals.de bereitgestellt.
Allgemeine Informationen
Günstigster Preis |
![]() |
![]() |
Hersteller | ||
Serie | NVIDIA GeForce RTX 4070 Ti - 12GB | AMD Radeon RX 9070 - 16GB |
Chip-Architektur | Ada Lovelace (ab 2022/Q3) | RDNA 4 (ab 2025/Q1) |
Chip-Bezeichnung | AD104-400-A1 | Navi 48 XT |
Fertigung | TSMC 5 nm "NVIDIA 4N" | TSMC 5 nm "N4P" |
Chip-Größe | 295 mm² | 357 mm² |
Spezifikationen
Die Anzahl der Recheneinheiten, die Taktraten sowie die Größe des Cache sind neben der zugrunde liegenden Architektur ein Indiz für die Leistungsfähigkeit eines Produkts. Die Nvidia RTX 4070 Ti - 12GB verfügt über 7680 FP32-ALUs und hat damit deutlich mehr Recheneinheiten als die AMD RX 9070 - 16GB mit 3584 FP32-ALUs. Der Boost-Takt der Nvidia RTX 4070 Ti - 12GB liegt mit 2610 MHz etwas mehr als/wie bei der AMD RX 9070 - 16GB mit 2520 MHz.
Basis-Takt | 2310 GHz | unbekannt GHz |
Boost-Takt | 2610 GHz | 2520 GHz |
Chip-Konfiguration | 60SM (7680SP / 240TMU / 80ROP) | 56CU (3584SP / 224TMU / 128ROP) |
Rechenleistung | 40.09 TFLOPS (FP16), 40.09 TFLOPS (FP32), 0.63 TFLOPS (FP64) | - |
Kompatibilität und Abmessungen
Schnittstelle | PCIe 4.0 x16 | PCIe 5.0 x16 |
Speicher
Die Nvidia RTX 4070 Ti - 12GB verfügt über 12 GB GDDR6X Videospeicher, welcher an ein 192 Bit Speicherinterface angebunden ist und mit 21 Gbps taktet. Die Speicherbandbreite liegt damit bei 504 GB/s. Bei der AMD RX 9070 - 16GB sind dagegen 16 GB GDDR6 VRAM mit einer Taktrate von 20 Gbps an einem 256 Bit Speicherinterface angeschlossen. Daraus resultiert eine Speicherbandbreite von 640 GB/s.
Speicherkapazität | 12 GB | 16 GB |
Speichertyp | GDDR6X | GDDR6 |
Speicherinterface | 192 Bit | 256 Bit |
Speichertakt | 21 Gbps (1313 MHz) | 20 Gbps (2500 MHz) |
Speicherbandbreite | 504 GB/s | 640 GB/s |
Transcoding-Engine
NVENC | 2x (8th Gen, max. Sessions: 8) | - |
NVDEC | 1x (5th Gen) | - |
Encoding
H.265 | ✓ (4K YUV 4:2:0 / 4K YUV 4:4:4 / 4K Lossless / 8K / HEVC 10bit support / HEVC B Frame support) | ✓ |
H.264 | ✓ (YUV 4:2:0 / YUV 4:4:4 / Lossless) | ✓ |
Decoding
AV1 | ✓ (8bit / 10bit) | ✓ |
H.265 | ✓ (8bit 4:2:0 / 10bit 4:2:0 / 12bit 4:2:0 / 8bit 4:4:4 / 10bit 4:4:4 / 12bit 4:4:4) | ✓ |
H.264 | ✓ | ✓ |
VP8 | ✓ | - |
VP8 | ✓ | - |
VP8 | ✓ | - |
VP8 | ✓ | - |
API-Unterstützung
DirectX | 12 Ultimate (12_2) | 12 Ultimate (12_2) |
CUDA | 8.9 | - |
Vulkan | 1.3 | 1.3 |
OpenCL | 3.0 | 2.2 |
OpenGL | 4.6 | 4.6 |
Shader Modell | 6.7 | 6.8 |
Multi-GPU-Unterstützung | - | - |
Chip-Unterstützungen
Raytracing | ✓ (3rd Gen NVIDIA RTX) | ✓ |
NVIDIA Tensor | ✓ (4th Gen) | - |
HDCP | 2.3 | 2.3 |
Sonstiges
Einführung | 03.01.2023 | 06.03.2025 |
Herstellergarantie | drei Jahre | - |
Spiele
Spiele (RT)
Produktivität
