Array ( [__flash] => Array ( ) [guest] => Array ( [hash_id] => dqn7knbgnjlearrp629e3rglia ) )
Сервер с 4 GPU AMD Radeon RX 7900 XTX на основе архитектуры RDNA 3 и с 24 ГБ видеопамяти обеспечивает передовую производительность для искусственного интеллекта, 3D-рендеринга и обработки больших данных. Это мощное и доступное решение идеально подходит для бизнес-задач любой сложности.
AMD Radeon RX 7900 сочетает передовые технологии и высокую производительность. Эта карта отличается энергоэффективностью, большим объемом видеопамяти и поддержкой инновационных технологий, таких как Ray Tracing второго поколения и Infinity Cache. Она идеально подходит для таких профессиональных задач, как 3D-рендеринг, работа с искусственным интеллектом (AI) и научные вычисления. Благодаря архитектуре RDNA 3 и 24 ГБ памяти GDDR6 карта легко справляется с тяжелыми нагрузками, например с 4K-геймингом и 3D-графикой.
Видеокарта оснащена 6144 потоковыми процессорами, которые обеспечивают высокую производительность в играх и профессиональных приложениях.
Достаточный объем памяти для обработки сложных вычислений.
Повышенная пропускная способность памяти.
Реалистичная графика и улучшенная визуализация.
Видеокарта отлично подходит для множества профессиональных приложений.
Снижение эксплуатационных расходов.
Идеально для серверов с несколькими GPU.
Высокая производительность по более конкурентной цене, чем аналогичные решения от NVIDIA. В одном сервере можно использовать несколько недорогих карт AMD и он будет значительно выгоднее, чем сервер с картой NVIDIA
AMD Radeon RX 7900 XTX | Nvidia RTX 4090 | |
Llama 3.3 70B (2K контекст, 54 Gb VRAM). Q4 в Ollama | Response: 12 token/s | Response: 17 token/s |
Gemma 2 27B (2K контекст - 28 Gb VRAM). Q4 в Ollama | Response: 32 token/s | Response: 40 token/s |
Gemma 2 27B (8K контекст — 41 Gb VRAM). Q4 в Ollama | Response: 33 token/s | Response: 42 token/s |
Phi4 14B (12 Gb VRAM) 2K context. Q4 в Ollama | Response: 48 token/s | Response: 76 token/s |
Qwen25-32b-Instruct. Fp16 в vLLM | End-to-End Request Latency (30 workers): 10 s | End-to-End Request Latency (30 workers): 10 s |
Qwen25-32b-Instruct. Fp16 в vLLM | Combined Token Throughput (30 workers): 710 token/s | Combined Token Throughput (30 workers): 750 token/s |
Qwen25-32b-Instruct. Fp16 в vLLM | Time to First Token (30 workers): 1.5 s | Time to First Token (30 workers): 2.3 s |
Qwen25-32b-Instruct. Fp16 в vLLM | Inter-Token Latency (30 workers): 0.037s | Inter-Token Latency (30 workers): 0.037s |
Qwen25-32b-Instruct. Fp16 в vLLM | Request per Second (30 workers): 2.1 request/s | Request per Second (30 workers): 2.3 request/s |
Qwen25-32b-Instruct. Fp16 в vLLM | Tokens per Second (30 workers): 27 tokens/s | Tokens per Second (30 workers): 27.5 tokens/s |
Панель управления серверами и API
Соберите сервер нестандартной конфигурации онлайн.
Тестовые серверы предоставляются только компаниям. Рассматриваем заявки, в которых указан корпоративный e-mail
Карта не использует CUDA-ядра, так как это технология NVIDIA. Вместо них используется 6144 потоковых процессора (Stream Processors), которые выполняют аналогичные функции.
Да, карта поддерживает OpenCL и ROCm и vLLM, которые можно использовать для обучения, инференса нейронных сетей, чат-ботов и для распознавания видео. Также поддержка видеокарты есть в популярных библиотеках pyTorch и TensorFlow. Скорость работы с fp16 моделями сопоставима с картой NVIDIA RTX 4090, но fp8 модели на данной видеокарте пока не работают. Для некоторых задач карта RX 7900 XTX — отличный вариант, поскольку стоит меньше и при этом не уступает по скорости картам NVIDIA, особенно в мультиGPU-конфигурациях.
Основное ограничение — отсутствие полной поддержки CUDA, что может потребовать адаптации программного обеспечения или использования эмулятора типа ZLUDA. Однако ROCm предоставляет широкий функционал для задач AI и все больше поддерживается ПО и прикладными библиотеками.
Подпишитесь на нашу рассылку
и первыми воспользуйтесь скидками и ограниченными специальными предложениями