Новости →
GPU servers
(27)
- 0
На одной задаче запускались несколько контейнеров с Ollama и OpenWebUI для тестирования LLM моделей. Использовались Qwen и DeepSeek с разными размерами контекста. Хорошо ощущалось, насколько важен объём видеопамяти при работе с большими моделями. В тестах Hostkey тоже отмечали, что модели с большим контекстом быстро упираются в VRAM и требуют мощных GPU конфигураций.