ourcubk 启动模型时提示“CUDA内存不足”或服务崩溃 这个问题一般是因为模型太大,显存不足的原因。 根据模型规模选择硬件:14B模型需≥12GB显存(如RTX 3080),7B模型需≥8GB显存。 检查Ollama日志(路径~/.ollama/logs/server.log),排查版本兼容性。 显存不足时,尝试加载量化版模型(如deepseek-r1:14b)。