llamafactory用多卡4090服务器,训练qwen14B大模型时报错GPU显存不足oom(out of memory),已解决文章浏览阅读3.6k次,点赞12次,收藏25次。通过export CUDA_VISIBLE_DVICES=0,1,2,3,4,5,6,7指定使用8张显卡,训练q...2025-04-18阅读(4)