华为昇腾LLM大模型部署和量化
华为昇腾LLM大模型部署和量化
华为昇腾LLM大模型部署和量化
相关平台
基础
LLM部署
- 使用MindIE部署QwQ-32B
- 使用MindIE部署DeepSeek-R1
守护进程方式部署模型
通常模型服务化(暴露http接口等端点)部署配置文件位于
/usr/local/Ascend/mindie/latest/mindie-service/config/config.json。而改用环境量方式定义配置文件路径,可以灵活切换运行的模型1 2
export MIES_CONFIG_JSON_PATH=/model/config/qwen2.5-14b.json nohup /usr/local/Ascend/mindie/latest/mindie-service/bin/mindieservice_daemon > /dev/null 2>&1 &
- Ascend Deployer昇腾软件工具包使用
量化
学习资源
本文由作者按照 CC BY 4.0 进行授权
