如果使用nvidia显卡,可以使用如下service文件内容
[Unit]
Description=Trim Text-to-Vector Inference Service
Requires=ai_manager.service
After=ai_manager.service
[Service]
User=root
Group=root
ExecStart=/usr/trim/lib/ai_manager/com.trim.txt2vec/txt2vec.bin --model_format CUDA --nvidia_id GPU-c669d70b-0c55-610a-df4e-41c49c9d2545 --onnx_model /vol1/@sysappmeta/ai-manager/models/txt2vec-large-model-1.0.0/txt2vec.onnx --sp /vol1/@sysappmeta/ai-manager/models/txt2vec-large-model-1.0.0/sp.model --device GPU --log_level debug --log_file /usr/trim/logs/ai_manager/com.trim.txt2vec/app.log
Environment="LD_LIBRARY_PATH=/usr/trim/lib:/vol1/@sysappmeta/ai-manager/solib"
Restart=always
RestartSec=5s
Type=simple
[Install]
WantedBy=multi-user.target
请按照你自己本地的环境配置,修改模型文件地址以及nvidia_id,这个id可以通过nvidia-smi -L命令获取到。