有时间了我录个视频说说,这次先用图文应付一下 废话不多说,直接开干: 【第一步】:下载压缩包 先将网盘里的模型文件下载下来,不限速的网盘链接: 如果正文看不见链接,就看看评论区。 【第二步】:解压缩 将压缩包解压,其中Smart Search用的模型是:XLM-Roberta-Large-Vit-B-16Plus(支持中文,体验很好,默认的ViT-B-32__openai不支持中文)。 人脸识别Facial Recognition用的模型是:buffalo_l,另外在上面压缩包里加入了antelopev2模型(据说这个模型更好,不过我没试过)。 【第三步】:上传模型文件夹 准备工作:建议把群晖通过webdav挂载到电脑,稳定性比浏览器上传好一些。 正式上传: 比如需要中文搜索,那就把“XLM-Roberta-Large-Vit-B-16Plus”文件夹整体上传至映射的clip目录,我的目录如下:/volume2/docker/immich/machine/model-cache/clip 如果找不到这个目录,那就看一下自己“immich-machine-learning”容器的目录映射情况,我的是这样: volumes: - /volume2/docker/immich/machine/model-cache:/cache 如下图: 上传之后的目录结构:/volume2/docker/immich/machine/model-cache/clip/XLM-Roberta-Large-Vit-B-16Plus 如下图:
【第四步】:在immich后台修改模型名称 依次点击右上角的“Administration”→左侧的“Settings”→“Machine Learning Settings”→“Smart Search”,在CLIP MODEL里填入“XLM-Roberta-Large-Vit-B-16Plus”,然后保存。如下图:
【第五步】:查看运行状态 看一下“immich-machine-learning”容器的日志,如果显示:“Loading clip model 'XLM-Roberta-Large-Vit-B-16Plus'to memory ”的字样,说明模型加载没问题,如下图:
【第六步】:重跑Smart Search任务 在immich管理后台的**s里点右侧的“All”,跑一下Smart Search任务,然后等待enjoy it 看一下成果: 最后,最近也有大佬打包了支持中文CLIP的docker镜像,大家可以拉着试试
|