DeepSeek R 1, 로컬 배포가 왕입니다!
여러분 들이 직면 한 문제를 요 약 해보 세요 :
https://blog.csdn.net/u012151594/article/details/142062199 1、模型怎么不保存到C盘:关掉ollama之后,设置环境变量:OLLAMA_MODELS,环境变量的地址,改为你想要的地址,参考文章:
2, 다운로드 된 모델을 삭제 하는 방법 , 모델 은 기본적으로 C 디 스크 에 저장 되어 있습니다 : ol lama r m 모델 이름 , 새로 생성 된 모델을 삭제 할 수 있지만 캐 시 파일 은 여전히 있습니다 , 내 캐 시 파일 은 C : Us ers Jack Cui . ol lama 에 있습니다 , 해당 디 렉 토 리를 찾고 , 삭제 할 수 있습니다 .
3, 로 컬 배 포 Deep se ek , 또한 네트워크 , 페이지 지원 의 네트 워 킹 기능을 사용할 수 있습니다 , 페이지 지원 은 기본적으로 구글 브라우 저 를 사용하고 , 사 다 리가 없다면 , 설정 에서 사용할 수 있습니다 , 사용 된 검색 엔진 을 수정 , 국내 사용 .
Deep se ek 를 로 컬 로 배 포 하기 위해 40 90 이 필요하지 않습니다 . 내 테스트 결과는 1. 5 b 모델 , 4 GB 그래 픽 메모 리에서 실행 됩니다 . 7 b , 8 b 모델 , 8 GB 그래 픽 메모리 만 실행 할 수 있다 . 14 b 모델 , 12 GB 그래 픽 메모리 실행 가능 . 32 b 모델 , 24 GB 그래 픽 메모리 실행 가능 .
5, A 카드 도 실행 할 수 있지만 ro cm 을 지원 하는 ol lama 가 필요 하며 B 스테 이션 은 다른 사람의 자 습 서를 검색 할 수 있습니다 .
로 컬 배 포 는 제한 을 돌 파 할 수 있지만 자체 시스템 우 회 규칙을 설정 해야 하며 자체 모델을 미 세 조정 할 수 있습니다 .
https://pan.baidu.com/s/1CBq9RpoR2AbzGffqmJnJLg? 7、大家的配置文件 Furina,经常碰到问题,我上传一个我的,仅供大家参考(提取码: n4qi): pw d = n 4 qi
延伸阅读:
暂无内容!