Ollama: 오픈 소스 빅 언어 모델의 원클릭 네이티브 배포

최신 AI 도구5개월 전 업데이트 Sharenet.ai
2.4K 0
吐司AI

올라마 일반 소개

ollama는 모국어 모델을 실행하기 위한 경량 프레임워크로, 사용자가 대규모 언어 모델을 쉽게 구축하고 실행할 수 있습니다. 여러 가지 빠른 시작 및 설치 옵션을 제공하고, Docker를 지원하며, 사용자가 선택할 수 있는 다양한 라이브러리 세트를 포함하고 있습니다. 사용하기 쉽고 REST API를 제공하며 커뮤니티와 통합되는 다양한 플러그인 및 확장 기능을 제공합니다.

ollama는 개인용 컴퓨터용 순수 명령줄 도구로, 다음과 같은 로컬 채팅 인터페이스를 배포하는 데 권장됩니다: Open WebUI, Lobe Chat, NextChat.

Ollama:本地一键部署开源大语言模型

기본 설치 디렉터리 수정: https://github.com/ollama/ollama/issues/2859

 

Ollama:本地一键部署开源大语言模型

 

 

올라마 기능 목록

대규모 언어 모델을 빠르게 설정하고 실행하기
macOS, Windows, Linux 시스템 지원
ollama-python, ollama-js 등의 라이브러리를 제공합니다.
라마 2 포함. 미스트랄, Gemma 등 사전 구축된 모델
로컬 및 Docker 설치 모두 지원
맞춤형 모델 기능 제공
GGUF 및 PyTorch에서 모델 변환 지원
CLI 작동 가이드 제공
REST API 지원 제공

 

일반적으로 사용되는 올라마 명령어

풀 모델: 올라마 풀 라마3.1

실행 모델: 라마 런 라마3.1

모델 삭제: llama rm llama3.1

사용 가능한 모든 모델 목록: 올라마 목록

쿼리 API 서비스 주소: ollama serve(기본값 http://localhost:11434/)

 

 

올라마 도움말

설치 스크립트 및 가이드는 ollama 웹사이트 및 GitHub 페이지에서 제공됩니다.
제공된 Docker 이미지를 사용하여 설치
CLI 작업을 통한 모델 생성, 풀링, 제거 및 복사
로컬 빌드 초기화 및 실행
모델을 실행하고 모델과 상호 작용

 

 

Ollama에서 지원하는 일부 모델

 

모델매개변수크기다운로드
라마 27B3.8GBollama run llama2
미스트랄7B4.1GBollama run mistral
돌핀 파이2.7B1.6GBollama run dolphin-phi
Phi-22.7B1.7GBollama run phi
뉴럴 채팅7B4.1GBollama run neural-chat
스탈링7B4.1GBollama run starling-lm
코드 라마7B3.8GBollama run codellama
라마 2 무수정7B3.8GBollama run llama2-uncensored
라마 2 13B13B7.3GBollama run llama2:13b
라마 2 70B70B39GBollama run llama2:70b
Orca Mini3B1.9GBollama run orca-mini
비쿠나7B3.8GBollama run vicuna
LLaVA7B4.5GBollama run llava
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b

 

 

올라마 다운로드

© 저작권 정책
AiPPT

관련 문서

댓글 없음

없음
댓글 없음...