vue做視頻網(wǎng)站怎樣做推廣更有效
《【快捷部署】016_Ollama(CPU only版)》 介紹了如何一鍵快捷部署Ollama,今天就來看一下受歡迎的模型。
模型 | 簡介 |
---|---|
gemma | Gemma是由谷歌及其DeepMind團隊開發(fā)的一個新的開放模型。參數(shù):2B(1.6GB)、7B(4.8GB) |
llava | LLaVA是一種多模式模型,它結(jié)合了視覺編碼器和Vicuna,用于通用視覺和語言理解,實現(xiàn)了模仿多模式GPT-4精神的令人印象深刻的聊天功能。參數(shù):7B(4.7GB)、13B(8.0GB)、34B(20GB) |
qwen | Qwen是阿里云基于transformer的一系列大型語言模型,在大量數(shù)據(jù)上進行預(yù)訓(xùn)練,包括網(wǎng)絡(luò)文本、書籍、代碼等。參數(shù):0.5B、1.8B、4B (default)、7B、14B、 32B (new) 、 72B |
llama2 | Llama 2由Meta Platforms發(fā)布。該模型默認情況下支持4096的上下文長度。Llama 2聊天模型根據(jù)超過100萬條人工注釋進行了微調(diào),專為聊天而設(shè)計。參數(shù):7B(3.8GB)、13B(7.4GB)、70B(39GB) |
deepseek-coder | DeepSeek編碼程序是從零開始訓(xùn)練的87%的代碼和13%的英語和中文自然語言。每個模型都在2萬億個tokens上進行了預(yù)訓(xùn)練。參數(shù):1.3B(0.8GB)、6.7B(3.8GB)、33B(19GB) |
yi | 零一萬物出品參數(shù):6B(3.5GB)、34B(19GB) |
phi | 由微軟研究公司開發(fā)的2.7B語言模型,展示了卓越的推理和語言理解能力。參數(shù):2.7B(1.6GB) |
THUDM/GLM系列 | 智譜清言,https://chatglm.cn,知名的ChatGLM-6B、GLM-130B,以及最新的ChatGLM3-6B |
nomic-embed-text | 大上下文嵌入模型 |
grok-1 | Grok-1,馬斯克xAI,314B,這個的使用門檻就比較高了。 |
點擊模型文字,進入ollama library。選擇對應(yīng)的模型,就可以看到下載的命令。
注意:運行7B模型至少需要8 GB RAM, 13B 模型至少需要16 GB RAM, 33B 需要 32 GB。
更多模型請參見:
https://ollama.com/library
https://huggingface.co/models
大模型榜單:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
往期精彩內(nèi)容推薦
👉 【快捷部署】016_Ollama(CPU only版)
👉 【快捷部署】015_Minio(latest)
👉 【快捷部署】014_elasticsearch(7.6)
👉 「快速部署」第一期清單
👉 云原生:5分鐘了解一下Kubernetes是什么