跳转到主要内容
Chinese, Simplified

category

LLM排行榜提供了不同调优类别中各种大型语言模型(LLM)性能的直接比较。LLM排行榜提供了对不同调优类别和大小的大型语言模型(LLM)的偏好和性能的深入了解。值得注意的是,在每种调整类型中,用户对某些型号都有明确的偏好:

  • 预训练模型(🟢) — 01 ai/Yi-34B在预训练类别中以最高的下载量(69.8k)和点赞量(1.01k)脱颖而出,表明用户在30B大小范围内对该型号有强烈的偏好。预训练模型通常具有很高的参与度,这表明用户重视那些无需额外定制即可使用的模型,但也更喜欢从这些模型开始进行额外的调整。
  • 微调模型(🔶) — Intel/neural-chat-7b-v3-1在7b尺寸类别的微调型号中具有显著的高赞数(255),这表明用户在经过专门的微调过程后发现该型号特别有效或有用。
  • 指令调整模型(⭕) — 与预训练的模型相比,这些模型的参与度较低,但30B类别除外,其中车库bInd/Platypus-30B的下载量相对较高(9.57k)。这可能表明人们对为特定教学环境量身定制的模型有着特殊的兴趣。
  • RL调谐模型(🟦) — RL调谐类别包括在用户参与度方面总体表现最高的模式,meta llama/Lama-2-70b-chat-hf,下载量超过100万,点赞量超过167万。这表明,通过强化学习调整的模型受到了高度重视,可能是因为它们能够产生更适合情境的反应。

数据表明,虽然总体趋势是更大的型号获得更多的下载和点赞,但调整方法也在用户偏好中发挥着重要作用。预训练模型被广泛使用,但人们对通过微调、指令调整或强化学习进一步完善的模型有着明显的兴趣,尤其是当它们属于更大的类别(30B和65B)时,它们被视为更有能力或更通用。

Model NameTuningLast UpdatedDownloadsLikesNote
Qwen/Qwen-7BPretrained12 days ago13.3k292Best 🟢 around 7B

TigerResearch/

tigerbot-13b

-base

Pretrained8 days ago6.62k8Best 🟢 around 13B
01-ai/Yi-34BPretrained2 days ago69.8k1.01kBest 🟢 around 30B

TigerResearch/

tigerbot-70b

-base

Pretrained8 days ago5.4k14Best 🟢 around 65B

GeneZC/

MiniChat-3B

Fine-tuned4 hours ago2.19k25Best 🔶 around 3B

vihangd/

shearedplats-

2.7b-v2

Instruction-tuned5 days ago6381Best ⭕ around 3B

maywell/

Synatra-7B-

v0.3-RP

Instruction-tuned6 days ago2.79k9Best ⭕ around 7B

DanielSc4/

RedPajama-INCITE-Chat-

3B-v1-RL-

LoRA-8bit-test1

RL-tunedAug 10N/AN/ABest 🟦 RL-tuned around 3B

garage-bAInd/

Platypus-30B

Instruction-tunedJul 259.57k18Best ⭕ around 30B

meta-llama/

Llama-2-7b-

chat-hf

RL-tuned13 days ago954k1.91kBest 🟦 around 7B

meta-llama/

Llama-2-13b-

chat-hf

RL-tuned13 days ago498k705Best 🟦 around 13B

MayaPH/

GodziLLa2-70B

Instruction-tuned17 days ago5.67k32Best ⭕ around 65B

Yhyu13/

oasst-rlhf-2-

llama-

30b-7k-steps-hf

RL-tunedAug 44.95k6Best 🟦 around 30B

Locutusque/

gpt2-large-

conversational

RL-tuned7 days ago5.54k4Best 🟦 around 1B

meta-llama/

Llama-2-70b-chat-hf

RL-tuned13 days ago1.07M1.67kBest 🟦 around 65B
tiiuae/falcon-rw-1bPretrainedJul 1237.2k67Best 🟢 around 1B

stabilityai/

stablelm-3b-4e1t

PretrainedOct 2518.1k241Best 🟢 around 3B

euclaise/

falcon_1b_stage3_2

Fine-tunedSep 256.43kN/ABest 🔶 around 1B

Aspik101/

trurl-2-13b-pl-instruct_unload

Fine-tunedAug 185.16k6Best 🔶 around 13B

upstage/

llama-30b-instruct-2048

Fine-tunedAug 37.58k103Best 🔶 around 30B

sequelbox/

StellarBright

Fine-tunedOct 175.49k42Best 🔶 around 65B

yulan-team/

YuLan-Chat

-2-13b-fp16

Instruction-tunedSep 14.83k12Best ⭕ around 13B

42dot/

42dot_LLM-

SFT-1.3B

Instruction-tuned29 days ago7.21k18Best ⭕ around 1B

Intel/neural-

chat-7b-v3-1

Fine-tuned2 days ago9.22k255Best 🔶 around 7B

(Note: The notes column includes emojis to denote the type of tuning: 🟢 for pretrained, 🔶 for fine-tuned, ⭕ for instruction-tuned, and 🟦 for RL-tuned models.)

在生产中使用开源LLM


开源LLM通过开放对高级语言模型的访问(更快的反馈)、促进创新(开放的研究)和实现跨行业的多样化应用(多样化的想法),正在塑造文本生成和生成人工智能的未来。
从Llama 2到Mistral,这些模型为LLM世界带来了新的方法和手段。虽然这些模型表现出非凡的能力,但了解如何克服它们的局限性是至关重要的——与专有LLM相比,性能差异较低,防止偏见的护栏有限,答案不正确,计算成本高。在许多情况下,只有在规模(每天3万代以上)或数据隐私至关重要的情况下,转向开源LLM才有意义。
当您探索这些开源LLM时,请使用Klu.ai来评估针对专有LLM的即时性能,如OpenAI的GPT-4 Turbo、Anthropic的Claude 2.1和谷歌的PaLM2等,以及由Replicate、AWS或Hugging Face托管的开源LLM。
通过利用Klu,您可以利用尖端LLM的力量和能力来构建生成性人工智能应用程序,这些应用程序可以工作并改变您的开发管道。
开源大型语言模型的出现标志着一个新时代,在这个时代,生成人工智能的创新、创造力和进步变得越来越协作和可访问,为我们共同建设智能未来开辟了道路。

原文地址
https://klu.ai/blog/open-source-llm-models
本文地址
Article

微信

知识星球

微信公众号

视频号