蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 新托福网上报名(新托福网上报名时间)

    上海纽约大学最新发布了该校2023年本科招生简章。 简章显示,上海纽约大学2023年面向全国招收251名学生,招生计划不做分省安排,各省(自治区、直辖市)招生名额不设上下限,在所有申请学生中择优录取。 符合普通高考报名条件并参加2023年高考的学生均可申请报考上海纽约大学。 上海纽约大学寻找的是学业优异、英语能力突出,具有强烈求知欲和好奇心,勇于挑战自我,乐…

    2023年11月14日
  • 想去澳洲留学(想去澳洲留学需要什么条件)

    USI是什么?你们了解吗? USI的全称是Unique Student Identifier,一共10位数,包括数字和字母。每个学生的USI都是伴随终身且独一无二的。 哪些学生需要USI? 从2023年1月1日起,所有在澳大利亚接受高等教育的学生,包括本地学生和国际学生。对国际学生来说,需要拥有USI才能毕业和获得奖学金。很多大学也要求申请了USI 以后才能…

    2023年10月25日
  • 英国垃圾大学有哪些

    据路透社斯德哥尔摩11月16日发表文章介绍太空碎片的概念以及它的危险性,全文摘编如下: 太空碎片(即太空垃圾)是废弃的运载火箭或航天器部件,它们在地球上空数百英里处漂浮,有可能与卫星或空间站相撞。 太空爆炸或各国用导弹摧毁本国卫星时也可能产生碎片。美国和印度也都击落过卫星,从而产生了太空碎片。 由于太空碎片以每小时15700英里(约合25266公里)的极快速…

    2025年2月18日
  • 珠海uic大学全国排名

    珠海大学生毕业后去向如何?北京师范大学-香港浸会大学联合国际学院(简称“UIC”)、北京理工大学珠海学院(简称“北理珠”)两所院校发布了2018年毕业生报告,UIC2018届参加就业的毕业生总计1194人,已就业的有1083人,最终就业率为90 .70%。该学校深造比例再创新高,近七成学生出境深造。北理珠2018届毕业生参加就业人员5571人,已经就业人数5…

    2025年7月23日
  • 东北大学校长赫翼成简历

    东北大学现任党委书记、校长、副书记、副校长名单 来源:东北大学官网

    2024年11月22日
  • 工作几年后怎么申请出国读研

    只要有留学的想法,就算已进入工作岗位,也不算晚。 很多人在工作一段时间后,发现自身存在一些不足,便会萌发出国留学,继续进修来提升自己在职场中的竞争力的想法,但同时也担忧现阶段是否还来得及申请出国留学。其实,只要有留学的想法,什么时候都不算晚。而且欧美等热门留学国家并没有对留学生的年龄有任何的限制,在大学校园中也时常可以看到在职或是工作几年后选择进修的年长同学…

    2024年7月5日
  • 悉尼大学提前查分

    高考查分进行时!留学之路为你开启 又到了一年一度高考成绩陆续揭晓的紧张时刻,对于考生和家长而言,查分后的志愿填报无疑是重中之重。然而,实际上除了国内院校,海外众多大学也正向高考生们热情敞开大门。如今,越来越多的海外高校认可中国高考成绩,为大家提供了更为丰富的选择。 近期,不少家长前来咨询高考后留学的相关事宜,下面就为大家详细解答这些最受关注的问题。 哪些大学…

    2025年8月7日
  • 多伦多大学英文全称

    加拿大NO.1多伦多大学,一向是学霸们的目标院校。 这之前加拿大教育中心还给大家推荐了:多大升学捷径-IFP国际预科项目 申请多大太难了!多伦多大学-IFP国际预科项目了解一下? 今天就来给大家详细介绍下多伦多大学,尤其是多大的优质专业,对多大感兴趣的同学们可一定要收藏啦。 *图片来自多大官网 多伦多大学 多伦多大学 (University of Toron…

    2024年12月16日
  • 全国985大学排名顺序图

    985大学是很多同学都想要报考的院校,因为这些院校都是我国综合实力最为强劲的一批院校。但985大学中也还是有排名的,小编就在本文为大家带来全国39所985大学排名及录取分数线。 一、2021年全国39所985大学最新排名 小编根据2021年校友会中国大学排名,为大家整理出2021年985大学排名,先为大家详细介绍排名前三的院校,供大家参考。 1、北京大学 综…

    2024年9月23日
  • 许昌学院法学院_许昌学院法学院怎么样

    为深入贯彻落实习近平法治思想,进一步促进法学理论与检察实践深度融合,合力推动法学教育与检察业务资源共享、良性互动、共建共赢,10月27日,建安区检察院与许昌学院法学院举行合作共建法学实践教学基地揭牌仪式。 许昌学院法学院院长王忠灿、建安区检察院党组书记、检察长晋伟杰出席揭牌仪式并致辞,揭牌仪式由区检察院党组成员、副检察长卢慧华主持,许昌学院法学院副院长冯振强…

    2024年3月11日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信