蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 西三一大学相当于中国哪个大学

    学校概况 西三一大学(Trinity Western University, 简称TWU),是位于加拿大温哥华的一所综合性私立大学,教学质量杰出,校园优美,校风严谨,被中国教育部承认的高等学府。西三一大学成立于1962年,是BC第二古老的大学。 自建校以来,西三一大学一直被公认为加拿大BC省最好的大学之一,前联合国主席Charles Malik 博士曾评价西…

    2025年7月3日
  • 海德堡大学与海德堡应用科技大学

    #万能生活指南# 1.参考河北省各高校2024年招生简章与招生计划。 2.以各校学费最贵的专业为准进行排名。 第1️⃣名:河北地质大学 最贵专业:金融学(中外合作办学,与英国厄尔斯特大学合作)。 学费:3+1模式,3年在河北地质大学学习,每年学费25500元,第4年在英国学习,费用(含生活费)约40万。 4年费用总计:25500×3+400000=47.65…

    2025年6月18日
  • 伦敦玛丽女王大学list

    英国其实很多学校是宽进严出的,可能你觉得这个学校排名很好,学校很棒,但门槛没那么高。甚至有的时候会扩招,以及大班教学,让很多学生觉得这个学校好像就这个样,甚至会莫名觉得会不会水?这也是很多学生觉得英国很多学校口碑不一的问题。但,这里面有很多学校,的确是相对好进,但又不那么容易给你发毕业的。有的时候,很多学生只拿了结业证明,degree反而被卡了。只能怨自己,…

    2024年11月7日
  • 去日本有什么条件

    在日本,樱花的浪漫、温泉的宁静、动漫文化的魅力无时不刻不在吸引着世界各地的旅人。而对于中国公民来说,了解并办理好旅游签证是去日本旅游的第一步。本文将带你深入浅出,解析赴日旅游签证的方方面面,让你的日本之旅轻松启航! 日本旅游签证专为观光旅游设计,分为团体旅游签证和个人旅游签证两大类,后者又细分为单次、三年多次(含特定区域多次)及五年多次签证。值得注意的是,商…

    2024年7月1日
  • 河南省三本院校排名(河南省三本院校排名及分数)

    “第三批本科”是指中国高考本科层次录取批次和录取顺序排在第三位置,又称“本科三批”、“三本”等。三本院校的招生是根据参加全国统一高考录取的方式进行的,全国目前三本学校很多,其中的教学质量、学校环境、师资力量等方面均存在着高低差异,甚至很多三本院校的分数还比二本要高,那全国排名前十的三本院校有哪些,全国三本院校实力排名情况如何,下面是中国最好的三本大学排名,可…

    2023年10月28日
  • 汉堡大学在哪儿

    汉堡大学(Universität Hamburg)成立于1919年,位于德国三大州级市之一的汉堡市,是德国北部最大的学术研究和教育中心与德国规模最大的十所大学之一。 汉堡大学坐落于有着德国最大的海港城市与第二大金融中心之称的汉堡市,作为一所综合性大学,其在人文科学、社会科学及自然科学领域内的学术研究水平在世界范围内享有盛名。 根据世界大学排名QS排行榜公布的…

    2024年11月8日
  • 浙江工商大学萨塞克斯学院

    近日,教育部正式发文,批准同意我校与英国萨塞克斯大学合作设立“浙江工商大学萨塞克斯人工智能学院”。这是国内首个人工智能领域的中外合作办学机构。 新设立的人工智能学院开展本科和硕士学历教育,开设电子信息工程、通信工程两个本科专业,机器人与自动化系统、人工智能与自适应系统两个硕士专业。办学总规模为950人,本科生每年招收200人(纳入国家普通高等学校招生计划),…

    2024年12月12日
  • 福建留学中介(福建留学中介机构)

    第一章 总 则 第一条 根据《中华人民共和国教育法》《中华人民共和国高等教育法》《教育部关于做好2023年普通高校招生工作的通知》(教学〔2023〕1号)和教育部、福建省招委会、福建省教育厅有关规定,为保证学校本科生招生工作顺利进行,切实维护学校和考生的合法权益,结合我校实际情况,制定本章程。 第二条 学校全称为福建工程学院(国标码:10388),是省属公办…

    2023年11月26日
  • 澳元汇率走势(澳元汇率走势分析)

    澳币兑人民币汇率在过去几天里低迷且平稳,几乎没有什么波动,一直在1:4.7徘徊, 可就在今天,澳币兑人民币汇率波动巨大, 突然有了瞬间上涨的趋势! 短短一个多小时的时间里, 澳币兑人民币汇率从1:4.697, 一路上涨到了1:4.73! 只不过涨到1:4.73之后,还没坚持几分钟,澳币兑人民币汇率又闪跌了, 从1:4.73下跌到了1:4.716之后,又回涨到…

    2023年10月14日
  • 范德堡大学档次

    范德堡大学(Vanderbilt University),简称Vandy,又名范德比尔特大学,由美国铁路大亨科尼利尔斯·范德比尔特捐建,是位于美国田纳西州纳什维尔市的一所享誉世界的私立研究型大学。学校创立于1873年,是位于美国南方的顶级名校,也是世界一流大学之一,属于新常春藤盟校。作为美国最具影响力的私立大学之一,2018年范德堡大学位列US News全美…

    2024年11月29日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信