蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 乔治城大学留学费用_乔治城大学留学费用人民币

    乔治城大学一年留学费用 乔治城大学本科学费:$42,870/年;乔治城大学研究生学费:$37536/年;乔治城大学生活费/房租伙食:18,300/7,131(美元) 乔治城大学给学生提供空前的进入华盛顿特区的机会,这里是权力中心。有抱负的未来政治家会得益于大学对国家政策、国际经济、国外事务的重视。国际关系,外交史和国际经济学是最热门的专业,前任州国务卿奥尔布…

    2024年4月14日
  • 广东高校二本大学分数线

    对于很多考生和家长来说,选择一所合适的二本大学非常重要。广东省内有许多优秀的二本院校,提供了丰富的学科专业和优质的教育资源。为了帮助大家更好地了解广东省二本大学的录取情况,本文将介绍2024年广东省排名前十的二本大学及其高考最低录取分数线。希望这份指南能为您提供有价值的参考,帮助您做出最合适的选择。 一、2024年广东省排名前十的二本大学 根据2024年的最…

    2024年12月12日
  • 悉尼大学经济学硕士怎么样

    Aloha 小伙伴们 我是你们的无锡立思辰留学——辰辰子~ 当悉尼大学经济学硕士与莫纳什大学商业硕士的 offer 同时摆在你面前, 该如何抉择? 作为无锡立思辰留学的专业顾问,今天就从课程内核、申请门槛、就业路径三个维度出发,分析这两个专业的差异~ 悉尼大学经济学硕士: 构建经济认知的底层逻辑 作为澳洲经济学研究的重镇,悉尼大学经济学硕士以理论建模与政策分…

    2025年8月26日
  • ui设计培训怎么样

    很多大学毕业生,社会从业者,都想学习一门设计技术,那么大多数是想报名学习班学习的,会去了解一些培训学习班,市面上的培训学习班层出不穷,花样百出。下面给大家讲讲ui培训学习班四个月骗局。 首先上个图 这种ui设计培训坑,一般都是打着招聘实习生,招聘的旗号来诱骗学生过来面试,然后忽悠你,先是狠狠的数落你技术不行,怎么怎么样,然后你个画饼,说需要学习一门技术,然后…

    2024年1月15日
  • 韩国全北大学排名_韩国全北大学排名第几

    创立于1947年的全北国立大学,坐落在韩国南部全罗北道的全州市,是韩国国立旗舰大学之一,亦是其中历史最为悠久者。多年来一直以以自由、正义、创造为校训,致力于为韩国国家和地区社会发展做贡献,并通过努力逐渐确立了地区中心大学的地位,跻身世界优秀大学的行列。 全北国立大学究竟如何?小编来带各位一探究竟。 全北大学最新排名及优势专业 全北国立大学在2024年QS世界…

    2024年3月17日
  • 美国达拉斯(美国达拉斯在哪个州)

    达拉斯-被誉为“ 美国南部的华尔街”。 高盛最近公布:将在达拉斯新建3英亩大型办公园区,80万平尺,招募5000+员工! 在美国留学读金融的朋友们注意了,这里有的是新的就业机会!考虑一下直奔达拉斯吧~ 达拉斯——这个美国南部最大、全美第四大都会区 达拉斯位于美国德克萨斯州,与沃斯堡组成达拉斯-沃斯堡大都会区。总人口7,573,136 (2019),全美增速第…

    2023年11月7日
  • 留学生辱华(留学生辱华事件有哪些人)

    本文内容来自于网络,若与实际情况不相符或存在侵权行为,请联系删除。 本文仅在今日头条首发,请勿搬运。 引言 在当今社会,每个人的言行举止都在不同程度上反映出他们的身份认同和价值观念。本文将带您深入了解两位中国留学生,他们的言行和选择截然不同,从而引发了社会对真正的中国人应该是什么样子的讨论。通过这两个鲜明的对比,我们可以更好地理解什么才是真正的中国人。 出生…

    2023年9月19日
  • 韩国京畿科技大学

    想去韩国留学的小伙伴一定知道京畿大学,那么今天小编今天就给大家介绍一下韩国京畿大学。京畿大学始建于1947年,是位于韩国首尔及京畿道首府水原市的韩国著名大学,是京畿道的代表性名门学府,也是韩国9所道级(省级)行政区命名的大学之一。学校于1962年开设的观光学系,是亚洲开设最早、韩国最具名气的专业之一,并且在酒店管理、经营贸易、等专业也享有较高声誉。因其小班教…

    2024年10月14日
  • 罗德岛大学实力

    罗德岛大学近两年的录取率: 2018年度接到申请:21,909份,录取:15,349人,实际入学:3,171人,录取率70%。 2017年度接到申请:20,971份,录取:15,259人,实际入学:3,257人,录取率72.7%。 罗德岛大学(University of Rhode Island,简称URI),是一所位于美国罗德岛州南部海滨城市金斯顿(Kin…

    2025年4月8日
  • 初中可以去日本留学吗

    初三毕业生去日本留学怎么准备?需要什么条件?这是一个重要的问题,因为留学是一个对个人发展和教育机会有着积极影响的机会。以下是关于初三毕业生准备去日本留学的一些建议和必备条件供大家参考。 初三毕业生去日本留学条件 1、日本高中留学学历要求: 首先科普一下,日本的小学初中大多不直接招收留学生,除非家长长期在日本工作生活,带孩子就近读书。所以,高一是大部分人独立去…

    2024年5月28日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信