蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 政治学与行政学排名_政治学与行政学排名前十的大学

    2023年,中国政法大学哪些专业挺进世界一流专业、中国顶尖专业、中国一流专业和中国高水平专业行列? 2023年全国高考即将到来,为了给2023年全国高考考生及家长选择报考中国政法大学提供参考指南,全国第三方大学评价机构艾瑞深校友会网撰写完成、科学出版社公开出版发行的《2023校友会中国大学排名:高考志愿填报指南》最新发布校友会2023中国大学一流专业排名、2…

    2024年4月9日
  • 菲尔来狄更斯大学怎么样

    同济大学(Tongji University),简称同济,是中华人民共和国教育部直属的全国重点大学,是历史悠久、享有盛誉的中国著名高等学府,是国家“211工程”、“985工程”重点建设高校,也是收生标准最严格的中国大学之一;是“2011计划”、“珠峰计划”、“卓越工程师计划”、卓越法律人才教育培养计划、卓越医生教育培养计划、“111计划”、中美“10+10”…

    2025年7月27日
  • 日本建筑公司排名_日本建筑公司排名前十

    日本的建筑和建筑公式长期以来一直受到西方的尊敬。尽管日本特有的极简主义精神仍然有些难以捉摸,但日本与世界其他地区之间的正式交流是互惠和肥沃的。除了其特色的佛教寺庙,巨大的神道教神社,传统的弧形屋顶结构和再生的保护方法外,现代主义在第二次世界大战后在日本起飞,并以其新陈代谢主义运动给国际建筑界留下了深刻的印象。战后进行了大规模的结构修复,像丹下健三这样的先驱建…

    2024年3月17日
  • 法国高等商学院世界排名

    近日,英国《金融时报》(Financial Times,简称 FT)发布了2025年全球MBA项目排名。此次排名涵盖了100所顶尖全日制MBA项目,共有125所学校参与了排名过程,所有参与学校均满足《金融时报》的准入标准,并获得EQUIS或AACSB认证。作为世界范围内公认的权威排名之一,FT全球MBA项目榜单的排名标准非常严格和全面,涵盖了学术水平、教育质…

    2025年9月10日
  • 东北大学土木工程排名

    东北高校最新榜单出炉,9所冲进全国百强,辽宁大学却跌到第12 985只剩4张门票,211集体被挤出前100,填志愿的人瞬间清醒 先看最稳的四家。 哈尔滨工业大学全国第9,东北第一,1920年建校,航天国防项目多到数不过来。 吉林大学第28,六个校区121个本科专业,一年招一万多本科生,分数不高也能蹭上985。 大连理工第29,化工、机械、土木、环境全是A类学…

    2025年11月7日
  • 迈阿密在哪个州

    迈阿密属于美国的佛罗里达州,在美国的东南部,是佛罗里达州的第二大城市,每年到这儿旅游的世界各地游客非常多。某种程度上可以称之为是旅游的天堂,这里环境优美,海景风光若梦似幻,是一种慢节奏的生活方式,滨海风光旖旎,海滩、酒店一应俱全。 美国共有48个本土州、两个海外州和一个哥伦比亚特区。佛罗里达州是美国48个本土州之一,两个海外州分别是夏威夷州和阿拉斯加州。佛罗…

    2024年6月13日
  • 怎么申请美国高中留学

    在美国高中留学需要哪些条件?正在准备留学的同学肯定关心这个问题,下面给大家讲一讲申请条件。 1.申请者的年龄限制 2.需要一定的英语成绩 3.GPA要求 4.学校面试 #美国留学# #美国高中留学申请需准备哪些材料?# #留学#

    2024年4月26日
  • 伯明翰大学英国排名情况如何呢

    QS世界大学排名榜是被全球众多院校、官方机构等认可的权威榜单,2025年QS世界大学排名榜是有史以来参与大学数量最多的一次,共计有106个高等教育体系的1500所大学参加,美国是上榜最多的国家(197所),其次是英国(90所)和中国大陆(71所)。 2025年QS伯明翰大学排名全球第80、英国第12(与南安普顿大学齐平),相比2024QS排名全球第84、英国…

    2024年11月28日
  • 华威大学的化学系

    科技日报伦敦7月30日电 (记者田学科)英国华威大学日前宣称,该校研究人员研制了一种新型聚合物低温保护剂,用它不仅可以减少低温保存细胞所需的有机溶液,而且解冻后能够获得更多更健康的细胞,显著提高了细胞的冷冻效果和安全性。 细胞冷冻保存可以防止细胞降解,是细胞治疗和研究不可或缺的一个重要过程。为使细胞在低温冷冻时不受伤害,目前的方法是在细胞中添加传统的防冻剂,…

    2025年9月11日
  • 澳大利亚寄宿家庭收费标准

    2019-11-01 18:51 关注澳洲蓝山国际酒店管理的小伙伴们都知道,若语言成绩未满足学校正课要求,只能通过读语言班的方式来留学,就读语言班的同时,学校会为你安排入住 Homestay 。 蓝山Homestay简介 Homestay 就是咱们常说的寄宿家庭。你会住在当地人的家里,直接向房东交纳费用,房东提供日常生活的一些服务(餐饮、房间清洁等),但你是…

    2025年12月30日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信