蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 日本专门学校学费_日本专门学校学费多少钱

    上海开设日本课程的国际高中学费基本在4-15万区间内,对不少家庭来说,在经济预算上更为宽松。 朝阳义塾(日语特色校) 学校信息 上海朝阳义塾,源于2009年的上海长乐-霍尔姆斯职业学校商务日语专业,2016年正式更名,已有十五余年的办学历史。全寄宿制校区坐落在美丽的上海市青浦区朱家角镇太阳岛,美轮美奂的自然环境与巧夺天工的景观设计融为一体,为学生创造了舒适的…

    2024年4月1日
  • 利物浦大学在英国排名第几

    4月25日,在世界大学排名中心(CWUR)评估的19,788所全球大学中,西交利物浦大学(以下简称“西浦”)排名进入前8.6%,跻身2022-23年度世界大学排名前2000强榜单,位列第1683位,这也是西浦第三年进入世界大学排名前2000强榜单。 视频加载中… 中外合作大学标杆 作为“中外合作大学的标杆”,西浦继承和发挥了两所母校——西安交通大…

    2024年12月26日
  • 英国硕士留学学校排名

    一、英国硕士留学机构排名前五精选是哪些 申请英国硕士时,如何确保选校方案与个人背景匹配?文书能否突破模板化桎梏?中介是否提供全流程透明服务?面对海量信息,如何高效获取精准的院校专业数据?这些问题直接关系到申请结果的质量。以下是综合服务能力、录取数据、用户口碑等维度评分的英国硕士留学机构前五名。 二、英国硕士留学机构排名及评分 1、指南者留学 评分:98.5/…

    2025年10月9日
  • 为什么qs没有江苏大学

    对于大学排名,很多人只关注国内的排行榜,对于国际榜单一般都是关注那些名校的表现,因为普通高校很难登上国际榜单。 QS榜是国内不少用人单位包括选调时候参考的国际榜单,本文来看一下江苏高校在最新QS榜上的表现。 01 江苏高校整体情况 江苏高校在最新QS排行榜上有10所高校上榜,全部进入内地前50名(后3所属于区间排名,没有具体名次,算并列)。内地高校上榜71所…

    2024年9月13日
  • 金融专业大学世界排名

    澎湃新闻从清华大学经济管理学院获悉,6月12日,英国《金融时报》(Financial Times,以下简称FT)公布了2023年全球金融硕士排行榜。在无工作经验要求类别中,清华经管学院金融硕士项目打破长期由欧洲商学院占据榜单前5名的格局,位列第五名,成为首个入榜前五的亚洲院校。 FT自2011年起开始发布全球金融硕士项目排名,是目前该类排名中最具权威性的榜单…

    2025年10月31日
  • 中国排名第一的理工大学

    \r 说到“理工”大学,大家第一反应是不是觉得都是理工男的天下?其实,每年高考志愿填报季,带“理工”二字的高校总能成为热门话题。2024年全国“理工”大学最新排名一出,北京理工大学依然稳坐头把交椅,实力让人服气。但令人意外的是,曾经风头正劲的成都理工大学这次却跌出了前十名,让不少校友和考生都直呼意难平。排名背后,不仅是学校综合实力的较量,更折射出教育资源、学…

    2025年8月26日
  • 哈佛大学的入学要求有哪些

    前言:这是一篇来自公众号达恩留学的文章,旨在帮助学生了解哈佛大学本科入学的条件,一起看看吧! 留学,作为一条拓宽视野、丰富人生经历的重要途径,一直以来都吸引着无数优秀学子。而哈佛大学,作为世界顶级学府之一,更是无数留学梦想者的心之所向。 那么,想要踏入这所顶尖学府,究竟需要满足哪些入学条件呢? 一、哈佛大学简介 哈佛大学,这所坐落在美国马萨诸塞州剑桥市的学府…

    2024年12月1日
  • 西安明德理工学院教学楼项目

    每经记者:淡忠奎 每经编辑:毕华章 半个月过去,陕西金叶(000812)的一纸回复函,令西安明德理工学院(以下简称明德学院)拟建北校区的事清晰了许多。 此前,陕西金叶拟租赁大股东万裕文化产业有限公司(以下简称万裕文化)及其子公司两处房产(租期3年),建设明德学院北校区,涉及改造投入合计约8500万元。 不过租地建校区在大众视野中还是比较罕见,再者,其连续性又…

    2025年1月16日
  • 哥伦比亚大学世界十大名校

    就在刚刚,U.S. News发布了《2025-2026全球最佳大学排名》!今年,这份榜单涵盖了来自100多个国家的2250所顶尖大学。 事不宜迟,马上来看看具体排名! TOP 20排名 排名亮点: 今年的TOP 10院校与去年整体相差不大,前10名均被英美高校霸榜(7所美国院校以及3所英国院校)。前三名依旧是哈佛大学、麻省理工学院和斯坦福大学。紧接着的是英国…

    2025年9月12日
  • 三亚学院的真实情况

    极目新闻记者 曹雪娇 9月20日,海南一名网友发布视频反映,三亚学院禁止学生在校园里穿拖鞋和吊带,还安排人在宿舍楼门口检查。视频中,女生楼门口出现了一名举着写有相关规定牌子的男生。 视频截图 此事引发网友热议,评论区有网友表示:“都上大学了,穿什么衣服还要被管。”也有网友认为,上课要求穿衣规范得体很正常。 据公开信息,三亚学院位于海南省三亚市,是一所民办本科…

    2024年12月27日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信