蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 出国留学读研的条件_出国留学读研的条件和要求

    在全球化日益加速的今天,出国留学已成为众多学子追求梦想、拓宽视野的重要途径。然而,想要顺利踏上这条国际化之路,必须满足一定的条件和要求。本文将为您详细解析出国留学的各项条件与要求,助您规划出一条通往世界舞台的明确路径。 一、学术成绩与语言能力 学术成绩是出国留学的基础要求。无论是申请本科、硕士还是博士项目,优秀的学术成绩都是获得录取的关键。一般来说,申请本科…

    2024年3月10日
  • 渥太华大学大四

    新冠肺炎疫情的暴发让今年的高考推迟了一个月,而疫情在全球范围内的发展,又将是否申请海外留学这道难题摆在了学生和家长面前。即便如此,除了选择国内高校就读,申请海外留学依然在不少学生家长的考虑范围内。眼下,全国各省已公布了高考成绩,如果学生家长想用高考成绩申请海外院校,那么这些知识点可以了解一下。 选择更多 可用高考成绩申请的海外院校增加 今年7月,启德教育发布…

    2024年12月6日
  • 赫瑞瓦特大学_赫瑞瓦特大学世界排名

    大家好,我是李老师,只讲事实不玩虚的。今天我来到了英国赫瑞-瓦特大学马来西亚分校:英国赫瑞瓦特大学,创办于一八二一年,是英国第八古老的高等学府。全球第一家机械工程学院,是一所具有200多年历史的研究性大学。 大学的主校区坐落于英国苏格兰首府爱丁堡,分别在迪拜和马来西亚,有两个国际校区。2023年英国赫瑞瓦特大学世界排名是第270位,并且分校是享受总校的排名的…

    2024年3月16日
  • 美国留学咨询公司

    随着中国国民经济水平的直线提升,越来越多的普通家庭,萌生了让孩子出国留学的想法。而在众多的国家中,又以美国留学最为热门,国内市场需求的增多,催生了很多美国留学中介的出现,虽然这些中介机构都打着“靠谱儿”的口号,但专业素养、服务品质却参次不齐,该如何选择靠谱的美国留学申请中介机构?近日一份名为《北京美国留学中介前十名》的榜单热传网络,在这份榜单上,一家规模不大…

    2024年1月27日
  • 塔斯马尼亚大学南极专业就业

    近年来,澳洲留学前景一片大好,申请人数逐年攀高。塔斯马尼亚大学高水准的教育和研究水平,合理的学费和生活费,风景如画的校园和生活环境,成为海外学生求学的最佳选择之一。中国学生在塔大毕业,可以在申请移民时获得额外的5分加分,以及州政府担保。选择回国就业的毕业生就业率也远远高于国内毕业生,就业前景也很好。塔斯马尼亚大学回国认可度非常高,塔斯马尼亚大学的毕业证受中国…

    2024年1月4日
  • 高中留学出国(高中留学出国好不好)

    前言:这是公众号索斯留学关于“高中可以出国留学吗?”的一篇文章。 对于“高中可以出国留学吗?”这个问题的回答是肯定的。随着父母的受教育程度逐渐升高,教育理念也在慢慢的发生改变,越来越多的家长选择把自己的孩子送出国去读高中,因为国外的学习环境相对自由宽松,致力于学生们个性化的发展,挖掘自身潜力,希望以此来逃避国内的高考竞争压力。 出国读高中这件事切不可盲目,要…

    2023年11月1日
  • 拉夫堡大学为什么世界排名不高

    在申请国外大学时,大家都非常看重大学的排名情况。尤其是中国的学生和家长一直都有一种“名校情结”,因此,更是注重排名。 而一般评判知名大学的标准是:QS、上交(软科)、泰晤士、USNEWS四大综合排名的前100名。当然不同排名所遵循的指标及比例不同,排名也会多少有些出入。 的确,排名在当前留学趋势走向中起了很大作用,它间接地告诉了学生、家长、雇主甚至政府,这些…

    2025年1月17日
  • 加拿大留学哪家中介好

    加拿大留学中介排名并没有一个统一的“权威”排名,但是可以根据一些标准来进行分析和判断。以下是一些在加拿大留学中介中排名较高的机构,以及一些选择中介时应考虑的因素: 立思辰留学、金吉列留学、新东方留学、华侨留学、华申留学:这些中介在加拿大留学中介排名中获得了较高的排名。中智留学:在专业度方面表现出色的中介之一。启德留学:在录取满意度方面排名靠前的中介之一。Ca…

    2024年5月13日
  • 意大利留学条件_意大利留学条件费用

    #意大利留学# 据意大利universitaly官网的最新要求,2024/2025学年意大利国际生招生规定已经公布,总结出几点重要信息,与国际生息息相关,要求再次明确提高! 签证 根据意大利驻华使馆的要求,2024/2025学年国际生签证申请截止日为2024年11月29日,自2023年12月27日起,所有申请个人签证的申请人需本人前往递交申请。 ⚠️任何第三…

    2024年3月10日
  • 埃塞克斯大学门槛

    商科硕士一直是中国学生出国留学时的热门方向,但排名靠前院校的商科硕士,大部分都要求申请人具有相关专业背景,这就导致很多想跨专业读商科的同学被拒之门外。今天汇英小编就帮大家整理一下英国埃塞克斯大学(University of Essex)不要求专业背景的商科/泛商科硕士,供大家参考。 埃塞克斯商学院(EBS) 基本学术要求:已获任意本科学位,均分65%-75%…

    2024年8月19日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信