【Transformer-Hugging Face手册 07/10】 微调预训练模型_预训练模型的tokenizer的返回类型是batchencoding吗-程序员宅基地

技术标签: NLP高级和ChatGPT  深度学习  人工智能  transformer  

一、说明

   使用预训练模型有显着的好处。它可以降低计算成本和碳足迹,并允许您使用最先进的模型,而无需从头开始训练。 Transformers 提供了针对各种任务的数千个预训练模型的访问权限。当您使用预训练模型时,您可以在特定于您的任务的数据集上对其进行训练。这被称为微调,是一种非常强大的训练技术。在本教程中,您将使用您选择的深度学习框架微调预训练模型:

  •    使用 Transformers Trainer微调预训练模型。
  •    使用 Keras 微调 TensorFlow 中的预训练模型。

二、在本机 PyTorch 中微调预训练模型。

   在微调预训练模型之前,请下载数据集并准备进行训练。之前的教程向您展示了如何处理训练数据,现在您有机会测试这些技能!

2.1 加载数据

   首先加载Yelp 评论数据集:

 from datasets import load_dataset
dataset = load_dataset("yelp_review_full")
dataset["train"][100] 

{‘label’: 0,
‘text’: ‘My expectations for McDonalds are t rarely high. But for one to still fail so spectacularly…that takes something special!\nThe cashier took my friends’s order, then promptly ignored me. I had to force myself in front of a cashier who opened his register to wait on the person BEHIND me. I waited over five minutes for a gigantic order that included precisely one kid’s meal. After watching two people who ordered after me be handed their food, I asked where mine was. The manager started yelling at the cashiers for \“serving off their orders\” when they didn’t have their food. But neither cashier was anywhere near those controls, and the manager was the one serving food to customers and clearing the boards.\nThe manager was rude when giving me my order. She didn’t make sure that I had everything ON MY RECEIPT, and never even had the decency to apologize that I felt I was getting poor service.\nI’ve eaten at various McDonalds restaurants for over 30 years. I’ve worked at more than one location. I expect bad days, bad moods, and the occasional mistake. But I have yet to have a decent experience at this store. It will remain a place I avoid unless someone in my party needs to avoid illness from low blood sugar. Perhaps I should go back to the racially biased service of Steak n Shake instead!’}

   正如您现在所知,您需要一个分词器来处理文本,并包含填充和截断策略来处理任何可变序列长度。要一步处理数据集,请使用 Datasetsmap方法对整个数据集应用预处理函数:

 from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
def tokenize_function(examples):
    return tokenizer(examples["text"], padding="max_length", truncation=True)
tokenized_datasets = dataset.map(tokenize_function, batched=True)

如果您愿意,您可以创建完整数据集的较小子集进行微调以减少所需的时间:

small_train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(1000))
small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))

2.2 训练

   此时,您应该按照与您要使用的框架相对应的部分进行操作。您可以使用右侧边栏中的链接跳转到您想要的链接 - 如果您想隐藏给定框架的所有内容,只需使用该框架块右上角的按钮即可!

2.2.1 使用 PyTorch Trainer 进行训练

   Transformers 提供了针对训练Transformers 模型进行优化的Trainer类,让您可以更轻松地开始训练,而无需手动编写自己的训练循环。 Trainer API 支持多种训练选项和功能,例如日志记录、梯度累积和混合精度。

   首先加载模型并指定预期标签的数量。从 Yelp Review数据集卡中,您知道有五个标签:

from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)

   您将看到有关未使用某些预训练权重以及某些权重被随机初始化的警告。别担心,这是完全正常的! BERT 模型的预训练头被丢弃,并替换为随机初始化的分类头。您将在序列分类任务中微调这个新模型头,将预训练模型的知识传递给它。

2.3 训练超参数

   接下来,创建一个TrainingArguments类,其中包含您可以调整的所有超参数以及用于激活不同训练选项的标志。对于本教程,您可以从默认的训练超参数开始,但请随意尝试这些参数以找到最佳设置。

   指定保存训练检查点的位置:

from transformers import TrainingArguments
training_args = TrainingArguments(output_dir="test_trainer")

2.4 评价

   Trainer在训练期间不会自动评估模型性能。您需要向Trainer传递一个函数来计算和报告指标。 Evaluate库提供了一个简单的accuracy函数,您可以使用evaluate.load(有关更多信息,请参阅此快速教程)函数加载:

import numpy as np
import evaluate
metric = evaluate.load("accuracy")

   呼吁compute计算metric您的预测的准确性。在将预测传递给 之前compute,您需要将 logits 转换为预测(记住所有 Transformers 模型都返回 logits):

def compute_metrics(eval_pred):
    logits, labels = eval_pred
    predictions = np.argmax(logits, axis=-1)
    return metric.compute(predictions=predictions, references=labels)

   如果您想在微调期间监控评估指标,请evaluation_strategy在训练参数中指定参数以在每个周期结束时报告评估指标:

from transformers import TrainingArguments, Trainer
training_args = TrainingArguments(output_dir="test_trainer", evaluation_strategy="epoch")

2.5 训练类

   使用您的模型、训练参数、训练和测试数据集以及评估函数创建一个Trainer对象:

trainer = Trainer(
      model=model,
      args=training_args,
      train_dataset=small_train_dataset,
      eval_dataset=small_eval_dataset,
      compute_metrics=compute_metrics,
  )

   然后通过调用train()微调您的模型:

trainer.train()

三、使用 Keras 训练 TensorFlow 模型

   您还可以使用 Keras API 在 TensorFlow 中训练 Transformers 模型!

3.1 为 Keras 加载数据

   当您想要使用 Keras API 训练 Transformers 模型时,您需要将数据集转换为 Keras 理解的格式。如果您的数据集很小,您可以将整个数据转换为 NumPy 数组并将其传递给 Keras。在做任何更复杂的事情之前,让我们先尝试一下。

   首先,加载数据集。我们将使用GLUE 基准测试中的 CoLA 数据集,因为它是一个简单的二进制文本分类任务,并且现在只进行训练分割。

from datasets import load_dataset

dataset = load_dataset("glue", "cola")
dataset = dataset["train"]  # Just take the training split for now

   接下来,加载分词器并将数据分词为 NumPy 数组。请注意,标签已经是 0 和 1 的列表,因此我们可以直接将其转换为 NumPy 数组,而无需标记化!

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
tokenized_data = tokenizer(dataset["sentence"], return_tensors="np", padding=True)
# Tokenizer returns a BatchEncoding, but we convert that to a dict for Keras
tokenized_data = dict(tokenized_data)

labels = np.array(dataset["label"])  # Label is already an array of 0 and 1

   最后,加载 、compile和fit模型。请注意,Transformers 模型都有一个默认的与任务相关的损失函数,因此您不需要指定一个,除非您想要:

from transformers import TFAutoModelForSequenceClassification
from tensorflow.keras.optimizers import Adam

# Load and compile our model
model = TFAutoModelForSequenceClassification.from_pretrained("bert-base-cased")
# Lower learning rates are often better for fine-tuning transformers
model.compile(optimizer=Adam(3e-5))  # No loss argument!

model.fit(tokenized_data, labels)

   当您使用模型时,您不必向模型传递损失参数compile()!如果此参数留空,Huging Face 模型会自动选择适合其任务和模型架构的损失。如果您愿意,您始终可以通过自己指定损失来覆盖此设置!

   这种方法对于较小的数据集非常有效,但对于较大的数据集,您可能会发现它开始成为问题。为什么?因为标记化数组和标签必须完全加载到内存中,并且因为 NumPy 不处理“锯齿状”数组,所以每个标记化样本都必须填充到整个数据集中最长样本的长度。这将使您的数组变得更大,并且所有这些填充令牌也会减慢训练速度!

3.2 将数据加载为 tf.data.Dataset

   如果您想避免减慢训练速度,可以改为加载数据tf.data.Dataset。尽管您可以tf.data根据需要编写自己的 管道,但我们有两种方便的方法来执行此操作:

   prepare_tf_dataset():这是我们在大多数情况下推荐的方法。因为它是模型上的一种方法,所以它可以检查模型以自动找出哪些列可用作模型输入,并丢弃其他列以创建更简单、性能更高的数据集。
to_tf_dataset:此方法更加底层,当您想要通过准确指定要包含哪些columns和label_cols来精确控制数据集的创建方式时非常有用。
   在使用prepare_tf_dataset()之前,您需要将分词器输出作为列添加到数据集,如以下代码示例所示:

def tokenize_dataset(data):
    # Keys of the returned dictionary will be added to the dataset as columns
    return tokenizer(data["text"])
dataset = dataset.map(tokenize_dataset)

   请记住,拥抱脸部数据集默认存储在磁盘上,因此这不会增加您的内存使用量!添加列后,您可以从数据集中流式传输批次并向每个批次添加填充,与填充整个数据集相比,这大大减少了填充标记的数量。

tf_dataset = model.prepare_tf_dataset(dataset["train"], batch_size=16, shuffle=True, tokenizer=tokenizer)

   请注意,在上面的代码示例中,您需要传递标记生成器,prepare_tf_dataset以便它可以在加载批次时正确填充批次。如果数据集中的所有样本长度相同并且不需要填充,则可以跳过此参数。如果您需要做一些比填充样本更复杂的事情(例如,破坏掩码语言建模的标记),您可以使用参数collate_fn来传递一个函数,该函数将被调用以将样本列表转换为批处理并应用您需要的任何预处理想。请参阅我们的 示例或 笔记本来了解这种方法的实际效果。

   创建 后tf.data.Dataset,您可以像以前一样编译并拟合模型:

model.compile(optimizer=Adam(3e-5))  # No loss argument!
model.fit(tf_dataset)

   Trainer负责训练循环,并允许您在一行代码中微调模型。对于喜欢编写自己的训练循环的用户,您还可以在本机 PyTorch 中微调 Transformers 模型。

   此时,您可能需要重新启动笔记本或执行以下代码来释放一些内存:

del model
del trainer
torch.cuda.empty_cache()

   接下来,手动进行后处理tokenized_dataset以准备训练。

   删除该text列,因为模型不接受原始文本作为输入:

 tokenized_datasets = tokenized_datasets.remove_columns([ "text" ])

   将列重命名label为 ,labels因为模型期望将参数命名为labels:

 tokenized_datasets = tokenized_datasets.rename_column( "标签" , "标签" )

   设置数据集的格式以返回 PyTorch 张量而不是列表:

 tokenized_datasets.set_format( "pytorch" )

   然后创建数据集的较小子集(如前所示)以加快微调速度:

small_train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(1000))
small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))

3.3 数据加载器

   为您的训练和测试数据集创建一个DataLoader,以便您可以迭代批量数据:

from torch.utils.data import DataLoader
train_dataloader = DataLoader(small_train_dataset, shuffle=True, batch_size=8)
eval_dataloader = DataLoader(small_eval_dataset, batch_size=8)

   使用预期标签数量加载模型:

from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)

3.4 优化器和学习率调度器

   创建优化器和学习率调度器来微调模型。让我们使用AdamWPyTorch 的优化器:

from torch.optim import AdamW
optimizer = AdamW(model.parameters(), lr=5e-5)

   从 Trainer 创建默认学习率调度程序:

from transformers import get_scheduler

num_epochs = 3
num_training_steps = num_epochs * len(train_dataloader)
lr_scheduler = get_scheduler(
    name="linear", optimizer=optimizer, num_warmup_steps=0, num_training_steps=num_training_steps
)

   最后,如果您有权使用 GPU,请指定使用 GPU 的设备。否则,CPU 上的训练可能需要几个小时而不是几分钟。

import torch

device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")
model.to(device)

   如果您没有像Colaboratory或SageMaker StudioLab这样的托管笔记本,可以免费访问云 GPU 。

3.5 训练循环

   要跟踪您的训练进度,请使用tqdm库在训练步骤数上添加进度条:

from tqdm.auto import tqdm

progress_bar = tqdm(range(num_training_steps))

model.train()
for epoch in range(num_epochs):
    for batch in train_dataloader:
        batch = {
    k: v.to(device) for k, v in batch.items()}
        outputs = model(**batch)
        loss = outputs.loss
        loss.backward()

        optimizer.step()
        lr_scheduler.step()
        optimizer.zero_grad()
        progress_bar.update(1)

3.6 评价

   就像您向Trainer添加评估函数一样,您在编写自己的训练循环时也需要执行相同的操作。但这次您将累积所有批次并在最后计算指标,而不是在每个时期add_batch结束时计算和报告指标。

import evaluate

metric = evaluate.load("accuracy")
model.eval()
for batch in eval_dataloader:
    batch = {
    k: v.to(device) for k, v in batch.items()}
    with torch.no_grad():
        outputs = model(**batch)

    logits = outputs.logits
    predictions = torch.argmax(logits, dim=-1)
    metric.add_batch(predictions=predictions, references=batch["labels"])

metric.compute()

四、结论

   本篇基本上描绘了如何实现微调,更多微调示例请参考:

Transformers Examples包括在 PyTorch 和 TensorFlow 中训练常见 NLP 任务的脚本。

Transformers Notebooks包含有关如何针对 PyTorch 和 TensorFlow 中的特定任务微调模型的各种笔记本。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/gongdiwudu/article/details/136071906

智能推荐

oracle 12c 集群安装后的检查_12c查看crs状态-程序员宅基地

文章浏览阅读1.6k次。安装配置gi、安装数据库软件、dbca建库见下:http://blog.csdn.net/kadwf123/article/details/784299611、检查集群节点及状态:[root@rac2 ~]# olsnodes -srac1 Activerac2 Activerac3 Activerac4 Active[root@rac2 ~]_12c查看crs状态

解决jupyter notebook无法找到虚拟环境的问题_jupyter没有pytorch环境-程序员宅基地

文章浏览阅读1.3w次,点赞45次,收藏99次。我个人用的是anaconda3的一个python集成环境,自带jupyter notebook,但在我打开jupyter notebook界面后,却找不到对应的虚拟环境,原来是jupyter notebook只是通用于下载anaconda时自带的环境,其他环境要想使用必须手动下载一些库:1.首先进入到自己创建的虚拟环境(pytorch是虚拟环境的名字)activate pytorch2.在该环境下下载这个库conda install ipykernelconda install nb__jupyter没有pytorch环境

国内安装scoop的保姆教程_scoop-cn-程序员宅基地

文章浏览阅读5.2k次,点赞19次,收藏28次。选择scoop纯属意外,也是无奈,因为电脑用户被锁了管理员权限,所有exe安装程序都无法安装,只可以用绿色软件,最后被我发现scoop,省去了到处下载XXX绿色版的烦恼,当然scoop里需要管理员权限的软件也跟我无缘了(譬如everything)。推荐添加dorado这个bucket镜像,里面很多中文软件,但是部分国外的软件下载地址在github,可能无法下载。以上两个是官方bucket的国内镜像,所有软件建议优先从这里下载。上面可以看到很多bucket以及软件数。如果官网登陆不了可以试一下以下方式。_scoop-cn

Element ui colorpicker在Vue中的使用_vue el-color-picker-程序员宅基地

文章浏览阅读4.5k次,点赞2次,收藏3次。首先要有一个color-picker组件 <el-color-picker v-model="headcolor"></el-color-picker>在data里面data() { return {headcolor: ’ #278add ’ //这里可以选择一个默认的颜色} }然后在你想要改变颜色的地方用v-bind绑定就好了,例如:这里的:sty..._vue el-color-picker

迅为iTOP-4412精英版之烧写内核移植后的镜像_exynos 4412 刷机-程序员宅基地

文章浏览阅读640次。基于芯片日益增长的问题,所以内核开发者们引入了新的方法,就是在内核中只保留函数,而数据则不包含,由用户(应用程序员)自己把数据按照规定的格式编写,并放在约定的地方,为了不占用过多的内存,还要求数据以根精简的方式编写。boot启动时,传参给内核,告诉内核设备树文件和kernel的位置,内核启动时根据地址去找到设备树文件,再利用专用的编译器去反编译dtb文件,将dtb还原成数据结构,以供驱动的函数去调用。firmware是三星的一个固件的设备信息,因为找不到固件,所以内核启动不成功。_exynos 4412 刷机

Linux系统配置jdk_linux配置jdk-程序员宅基地

文章浏览阅读2w次,点赞24次,收藏42次。Linux系统配置jdkLinux学习教程,Linux入门教程(超详细)_linux配置jdk

随便推点

matlab(4):特殊符号的输入_matlab微米怎么输入-程序员宅基地

文章浏览阅读3.3k次,点赞5次,收藏19次。xlabel('\delta');ylabel('AUC');具体符号的对照表参照下图:_matlab微米怎么输入

C语言程序设计-文件(打开与关闭、顺序、二进制读写)-程序员宅基地

文章浏览阅读119次。顺序读写指的是按照文件中数据的顺序进行读取或写入。对于文本文件,可以使用fgets、fputs、fscanf、fprintf等函数进行顺序读写。在C语言中,对文件的操作通常涉及文件的打开、读写以及关闭。文件的打开使用fopen函数,而关闭则使用fclose函数。在C语言中,可以使用fread和fwrite函数进行二进制读写。‍ Biaoge 于2024-03-09 23:51发布 阅读量:7 ️文章类型:【 C语言程序设计 】在C语言中,用于打开文件的函数是____,用于关闭文件的函数是____。

Touchdesigner自学笔记之三_touchdesigner怎么让一个模型跟着鼠标移动-程序员宅基地

文章浏览阅读3.4k次,点赞2次,收藏13次。跟随鼠标移动的粒子以grid(SOP)为partical(SOP)的资源模板,调整后连接【Geo组合+point spirit(MAT)】,在连接【feedback组合】适当调整。影响粒子动态的节点【metaball(SOP)+force(SOP)】添加mouse in(CHOP)鼠标位置到metaball的坐标,实现鼠标影响。..._touchdesigner怎么让一个模型跟着鼠标移动

【附源码】基于java的校园停车场管理系统的设计与实现61m0e9计算机毕设SSM_基于java技术的停车场管理系统实现与设计-程序员宅基地

文章浏览阅读178次。项目运行环境配置:Jdk1.8 + Tomcat7.0 + Mysql + HBuilderX(Webstorm也行)+ Eclispe(IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持)。项目技术:Springboot + mybatis + Maven +mysql5.7或8.0+html+css+js等等组成,B/S模式 + Maven管理等等。环境需要1.运行环境:最好是java jdk 1.8,我们在这个平台上运行的。其他版本理论上也可以。_基于java技术的停车场管理系统实现与设计

Android系统播放器MediaPlayer源码分析_android多媒体播放源码分析 时序图-程序员宅基地

文章浏览阅读3.5k次。前言对于MediaPlayer播放器的源码分析内容相对来说比较多,会从Java-&amp;amp;gt;Jni-&amp;amp;gt;C/C++慢慢分析,后面会慢慢更新。另外,博客只作为自己学习记录的一种方式,对于其他的不过多的评论。MediaPlayerDemopublic class MainActivity extends AppCompatActivity implements SurfaceHolder.Cal..._android多媒体播放源码分析 时序图

java 数据结构与算法 ——快速排序法-程序员宅基地

文章浏览阅读2.4k次,点赞41次,收藏13次。java 数据结构与算法 ——快速排序法_快速排序法