NLP(九十六)使用LLaMA-Factory实现function-calling

本文将会介绍如何使用LLaMa-Factory这个大模型微调框架,对Qwen1.5-4B模型进行微调,实现function calling功能,使得大模型具有工具调用能力。

在文章NLP(七十九)函数调用(function calling)中,笔者介绍了在OpenAI的GPT3.5及GPT-4模型中如何使用大模型的函数调用(function calling)功能,这样我们就能让大模型调用成千上万的工具API,赋予大模型更多的外部知识,使得大模型能力变得更加强大。

在本文中,我们将使用LLaMa-Factory微调框架,对Qwen1.5-4B模型进行微调,自己动手来实现function calling功能。

如何微调大模型的function calling能力?

LLaMa-Factory官网开发人员已经在文章单卡 3 小时训练专属大模型 Agent:基于 LLaMA Factory 实战中给出了如何使用该框架的WebUI界面来轻松实现大模型的工具调用能力。

我们在这里亲自动手实现下。

首先,训练数据集是关键,我们在这里使用Glaive AI生成的工具调用数据集,也可以在HuggingFace找到function calling相关的数据集,盖数据集包含用户(human)、模型(gpt)、工具调用(function_call)和工具调用结果(observation)四种不同角色,以及工具列表(tools)字段。同时,我们还选择了alpaca_gpt4_en、alpaca_gpt4_zh 和 oaast_sft_zh这三种数据集,以增强大模型的通用对话能力。

其中一条样本为:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
{
"conversations": [
{
"from": "human",
"value": "I saw a dress that I liked. It was originally priced at $200 but it's on sale for 20% off. Can you tell me how much it will cost after the discount?"
},
{
"from": "function_call",
"value": "{\"name\": \"calculate_discount\", \"arguments\": {\"original_price\": 200, \"discount_percentage\": 20}}"
},
{
"from": "observation",
"value": "{\"discounted_price\": 160}"
},
{
"from": "gpt",
"value": "The dress will cost you $160 after the 20% discount."
}
],
"tools": "[{\"name\": \"calculate_discount\", \"description\": \"Calculate the discounted price\", \"parameters\": {\"type\": \"object\", \"properties\": {\"original_price\": {\"type\": \"number\", \"description\": \"The original price of the item\"}, \"discount_percentage\": {\"type\": \"number\", \"description\": \"The percentage of discount\"}}, \"required\": [\"original_price\", \"discount_percentage\"]}}]"
}

其加工成对话样本后的格式如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
<|im_start|>system
You are a helpful assistant.You have access to the following tools:
> Tool Name: calculate_discount
Tool Description: Calculate the discounted price
Tool Args:
- original_price (number, required): The original price of the item
- discount_percentage (number, required): The percentage of discount

Use the following format if using a tool:
Action: tool name (one of [calculate_discount]).```
Action Input: the input to the tool, in a JSON format representing the kwargs (e.g. ```{"input": "hello world", "num_beams": 5}```).```
<|im_end|>
<|im_start|>user
I saw a dress that I liked. It was originally priced at $200 but it's on sale for 20% off. Can you tell me how much it will cost after the discount?<|im_end|>
<|im_start|>assistant
Action: calculate_discount
Action Input: {"original_price": 200, "discount_percentage": 20}<|im_end|>
<|im_start|>user
{"discounted_price": 160}<|im_end|>
<|im_start|>assistant
The dress will cost you $160 after the 20% discount.<|im_end|>

微调的基座模型选择Qwen1.5-4B,每个数据集最大样本量为50000,训练2轮,训练命令如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
python src/train_bash.py     \
--stage sft \
--do_train True \
--model_name_or_path /models/Qwen1.5-4B \
--finetuning_type lora \
--template qwen \
--dataset_dir data \
--dataset glaive_toolcall,alpaca_gpt4_en,alpaca_gpt4_zh,oaast_sft_zh \
--cutoff_len 1024 \
--learning_rate 5e-05 \
--num_train_epochs 2.0 \
--max_samples 50000 \
--per_device_train_batch_size 2 \
--gradient_accumulation_steps 4 \
--lr_scheduler_type cosine \
--max_grad_norm 1.0 \
--logging_steps 100 \
--save_steps 1000 \
--warmup_steps 0 \
--optim adamw_torch \
--report_to none \
--output_dir saves/Qwen1.5-4B/lora/train_2024-04-20-15-30-29 \
--fp16 True \
--lora_rank 8 \
--lora_alpha 16 \
--lora_dropout 0.1 \
--lora_target all \
--plot_loss True

在笔者的GPU上大约训练了14个小时(同时还在运行其它任务)。训练完后,将lora部分的参数与原始模型进行合并,形成新的训练后的模型(Qwen1.5-4B-agent),此时,新模型已经具有了function calling的调用能力。

测试微调后的大模型的function calling

我们来测试下训练后的大模型的function calling的能力。模型服务的部署命令如下:

1
python -m llmtuner.api.app --model_name_or_path /models/Qwen1.5-4B-agent --template qwen

笔者找了三个API工具来进行测试,它们的作用分别为生活垃圾分类邮政编码查询歌曲信息查询,API具体的入参、出参可以参考网址为:https://apifox.com/apidoc/shared-faff130e-7aa3-42da-9f93-574b16c8acda。

测试脚本如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
# -*- coding: utf-8 -*-
# @place: Pudong, Shanghai
# @file: llama_factory_agent_test.py
# @time: 2024/4/21 10:26
import os
import json
from openai import OpenAI
from typing import Sequence
import requests

os.environ["OPENAI_BASE_URL"] = "http://localhost:50079/v1"
os.environ["OPENAI_API_KEY"] = "0"


def get_rubbish_category(keyword):
url = f"https://api.timelessq.com/garbage?keyword={keyword}"
response = requests.request("GET", url)
output_str_list = []
for item in response.json()['data']:
output_str_list.append(f"{item['name']}: {item['categroy']}")
return '\n'.join(output_str_list)


def get_song_information(keyword):
url = f"https://api.timelessq.com/music/tencent/search?keyword={keyword}"
response = requests.request("GET", url)
song_infor = response.json()['data']['list'][0]
singer = '' if not song_infor['singer'] else song_infor['singer'][0]['name']
return f"歌曲: {keyword}\n歌手: {singer}\n时长: {song_infor['interval']}秒\n专辑名称: {song_infor['albumname']}"


def get_cartoon_information(title):
url = f"https://api.timelessq.com/bangumi?title={title}"
response = requests.request("GET", url)
data = response.json()['data'][0]
return f"标题: {data['title']}\n类型:{data['type']}\n语言:{data['lang']}\n出品方:{data['officialSite']}\n上映时间:{data['begin']}\n完结事件:{data['end']}"


tool_map = {"get_rubbish_category": get_rubbish_category,
"get_song_information": get_song_information,
"get_cartoon_information": get_cartoon_information}


if __name__ == "__main__":
client = OpenAI()
tools = [
{
"type": "function",
"function": {
"name": "get_rubbish_category",
"description": "适用于生活垃圾分类时,判断物品属于哪种类型的垃圾?",
"parameters": {
"type": "object",
"properties": {
"keyword": {
"type": "string",
"description": "物品名称,用于垃圾分类",
},
},
"required": ["keyword"],
}
}
},
{
"type": "function",
"function": {
"name": "get_cartoon_information",
"description": "根据用户提供的动漫标题,查询该动漫的相关信息。",
"parameters": {
"type": "object",
"properties": {
"title": {
"type": "string",
"description": "动漫",
},
},
"required": ["title"],
}
}
},
{
"type": "function",
"function": {
"name": "get_song_information",
"description": "根据用户提供的歌曲名称,查询歌曲相关信息,包括歌手、时长、专辑名称等。",
"parameters": {
"type": "object",
"properties": {
"keyword": {
"type": "string",
"description": "歌曲名称",
},
},
"required": ["keyword"],
}
}
}
]

messages = []
messages.append({"role": "system", "content": "你是一个有用的小助手,请调用下面的工具来回答用户的问题,参考工具输出进行回答。"})
# messages.append({"role": "user", "content": "鸡蛋壳属于哪种类型的垃圾?"})
# messages.append({"role": "user", "content": "爱在西元前是谁唱的,来自哪张专辑?"})
messages.append({"role": "user", "content": "动漫《棋魂》是哪个国家的,什么时候上映的?"})
result = client.chat.completions.create(messages=messages, model="Qwen1.5-4B-agent", tools=tools)
tool_call = result.choices[0].message.tool_calls[0].function
print(tool_call)
name, arguments = tool_call.name, json.loads(tool_call.arguments)
messages.append({"role": "function", "content": json.dumps({"name": name, "argument": arguments}, ensure_ascii=False)})
tool_result = tool_map[name](**arguments)
messages.append({"role": "tool", "content": "工具输出结果为: " + tool_result})
for msg in messages:
print('--->', msg)
result = client.chat.completions.create(messages=messages, model="Qwen1.5-4B-agent")
print("Answer: ", result.choices[0].message.content)

测试结果如下:

  • 问题: 鸡蛋壳属于哪种类型的垃圾?

输出:

---> {'role': 'system', 'content': '你是一个有用的小助手,请调用下面的工具来回答用户的问题,参考工具输出进行回答。'}
---> {'role': 'user', 'content': '鸡蛋壳属于哪种类型的垃圾?'}
---> {'role': 'function', 'content': '{"name": "get_rubbish_category", "argument": {"keyword": "鸡蛋壳"}}'}
---> {'role': 'tool', 'content': '工具输出结果为: 熟鸡蛋壳: 湿垃圾\n生鸡蛋壳: 湿垃圾\n鸡蛋壳: 湿垃圾\n包裹着鸡蛋壳的餐巾纸: 干垃圾'}
Answer:  鸡蛋壳属于湿垃圾。
  • 问题: 爱在西元前是谁唱的,来自哪张专辑?

输出:

---> {'role': 'system', 'content': '你是一个有用的小助手,请调用下面的工具来回答用户的问题,参考工具输出进行回答。'}
---> {'role': 'user', 'content': '爱在西元前是谁唱的,来自哪张专辑?'}
---> {'role': 'function', 'content': '{"name": "get_song_information", "argument": {"keyword": "爱在西元前"}}'}
---> {'role': 'tool', 'content': '工具输出结果为: 歌曲: 爱在西元前\n歌手: 周杰伦\n时长: 234秒\n专辑名称: 范特西'}
Answer:  歌曲《爱在西元前》的演唱者是周杰伦,来自专辑《范特西》。
  • 问题: 动漫《棋魂》是哪个国家的,什么时候上映的?

输出:

---> {'role': 'system', 'content': '你是一个有用的小助手,请调用下面的工具来回答用户的问题,参考工具输出进行回答。'}
---> {'role': 'user', 'content': '动漫《棋魂》是哪个国家的,什么时候上映的?'}
---> {'role': 'function', 'content': '{"name": "get_cartoon_information", "argument": {"title": "棋魂"}}'}
---> {'role': 'tool', 'content': '工具输出结果为: 标题: ヒカルの碁\n类型:tv\n语言:ja\n出品方:http://www.tv-tokyo.co.jp/anime/hikaru/\n上映时间:2001-10-10T10:27:00.000Z\n完结事件:2003-03-26T10:55:00.000Z'}
Answer:  动漫《棋魂》是日本的,它于2001年10月10日上映。

总结

OpenAI模型的function calling能力无疑是让人惊讶的,但自己实现大模型的function calling能力也是值得开心的。

本文重点介绍了如何使用LLaMa-Factory微调框架来自己实现function calling能力,并在测试中验证了大模型的工具调用能力。本文并无太多心意,只是笔者在实现大模型function calling能力的一次实战,也验证自己的一些想法。

参考文献

  1. 单卡 3 小时训练专属大模型 Agent:基于 LLaMA Factory 实战: https://zhuanlan.zhihu.com/p/678989191

欢迎关注我的公众号NLP奇幻之旅,原创技术文章第一时间推送。

欢迎关注我的知识星球“自然语言处理奇幻之旅”,笔者正在努力构建自己的技术社区。


NLP(九十六)使用LLaMA-Factory实现function-calling
https://percent4.github.io/NLP(九十六)使用LLaMA-Factory实现function-calling/
作者
Jclian91
发布于
2024年5月3日
许可协议