一、一句话定位
二、核心特点
三、核心组件(极简版)
四、一句话区别(易混淆)
五、代码演示
最干净、能直接跑、最新版 Hugging Face Transformers 示例,只保留核心,复制就能用。
1. 安装
pip install transformers torch
2. 极简示例:文本生成(通用版)
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
# 1. 加载模型和分词器(这里用小模型演示,你可以换任何模型)
model_name = "gpt2" # 可换成:Qwen/Qwen2-1.5B、Llama 2、mistral 等
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# 2. 用 pipeline 直接生成文本
generator = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
max_new_tokens=100,
temperature=0.7
)
# 3. 输入一句话,生成下文
output = generator("AI is going to")
print(output[0]["generated_text"])
3. 国内常用:通义千问 / Qwen 版
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
model_name = "Qwen/Qwen2-1.5B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True)
chat = pipeline(
"conversational",
model=model,
tokenizer=tokenizer,
trust_remote_code=True
)
messages = [
{"role": "user", "content": "介绍一下人工智能"}
]
response = chat(messages, max_new_tokens=256)
print(response[-1]["content"])
4. 你最常用的 4 个 pipeline
from transformers import pipeline
# 情感分析
classifier = pipeline("sentiment-analysis")
# 命名实体识别
ner = pipeline("ner", grouped_entities=True)
# 问答
qa = pipeline("question-answering")
# 翻译
translator = pipeline("translation", model="Helsinki-NLP/opus-mt-zh-en")
数据统计
数据评估
关于Hugging Face Transformers特别声明
本站蜜蜂导航提供的Hugging Face Transformers都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由蜜蜂导航实际控制,在2026年2月11日 下午1:31收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,蜜蜂导航不承担任何责任。
相关导航
暂无评论...
