META LLAMA 3 爆炸登场!在线试用、本地部署,性能直逼 GPT-4!
META LLAMA 3 爆炸登场!在线试用、本地部署,性能直逼 GPT-4!
罗布斯# Meta 宣布推出革命性开源大语言模型 Llama 3!
Meta 正式发布了下一代开源大语言模型 Llama 3,这标志着 AI 发展的新里程碑!该模型分为 80 亿和 700 亿参数两个版本,
被誉为 “Llama 2 的重大飞跃”,为大规模语言模型树立新标杆。
# Llama 3 的未来之路
值得一提的是,Llama 3 已与 Meta AI 助手深度集成,未来还将陆续在 AWS、Databricks、Google Cloud 等多个云平台上线,
并获得 AMD、Intel、NVIDIA 等硬件厂商的支持,进一步扩大应用场景。
这将为 Llama 3 带来无限的可能!
# Meta 的开源 AI 决心
该模型的发布彰显了 Meta 在开源 AI 领域的决心和影响力。我们有理由期待,Llama 3 将为自然语言处理、机器学习等 AI 前沿技术的发展注入新动力。
期待 Llama 3 的未来!
# 三种使用方式
- 在线使用(
推荐
) - 本地直连使用
- 套壳使用
- API 方式调用(
推荐
)
# 在线使用
入口:链接直达
不仅可以智能对话,也可以在线生成图片
# 本地直连使用
-
从 github 下载 Llama 3 项目文件:
点击下载 -
申请模型下载链接(申请秒过),申请后会在邮件里提供一个下载链接:
点击申请 -
环境依赖安装
1
2在Llama3最高级目录执行以下命令(建议在安装了python的conda环境下执行)
pip install -e . -
下载 Llama3 模型
1
bash download.sh
-
运行命令后在终端下输入邮件里获取到下载链接,并选择你需要的模型
-
运行示例脚本,执行以下命令
1
2
3
4torchrun --nproc_per_node 1 example_chat_completion.py \
--ckpt_dir Meta-Llama-3-8B-Instruct/ \
--tokenizer_path Meta-Llama-3-8B-Instruct/tokenizer.model \
--max_seq_len 512 --max_batch_size 6 -
创建自己的对话脚本,在根目录下创建以下 chat.py 脚本
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49from typing import List, Optional
import fire
from llama import Dialog, Llama
def main(
ckpt_dir: str,
tokenizer_path: str,
top_p: float = 0.9,
max_seq_len: int = 512,
max_batch_size: int = 4,
max_gen_len: Optional[int] = None,
):
generator = Llama.build(
ckpt_dir=ckpt_dir,
tokenizer_path=tokenizer_path,
max_seq_len=max_seq_len,
max_batch_size=max_batch_size,
)
# Modify the dialogs list to only include user inputs
dialogs: List[Dialog] = [
[{"role": "user", "content": ""}], # Initialize with an empty user input
]
# Start the conversation loop
while True:
# Get user input
user_input = input("You: ")
# Exit loop if user inputs 'exit'
if user_input.lower() == 'exit':
break
# Append user input to the dialogs list
dialogs[0][0]["content"] = user_input
# Use the generator to get model response
result = generator.chat_completion(
dialogs,
max_gen_len=max_gen_len,
temperature=temperature,
top_p=top_p,
)[0]
# Print model response
print(f"Model: {result['generation']['content']}")
if __name__ == "__main__":
fire.Fire(main) -
运行以下命令就可以开始对话
1
torchrun --nproc_per_node 1 chat.py --ckpt_dir Meta-Llama-3-8B-Instruct/ --tokenizer_path Meta-Llama-3-8B-Instruct/tokenizer.model --max_seq_len 512 --max_batch_size 6
# 套壳使用
# API 方式调用
评论
匿名评论隐私政策
TwikooGitalk
✅ 你无需删除空行,直接评论以获取最佳展示效果