Releases: Tongjilibo/bert4torch
Releases · Tongjilibo/bert4torch
稳定版本v0.5.9.post2
- 增加
Ernie4_5
- 修复
hub
下载bug - 拆分出
openai_client
稳定版本v0.5.8
- 增加
Qwen3-Embedding
和Qwen3-Reranker
, 支持temperature
设置为0 - 修复
sdpa
和global_point
的bug - 拆分
attention_utils
稳定版本v0.5.7
- 命令行参数修改为
bert4torch serve
- 增加
Qwen3
稳定版本v0.5.6
- 命令行支持图片输入
- 修复rope在batch推理和超长时候的bug
稳定版本v0.5.5
增加deepseek-r1, internvl, internlm3, glm4v, modernbert, mllama, qwen2vl, qwenvl
稳定版本v0.5.4
【新功能】增加deepseek系列、MiniCPM、MiniCPMV、llama3.2、Qwen2.5;支持device_map=auto
【修复】修复batch_generate和n>1的bug
稳定版本v0.5.3
【新功能】
- 增加llama3.1/Yi1.5
- 自动选择从hfmirror下载
- 支持命令行参数
bert4torch-llm-server
稳定版本v0.5.2
新功能
- chatglm/qwen系列支持function call调用
- 增加internlm2系列;
小优化
- 简化pipeline中chat demo的调用
- generate的终止token元素允许为列表
- 统一rope_scaling参数名,增加rope衍生类;
bug修复
- flash_attn2的推理bug
- 修复bart, t5之前的tie_word_embedding的bug
稳定版本v0.5.1
新增
- 增加Qwen1.5, Qwen2, glm4;
- 增加SWA/convert_lm_logits_dtype;
bug修复
- 调整各个trainer(重点DPOTrainer)
- generation中segment_ids
- repetition_penalty需带query
- RMSNorm中转类型bug
稳定版本v0.5.0
bug修复
- 修复chatglm3的bug
- 修复save_pretrained时多文件的bug
- 修改Text2Vec的bug
新增小功能
- 增加CausalLMLoss
- 修改deepspeed的传参逻辑
- 完善openai client
- 增加get_weight_decay_optim_groups