Releases: fkiliver/SakuraTranslator
v0.3.7
v0.3.6
What's Changed
- 修复Sakura 1.0非完全字典构造,移除Newtonsoft.Json依赖 by @Tabing010102 in #24
Full Changelog: v0.3.5...v0.3.6
v0.3.5
What's Changed
- 更新GalTransl prompt、修复Sakura 0.8/0.9 by @Tabing010102 in #22
Full Changelog: v0.3.4...v0.3.5
v0.3.4
What's Changed
- Sakura 32B v0.10pre1 by @Tabing010102 in #10
- 补齐EscapeJsonString by @Tabing010102 in #13
- v0.3.4:添加Sakura V1.0、GalTransl V2.6支持 by @Tabing010102 in #21
- 优化代码结构,修改ID
Full Changelog: v0.3.2...v0.3.4
注意,项目id从SakuraTranslator修改为SakuraTranslate,请参考wiki重写配置文件
v0.3.2
What's Changed
- 修复并发翻译 by @Tabing010102 in #9
Full Changelog: v0.3.1...v0.3.2
添加并发参数MaxConcurrency,单卡多线程总体翻译速度比单线程高(3090,1线程约50t/s,5线程约5x35t/s)
如果你使用sakurav0.10pre0,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:5000/v1/chat/completions
ApiType=OpenAI
MaxConcurrency=1
UseDict=True
DictMode=Full
Dict={"たちばな":"橘","橘":"橘","あやの":"绫乃","綾乃":"绫乃"}
如果你使用sakurav0.9或0.8,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
##如果使用kaggle,请在你的链接后面加上/v1/chat/completions,例如:https://114514-1919-810.ngrok-free.app/v1/chat/completions
MaxConcurrency=1
ApiType=Qwen ##OpenAI为kaggle上SakuraAPI,Qwen为本地Sakura 0.9模型,空置则为本地Sakura 0.8模型
v0.3.1
What's Changed
- 去除结尾多余句号,添加并发配置 by @Tabing010102 in #8
Full Changelog: v0.3.0...v0.3.1
添加并发参数MaxConcurrency,单卡多线程总体翻译速度比单线程高(3090,1线程约50t/s,5线程约5x35t/s)
如果你使用sakurav0.10pre0,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:5000/v1/chat/completions
ApiType=OpenAI
MaxConcurrency=1
UseDict=True
DictMode=Full
Dict={"たちばな":"橘","橘":"橘","あやの":"绫乃","綾乃":"绫乃"}
如果你使用sakurav0.9或0.8,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
##如果使用kaggle,请在你的链接后面加上/v1/chat/completions,例如:https://114514-1919-810.ngrok-free.app/v1/chat/completions
MaxConcurrency=1
ApiType=Qwen ##OpenAI为kaggle上SakuraAPI,Qwen为本地Sakura 0.9模型,空置则为本地Sakura 0.8模型
Sakura Translator v0.3.0
What's Changed
- 添加v0.10pre0的字典支持 by @Tabing010102 in #6
Full Changelog: v0.2.2...v0.3.0
添加配置(仅在OpenAI
模式下生效)
UseDict
默认为空字符串DictMode
默认为Full
Dict
默认为空字符串
其中
UseDict
为false时是老的OpenAI PromptDictMode
为Full
时传递整个字典,为Partial
或其他时,传递当前翻译句子包含的字典部分Dict
为json编码的字符串,格式同MTool,为{"k1":"v1","k2":"v2"}
,暂未发现SakuraLLM官方示例中给的字典注释有什么作用
llama.cpp-b2355,sakura-13b-qwen2beta-v0.10pre0-Q6_K.gguf,Windows和Linux下测试
理论上高版本llama.cpp和Kaggle都能用,不过未测试Kaggle
如果你使用sakurav0.10pre0,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:5000/v1/chat/completions
ApiType=OpenAI
UseDict=True
DictMode=Full
Dict={"たちばな":"橘","橘":"橘","あやの":"绫乃","綾乃":"绫乃"}
如果你使用sakurav0.9或0.8,你的配置文件应该长这样:
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
##如果使用kaggle,请在你的链接后面加上/v1/chat/completions,例如:https://114514-1919-810.ngrok-free.app/v1/chat/completions
ApiType=Qwen ##OpenAI为kaggle上SakuraAPI,Qwen为本地Sakura 0.9模型,空置则为本地Sakura 0.8模型
Sakura Translator v0.2.2
What's Changed
- 增加对kaggle的支持
Full Changelog: v0.2.1...v0.2.2
部署方法:
1.将SakuraTranslator.dll放置在Translators文件夹内
2.修改AutoTranslatorConfig.ini中[Sakura]字段
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
##如果使用kaggle,请在你的链接后面加上/v1/chat/completions,例如:https://114514-1919-810.ngrok-free.app/v1/chat/completions
ApiType=Qwen ##OpenAI为kaggle上SakuraAPI,Qwen为本地Sakura 0.9模型,空置则为本地Sakura 0.8模型
Sakura Translator v0.2.1
What's Changed
- 去除高版本llama.cpp在调用/completion时可能会在末尾产生的<|im_end|> " by @Tabing010102 in #2
Full Changelog: v0.2.0...v0.2.1
部署方法:
1.将SakuraTranslator.dll放置在Translators文件夹内
2.修改AutoTranslatorConfig.ini中[Sakura]字段
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
ApiType=Qwen ##Qwen为Sakura 0.9模型,空置则为Sakura 0.8
Sakura Translator v0.2.0
What's Changed
- 添加Endpoint、ApiType配置及Qwen格式Api支持 by @Tabing010102 in #1
- 调整frequency_penalty为0.2
New Contributors
- @Tabing010102 made their first contribution in #1
Full Changelog: v0.1.0...v0.2.0
部署方法:
1.将SakuraTranslator.dll放置在Translators文件夹内
2.修改AutoTranslatorConfig.ini中[Sakura]字段
[Sakura]
Endpoint=http://127.0.0.1:8080/completion ##这里修改为你的模型server监听的地址
ApiType=Qwen ##Qwen为Sakura 0.9模型,空置则为Sakura 0.8