专为开发者打造
CLI 工具、CI/CD 流水线以及深度技术集成,助力您的本地化工作流。
内部工作原理
LocaleKit 像您一样细心处理代码。它解析、保护和重建文件,确保零语法错误。
面向开发者
我们构建这个工具是因为厌倦了因糟糕的翻译而破坏构建。
扫描和检测
递归扫描您的工作区文件夹以识别本地化文件结构。
解析条目
将键、值和注释提取到统一的内部格式中。
保护占位符
从翻译中识别并锁定变量、ICU 格式和 HTML 标签。
AI 翻译
将受保护的字符串发送到本地 LLM 或您自己的 API 密钥(DeepL、OpenAI、Claude)。
重建文件
重建原始文件格式,保留缩进和注释。
Git 规范化
确定性地排序键,以确保版本控制中的干净 diff。
通过 CLI 实现自动化
将 LocaleKit 集成到您的工作流程中。一条命令即可翻译、验证和同步整个代码库。
Terminal — localekit
使用您首选的引擎将缺失的键翻译为任何语言。
$localekit translate --languages fr,de,ja --mlx-model mlx-community/Qwen3-4B-4bit
Loading MLX model mlx-community/Qwen3-4B-4bit...
✓ Model loaded (on-device, no data leaves your Mac)
Scanning workspace...
Found 3 localization files (.xcstrings)
Translating 142 keys → French...
Translating 142 keys → German...
Translating 142 keys → Japanese...
✓ 426 translations completed
✓ All placeholders preserved
✓ Files written successfully
$
兼容 GitHub Actions、GitLab CI、Bitrise 和 CircleCI。GitHub ActionsGitLab CIBitriseCircleCI
选择您的翻译引擎
使用 MLX 在 Mac 上本地运行模型 — 或使用您自己的 API 密钥连接云引擎。您的数据,您做主。
无需 API 密钥。无需云端。一切都在您的 Mac 上运行。
MLX
Local LLMFree通过 MLX 框架直接在 Apple Silicon 上运行开源模型。支持来自 Hugging Face 的 Qwen3、Mistral 和 Gemma 模型。
Apple Intelligence
On-DeviceFree使用 Apple 内置的 Foundation Models 进行上下文感知翻译。需要 macOS 15.1+ 并启用 Apple Intelligence。
直接从 Hugging Face 导入的模型:
26 个模型$0无 API 费用。完全在您的 Mac 上运行。
使用您自己的 API 密钥。我们绝不存储或代理您的请求。
OpenAI
GPTBYOK由 GPT 模型驱动的高质量翻译。在所有语言中提供出色的上下文感知、自然流畅的输出。
DeepL
Neural MTBYOK欧洲语言行业领先的准确度。内置术语表功能,确保项目间术语一致。
BYOK = Bring Your Own Key。使用您自己的 OpenAI 或 DeepL API 密钥。无加价,无代理。