
Lorqa - 本地AI翻译
一款AI原生的翻译App
仅适用于 Mac
免费 · App 内购买
Mac
Lorqa 是一款适用于 macOS 的 AI 原生翻译应用。
它让文字的转换变得专注而高效——大型语言模型在你的设备上本地运行,将不同语言之间的文字准确而自然地翻译出来。无需网络,也无需担心隐私,一切都在你的电脑中完成。
核心功能:
- 本地运行 LLM,支持Qwen3,Gemma3,后续会继续增加
- 离线可用,无网环境下依然工作
- 数据仅存于本地,保护你的内容安全
- 智能切片技术,支持长文本翻译
- 简洁界面,专注翻译,无冗余功能
快捷键设置:
快捷键需要用户在 系统设置/隐私与安全/辅助功能/ + (从应用程序选择Lorqa) 自行设置,方可使用快捷键翻译功能。
关于自动续订
购买确认时,费用将从您的 Apple ID 账户中扣除。订阅将在当前订阅期结束前至少 24 小时未取消的情况下自动续订。在当前订阅期结束前的 24 小时内,您的账户将被扣除续订费用。购买后,您可以前往 App Store 的账户设置管理或取消订阅。
邮箱
jiangdi0924@gmail.com
条款:https://jdi-app.notion.site/Terms-5a99ba5bf942491b8299c07221bb5f7b
隐私政策:https://jdi-app.notion.site/Privacy-Policy-cdb1be6b87f64c06b7dbea6ffbbad83f
心路历程
翻译是一个很大众的需求,市面上各种各样的翻译软件层出不穷。有很多大公司出手参与此类应用竞争,可以说有很多翻译的解决方案。 过去很长一段时间我日常使用某款翻译软件,很方便只要选中文本快捷键即可完成内容的翻译,在使用过程中也有一些小的可以吐槽的点,例如:翻译速度太慢,翻译的文本数量会受到一些限制,一些长文本还是得通过其他方法。
我发现现在LLM(文本语言模型)也常作为翻译工具来使用,LLM有良好的多语言能力,现在Qwen3,Gemma3,这类小模型也具备很好的翻译能力。在使用LLM翻译的时候有很多的选择,大多数是网页版,也有一部分是本地部署的模型。这些产品通常没有为翻译场景打造出端到端的翻译体验,总是差点意思。
我过去做过PocketLM(移动端的LLM本地推理客户端),对于小LLM的能力水平有一定的了解,并且对于模型不同设备的推理速度和载入速度也很熟悉。于是我开始着手使用LLM打造这个端到端的翻译应用, 整个实现过程也相当顺利,经过测试我发现Qwen3 0.6B 4bit的效果已经和DeepL的翻译能力不相上下,我还同时增加了Qwen3 1.7B ,Gemma3系列模型作为备选为用户提供多重选择。
我制作这个产品的动机非常个人化。我比较关注这个需求是否有其他人真实存在。关于后续的规划也想听听其他人的反馈~
评分及评论
此 App 尚未收到足够的评分或评论,无法显示整体评分。
修复内购无法展示的问题
开发者“笛 姜”已表明该 App 的隐私规范可能包括下述数据处理方式。更多相关信息,请参阅 开发者隐私政策 。
未收集数据
开发者不会从此 App 中收集任何数据。
辅助功能
开发者尚未表明此 App 支持哪些辅助功能。 进一步了解
信息
- 销售商
- 笛 姜
- 大小
- 50.1 MB
- 类别
- 效率
- 兼容性
设备需装有 macOS 14.0 或更高版本。
- Mac
设备需装有 macOS 14.0 或更高版本。
- 语言
俄文和另外5种
- 俄文、德文、日文、简体中文、英语、韩文
- 年龄分级
4+
- 4+
- App内购买
是
- Lifetime Premium US$5.99
- Annual Premium US$3.99
- 版权
- © JIANGDI
