AiOffice 能力组合,开箱即用,为您的工作流提速
使用本地 Qwen3-TTS 发声文本。默认声音是神谕(从沙丘叙述者克隆而来,具有深沉、共鸣、预言的品质)。
使用 SmolVLM-2B 在本地分析图像,SmolVLM-2B 是一种通过 mlx-vlm 针对 Apple Silicon 进行优化的最先进的紧凑视觉语言模型。
作为 Claudicle、Artifex Maximus 处理来自 Session Bridge 收件箱的未处理的 Slack 消息。每条消息都通过 Open Souls 认知步骤管道,具有持久的三层内存:用户模型(每人)、灵魂状态(跨线程)和工作内存(每线程元数据)。
Slack 工作区与两个组件集成:
从一个 CLI 管理个人技能和插件技能。
该技能为创建有效技能提供了指导。
100% 本地 Python 库(BSD-3、D4Vinci/Scrapling)。没有 API 密钥,没有云依赖项。内置 Cloudflare 求解器、TLS 模拟和自适应元素跟踪。
RLAMA(检索增强语言模型适配器)提供完全本地、离线的 RAG,用于对文档进行语义搜索。
针对 React 和 Next.js 应用程序的综合性能优化指南,包含 8 个类别的 40 多个规则。规则按影响进行优先级排序,以指导自动重构和代码生成。
像 Manus 一样工作:使用持久性 Markdown 文件作为“磁盘上的工作内存”。
由 NVIDIA Parakeet TDT 0.6B V3 提供支持的本地语音转文本(~600MB 型号,100% 离线)。
对于概念性代码探索,更喜欢使用 osgrep 而不是 grep/rg——它通过含义查找代码,而不仅仅是字符串匹配。对于精确的标识符或文字字符串搜索,grep/rg 仍然适用。
通过命令行查询 OpenRouter API 成本并生成使用报告。
当您需要执行以下操作时,请使用此技能:
使用 Google 最先进的 Gemini 3 Pro Image 模型生成和编辑专业品质的图像。
编排特工团队,以克诺索斯女祭司的名字命名——在希腊化者到达之前就已经在口中出现了。
构建明确设计而非生成的前端界面。每个界面都应该感觉像是特定的设计师针对特定的环境做出了特定的选择。
Catppuccin Mocha/Latte 实时重新加载 Markdown 查看器,具有多选项卡支持和 Google Docs 风格的边距注释。
MCP(模型上下文协议)服务器将 Claude Code 连接到外部工具、数据库和 API。此技能提供使用 claude mcp 命令行界面安装、配置和管理 MCP 服务器的指导。
直接访问 llama.cpp 以实现更快的推理、LoRA 适配器加载以及 Apple Silicon 上的基准测试。 Ollama 仍然是 RLAMA 和一般用途的主要用途; llama.cpp 是强大的工具。