AiOffice 能力组合,开箱即用,为您的工作流提速
除非用户或现有模板另有说明
该技能为创建有效技能提供了指导。
用户可能会要求您创建、编辑或分析 .pptx 文件的内容。 .pptx 文件本质上是一个 ZIP 存档,其中包含 XML 文件以及您可以读取或编辑的其他资源。您有不同的工具和工作流程可用于不同的任务。
本指南涵盖使用 Python 库和命令行工具的基本 PDF 处理操作。有关高级功能、JavaScript 库和详细示例,请参阅 reference.md。如果您需要填写 PDF 表单,请阅读 forms.md 并按照其说明进行操作。
用户可能会要求您创建、编辑或分析 .docx 文件的内容。 .docx 文件本质上是一个 ZIP 存档,其中包含 XML 文件以及您可以读取或编辑的其他资源。您有不同的工具和工作流程可用于不同的任务。
在编写提交消息之前,请分析项目最近的提交历史记录以了解其约定。项目的实际约定始终优先于任何通用提交消息指南。
使用此技能构建 Bear x-callback-url 链接、解释参数并描述预期结果。该技能包括官方文档的简洁、重新格式化版本,因此代理无需获取 URL。保留官方参考 URL 仅用于在需要时帮助更新内容: https://bear.app/faq/x-callback-url-scheme-documentation 。
当用户说"今日AI热点"时,执行以下流程:
通过为每个任务分派新的子代理来执行计划,并在每个任务之后进行代码审查。
wiki CLI 会智能地发现您的笔记本路径。
代理用途:使用当前项目的 git 存储库远程 URL 作为项目 ID 来管理 Taskwarrior 任务。
每个计划工件类型都有自己的目录:
核心原则:所有项目工件必须存储在 [ProjectId] 下的基本内存中,并具有显式链接和状态跟踪,以在并发项目中维护单一事实来源。
当您遇到多个不相关的故障(不同的测试文件、不同的子系统、不同的错误)时,按顺序调查它们会浪费时间。每项调查都是独立的,可以并行进行。
此技能提供使用 Mermaid MCP 服务器生成 Mermaid 图的能力。
Megatron-Core 通过先进的并行策略在 H100 GPU 上训练从 2B 到 462B 参数的 LLM,模型 FLOP 利用率高达 47%。
NVIDIA 的开源库,用于在 NVIDIA GPU 上提供最先进的性能来优化 LLM 推理。
vLLM 通过 PagedAttention(基于块的 KV 缓存)和连续批处理(混合预填充/解码请求)实现了比标准转换器高 24 倍的吞吐量。
Prompt Guard 是一个 86M 参数分类器,可检测 LLM 应用程序中的提示注入和越狱尝试。