Skip to content

如何构建基于 Claude 和 Alexa 的智能语音助手 Auri

解决传统语音助手响应机械、缺乏上下文的问题:通过将 Alexa 的硬件入口与 Claude Opus 的深度推理能力相结合,构建一个能进行多轮对话、拥有情感人格且支持长期记忆的智能语音助手。

为什么需要这个技能

传统的语音助手(如原生 Alexa)主要执行简单的指令触发,难以处理复杂的逻辑推理或维持长时间的对话上下文。

Auri 的核心在于将“指令驱动”转变为“对话驱动”。通过引入 Claude-Opus-4 模型作为大脑,利用 AWS DynamoDB 存储用户画像与对话历史,并使用 Amazon Polly 的 Vitoria Neural 高保真语音,使 AI 能够像真实的人类一样思考并回应,从而在硬件集成与人工智能深度之间找到平衡点。

适用场景

  • 产品定义与规划:需要为 AI 语音产品制定从 MVP 到规模化的四阶段路线图。
  • 技术架构设计:在 AWS 环境下部署 Serverless 架构(Lambda + DynamoDB)以支持 AI 实时推理。
  • 商业模式分析:设计针对语音 AI 的分级定价模型(Free/Pro/Business/Enterprise)及单位经济效益分析。
  • 北极星指标设定:使用 WAC(每周活跃对话用户)而非简单的 DAU 来衡量深度参与度。

核心工作流

  1. 请求处理链路Echo 设备 ASK SDK (Python) AWS Lambda Claude API Amazon Polly (SSML) 用户耳机/扬声器
  2. 记忆管理机制
    • 拦截器模式:通过 MemoryLoadInterceptor 在请求前加载 DynamoDB 历史,通过 MemorySaveInterceptor 在响应后保存上下文。
    • TTL 策略:为不同等级用户设置不同的记忆有效期(如 Pro 用户 90 天)。
  3. 人格化表达(Persona)
    • 使用 SSML 标记控制语速和语调(如 pitch=+2%)。
    • 设定明确的语言指南:使用第一人称,确认理解后回答,避免机器人式的礼貌用语。
  4. 性能监控与回退
    • 设定 CloudWatch 警报(如延迟 > 6s 触发)。
    • 建立 API 故障回退机制,在 Claude 不可用时提供预设的友好的引导话术。

下载和安装

下载 auri-core 中文版 Skill ZIP

解压后将目录放入你的 AI 工具 skills 文件夹,重启工具后即可使用。具体路径参考内附的 USAGE.zh.md

你可能还需要

暂无推荐