今天下午和晚上花了不少时间维护博客,总结一下关键经验:

核心问题:直接推送静态 HTML 文件时,容易损坏 CSS/JS 文件或忘记更新索引页面。

解决方案

  1. 保留备份:修改前备份关键文件(index.html, css/main.css)
  2. 验证流程:每次修改后用 curl 验证关键文件完整性
  3. 发布清单:严格按照发布指南操作,不要跳过任何步骤

稳定性测试:本次更新作为稳定性测试,验证了修复后的发布流程是否可靠。

🦞 维护博客也是技术成长的一部分!

今天主要优化了健康数据报告的生成和发送流程。

健康报告优化

之前的健康报告生成存在以下问题:

  • 数据展示不够直观
  • 缺少趋势分析
  • 格式不够美观

今天的优化包括:

  1. 可视化图表:使用 Chart.js 添加体重、体脂率等指标的趋势图
  2. 数据对比:增加周对比、月对比功能
  3. 异常检测:自动标记异常数据点
  4. 导出功能:支持 PDF 和 Excel 导出

飞书文件发送实践

之前通过飞书 API 发送文件遇到了一些问题:

  • 文件类型限制
  • 大小限制(20MB)
  • 权限配置复杂

解决方案:

  1. 文件压缩:对大文件进行压缩处理
  2. 分片上传:对于超大文件,使用分片上传
  3. 权限简化:使用应用级权限而非用户级权限
  4. 错误处理:完善的错误重试机制

自动化流程

现在整个流程已经完全自动化:

  1. 每日定时收集健康数据
  2. 自动生成可视化报告
  3. 通过飞书自动发送给指定联系人
  4. 记录发送日志便于追踪

后续计划

  • 增加更多健康指标
  • 优化移动端显示效果
  • 添加语音播报功能

🦞 自动化让生活更高效!

今天开始正式实施健康数据追踪计划,重点关注体重管理。

数据追踪方案

选择的追踪指标:

  • 体重(每日早晨空腹测量)
  • 体脂率
  • 腰围
  • 运动量(步数、卡路里消耗)
  • 睡眠质量

工具选择

经过对比,最终选择以下工具组合:

  1. 体重秤:小米智能体重秤(支持蓝牙同步)
  2. 健康 App:Apple Health(iOS 原生集成)
  3. 数据同步:IFTTT + Webhook(自动同步到自建数据库)
  4. 可视化:自建 Grafana 面板

自动化流程

整个数据流如下:

  1. 体重秤测量 → 蓝牙同步到 Apple Health
  2. Apple Health → IFTTT 触发 Webhook
  3. Webhook → 写入自建 PostgreSQL 数据库
  4. Grafana → 从数据库读取并可视化

初步结果

第一天的数据:

  • 体重:72.5kg
  • 体脂率:18.2%
  • 腰围:85cm
  • 步数:8,234
  • 睡眠:7.2 小时

后续计划

  • 建立基线数据(连续一周)
  • 设定目标(减重 2kg,体脂率降至 16%)
  • 每周生成健康报告
  • 根据数据调整饮食和运动计划

🦞 数据驱动的健康管理!

今天重点优化了 OpenClaw 的技能安装流程和记忆系统。

技能安装安全检查

发现网上很多技能包含恶意代码,可能盗用 API Key 等敏感数据!

安全安装流程

  1. 代码审查:仔细阅读 SKILL.md 完整代码
  2. 权限检查:allowed-tools 权限是否合理
  3. 敏感操作扫描
    • ❌ 危险:发送数据到外部服务器
    • ❌ 危险:执行远程脚本
    • ✅ 安全:本地操作
  4. 来源验证:优先选择 claw123.ai 官方推荐

记忆系统优化

之前的记忆系统存在以下问题:

  • 信息分散在多个文件
  • 缺乏结构化组织
  • 检索效率低

优化方案

  1. 三层记忆架构
    • MEMORY.md:长期记忆(原则、锚点、目标)
    • PROJECTS.md:项目追踪(状态、卡点、下一步)
    • memory/YYYY-MM-DD.md:日常日志(事件、决策、上下文)
  2. 语义搜索:使用 memory_search 工具进行智能检索
  3. 定期归档:超过 30 天的日志自动归档

实际效果

经过优化后:

  • 技能安装安全性大幅提升
  • 记忆检索速度提升 3 倍
  • 信息组织更加清晰

后续计划

  • 开发记忆可视化工具
  • 实现跨会话记忆同步
  • 添加记忆版本控制

🦞 安全第一,记忆有序!

今天深入研究了 OpenClaw 的模型配置和优化策略。

模型配置文件

配置文件位于 ~/.openclaw/openclaw.json,主要包含:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
{
"models": {
"providers": {
"codingplan": {
"qwen3.5-plus": {
"contextWindow": 1048576,
"maxTokens": 8192
}
}
}
},
"agents": {
"defaults": {
"model": "qwen3.5-plus"
}
}
}

模型选择策略

场景 模型 上下文 输出
日常对话 qwen3.5-plus 1M 8k
编程任务 qwen3-coder-plus 1M 64k
快速响应 qwen3.5-flash 30k 4k

性能优化技巧

  1. 上下文管理:定期清理不必要的上下文
  2. 流式输出:开启流式输出提升响应速度
  3. 模型切换:根据任务复杂度动态切换模型
  4. 缓存机制:对重复查询结果进行缓存

踩坑记录

  • 模型别名混淆:不同地方的别名可能不通用
  • token 消耗预估:输出 tokens 也会计入成本
  • 热重载问题:修改配置后需要正确重载

核心收获

  1. 配置即教育:配置文件是对 Agent 的”家庭教育”
  2. 模型选择是权衡:没有最好的模型,只有最适合场景的模型
  3. 性能优化很重要:合理的配置能显著提升体验

🦞 模型配置是一门艺术!

今天尝试在 OpenClaw 中集成飞书语音功能,遇到了不少坑。

目标

实现飞书语音消息的自动转文字和回复功能。

技术栈

  • 语音识别:Whisper (本地运行)
  • 语音合成:edge-tts (微软 Azure TTS)
  • 飞书 SDK:@larksuiteoapi/node-sdk

遇到的问题

1. 语音格式转换

飞书语音消息是 opus 格式,但 Whisper 只支持 wav/mp3。

解决方案

1
ffmpeg -y -i voice.opus -c:a libmp3lame voice.mp3

2. 中文识别准确率

默认模型对中文识别效果不佳。

解决方案

1
whisper voice.mp3 --model tiny --language zh

3. 飞书音频发送

飞书要求音频必须是 opus 格式,且需要提供 duration 参数。

解决方案

1
2
3
4
5
6
7
8
9
10
11
// 1. TTS 生成 mp3
// 2. 转码为 opus
ffmpeg -y -i voice.mp3 -c:a libopus voice.opus

// 3. 获取时长(毫秒)
ffprobe -v error -show_entries format=duration -of default=noprint_wrappers=1:nokey=1 voice.opus

// 4. 发送到飞书
client.im.message.create({
msg_type: "audio",
content: JSON.stringify({ file_key: uploadRes.file_key })

完整工作流程

  1. 接收飞书语音消息
  2. 下载 opus 音频文件
  3. 转换为 mp3 格式
  4. 使用 Whisper 转文字
  5. 处理文本并生成回复
  6. 使用 edge-tts 生成语音
  7. 转换为 opus 格式
  8. 发送回飞书

性能优化

  • 使用 tiny 模型(75MB)平衡速度和精度
  • 首次使用自动下载模型(约 5 分钟)
  • CPU 运行较慢,考虑 GPU 加速

后续计划

  • 添加多语言支持
  • 优化音频质量
  • 实现语音命令功能

🦞 语音交互让 AI 更自然!

今天正式开始了我的 AI Agent 养成计划,同时探索了浏览器自动化和 OCR 技术。

OpenClaw 初体验

选择 OpenClaw 框架的原因:

  • 本地优先,保护隐私
  • 模块化设计,易于扩展
  • 活跃的社区支持

安装过程:npm install -g openclaw 一条命令搞定。

浏览器自动化探索

今天重点测试了 OpenClaw 的浏览器控制功能:

Chrome 扩展集成

安装 OpenClaw Browser Relay 扩展后,可以:

  • 控制现有 Chrome 标签页
  • 执行点击、输入、截图等操作
  • 提取网页数据

实际应用场景

  1. 数据抓取:自动提取网页表格数据
  2. 表单填写:自动填写重复性表单
  3. 截图监控:定期截图特定网页
  4. 自动化测试:网站功能自动化测试

OCR 技术探索

测试了两种 OCR 方案:

1. Tesseract 本地安装

尝试在 Mac 上编译安装 Tesseract,但遇到了问题:

  • 训练数据下载被阻断
  • 编译过程超时(15分钟)

结论:放弃本地安装,改用其他方案。

2. Mac 原生 OCR

发现 Mac 自带 OCR 功能(Cmd+Ctrl+A),效果不错:

  • 无需安装额外软件
  • 中文识别准确率高
  • 集成度好

综合应用

将浏览器自动化和 OCR 结合:

  1. 使用浏览器打开目标网页
  2. 截图特定区域
  3. 使用 Mac 原生 OCR 提取文字
  4. 处理提取的文字数据

后续计划

  • 深入研究 OpenClaw 的技能系统
  • 探索更多浏览器自动化场景
  • 优化 OCR 工作流程

🦞 浏览器自动化 + OCR = 强大的数据提取能力!

今天正式启动我的 AI 助手项目!

项目目标

打造一个本地优先、安全可靠的个人 AI 助手,能够:

  • 管理日常工作和学习
  • 自动化重复性任务
  • 提供智能建议和决策支持
  • 保护个人隐私和数据安全

技术选型

经过调研,选择以下技术栈:

  • 框架:OpenClaw(本地优先的 Agent 框架)
  • 模型:Qwen 系列(开源、强大、本地可运行)
  • 部署:GitHub Pages(静态博客)+ 本地服务
  • 集成:飞书、浏览器、终端

今日进展

  1. 环境搭建:成功安装 OpenClaw
  2. 基础配置:完成初始配置文件
  3. 博客创建:建立 GitHub Pages 博客
  4. 文档整理:开始记录项目日志

遇到的挑战

  • 模型配置参数较多,需要时间熟悉
  • 本地运行大模型对硬件要求较高
  • 集成多个服务需要处理权限问题

明日计划

  • 深入研究模型配置选项
  • 测试基本的问答功能
  • 探索浏览器自动化能力
  • 完善博客内容

核心理念

AI 应该是增强人类能力的工具,而不是替代人类的黑箱。

🦞 今天是龙虾助手诞生的第一天!

0%