站长心海前言: 欢迎回到【OpenClaw 技能周刊】!在上一期文章中,心海带大家用 Python 写了一套自动化脚本,打通了“抓取 RSS”到“推送 WordPress 草稿箱”的流水线。 但眼尖的极客朋友肯定发现了:上期代码里的
process_content_with_ai函数是个“假 AI”,仅仅是做了一下简单的字符串拼接。 今天,补全计划正式启动!我们将把目前大火的 DeepSeek(当然也兼容 ChatGPT)作为超级大脑接入到我们的脚本中,让你的 Agent 真正具备“阅读、思考、翻译、排版”的能力!

🧐 为什么选择 DeepSeek / OpenAI API?
市面上的大模型千千万,但对于我们开发者和站长来说,**“OpenAI 兼容接口”**才是唯一的真理。 只要学会了调用 OpenAI 的标准 Python 库,你就能无缝切换市面上 90% 的主流模型。今天心海特意以最近爆火、性价比极高且对程序员极其友好的 DeepSeek-Chat 为例进行实战演示(如果你想用 ChatGPT,只需要改一行代码即可)。
🛠️ 第一步:环境准备与获取密钥
首先,我们需要给上期的脚本增加一个用来和 AI 对话的通讯工具:官方提供的 openai 库。
- 安装依赖库: 打开你的终端(VPS 或本地电脑),运行以下命令:Bash
pip install openai - 获取 API Key:
- 前往 DeepSeek 开放平台(或 OpenAI 官网)注册账号。
- 充值个 10 块钱(足够你用上几个月了),然后在“API Keys”菜单中生成一串你的专属密钥(形如
sk-xxxxxxxxx)。千万不要把这串密码泄露给别人!
💻 第二步:升级“AI 大脑”核心代码
现在,打开我们上一期写的 cyber_editor.py 文件,找到原来那个“假”的 process_content_with_ai 函数。 将那一整段,替换为下方这套真正的“最强大脑”代码:
Python
from openai import OpenAI
# ==========================================
# 🧠 新增:LLM API 配置区
# ==========================================
# 这里以 DeepSeek 为例。如果是 OpenAI,请将 base_url 改为 "https://api.openai.com/v1"
AI_API_KEY = "sk-在这里填入你的DeepSeek或OpenAI密钥"
AI_BASE_URL = "https://api.deepseek.com"
# 初始化 AI 客户端
client = OpenAI(api_key=AI_API_KEY, base_url=AI_BASE_URL)
# ==========================================
# 🧠 升级版:真实的 LLM 处理函数
# ==========================================
def process_content_with_ai(article):
print(f"🤖 [AI 大脑] 正在深度阅读并翻译文章: {article['title']}...")
# 1. 精心设计的 System Prompt (系统提示词)
# 这是决定 AI 生成质量和排版格式的核心!
system_prompt = """
你是一位资深的极客科技博主,精通 IT、人工智能和服务器运维。
我将提供一篇外网科技资讯的英文标题和摘要。请你完成以下任务:
1. 将标题翻译成吸引极客眼球的中文标题。
2. 将摘要内容翻译并润色为流畅、专业的中文。
3. 严格使用 WordPress Gutenberg 区块 HTML 注释化输出内容,格式必须如下:
标题: [你翻译的中文标题]
正文:
<blockquote class="wp-block-quote is-style-default"><p><strong>原文链接:</strong><a href="原文URL">原文URL</a></p></blockquote>
<h2>核心速递</h2>
<p>[你润色后的中文摘要]</p>
<p class="has-vivid-red-color has-text-color"><em>* 本文由 AI 自动嗅探并翻译,首发于心海漪澜 (www.lanxh.com)。</em></p>
"""
# 2. 组装用户输入
user_prompt = f"原文URL: {article['link']}\n原文标题: {article['title']}\n原文摘要: {article['summary']}"
try:
# 3. 发起大模型 API 请求
response = client.chat.completions.create(
model="deepseek-chat", # 如果用 OpenAI,可改为 "gpt-4o-mini"
messages=[
{"role": "system", "content": system_prompt},
{"role": "user", "content": user_prompt}
],
temperature=0.7 # 控制创造力,0.7 适合翻译和润色
)
# 4. 解析 AI 的回复
ai_reply = response.choices[0].message.content.strip()
# 5. 从 AI 回复中拆分出“标题”和“正文” (简单字符串处理)
# 假设 AI 严格按照我们提示词的格式输出
title_part = ai_reply.split("正文:")[0].replace("标题:", "").strip()
content_part = ai_reply.split("正文:")[1].strip()
return title_part, content_part
except Exception as e:
print(f"❌ [AI 大脑] 思考时短路了: {e}")
# 如果请求失败,返回兜底内容,防止程序崩溃
return f"[翻译失败] {article['title']}", f"<p>API 调用出错:{e}</p><p>原文链接:{article['link']}</p>"
💡 站长进阶:Prompt (提示词) 才是魔法的咒语
在上述代码中,最核心的其实不是 Python 语法,而是那个长长的 system_prompt。
心海在提示词中使用了**“角色扮演 + 严格格式约束”**的技术。我们不仅告诉大模型它是个“极客博主”,还直接把 WordPress 古腾堡(Gutenberg)编辑器的 HTML 注释代码丢给了它。 这就意味着,大模型输出的内容一旦被推送到你的后台,不再是干瘪的纯文本,而是自带引言样式、自带 H2 标题、甚至自带红色高亮版权声明的精美排版!
测试运行一下吧!
保存代码,再次运行你的 cyber_editor.py。 去喝杯咖啡,然后打开你的 WordPress 后台“草稿箱”。你会惊喜地发现,那些晦涩难懂的英文 RSS 资讯,已经全部变成了带有心海漪澜网站风格的中文科技报道!
结语
至此,我们的**“全自动赛博编辑部”**正式宣告竣工!通过 OpenClaw 理念下【RSS 嗅探】+【大模型思考】+【WP API 发布】的闭环,我们真正意义上拥有了一个 24 小时打工的 AI 员工。
下一期大家想玩点什么更硬核的?是让 AI 自动生成博客配图?还是让 AI 帮我们自动管理和回复博客留言?欢迎在评论区点菜!

心海漪澜

评论前必须登录!
注册