当前位置:首页 > 文章列表 > 文章 > python教程 > Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化

Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化

2026-05-04 11:56:51 0浏览 收藏

亲爱的编程学习爱好者,如果你点开了这篇文章,说明你对《Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化》很感兴趣。本篇文章就来给大家详细解析一下,主要介绍一下,希望所有认真读完的童鞋们,都有实质性的提高。

Scrapy Pipeline用pymysql同步写入MySQL会阻塞事件循环,应使用DBUtils连接池+批量提交;真正异步需aiomysql配合asyncio.to_thread,避免event loop冲突;建表须加UNIQUE KEY并用INSERT IGNORE防重复。

Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化

Scrapy Pipeline 用 pymysql 同步写入 MySQL 会卡住爬虫

Scrapy 是异步框架,但 pymysql 默认是同步阻塞的。直接在 process_item 里调用 cursor.execute() + conn.commit(),会让整个 Twisted 事件循环停等 IO,吞吐量断崖下跌,严重时触发 Twisted TimeoutError 或连接池耗尽。

实操建议:

  • 别在 Pipeline 里新建 Connection:每次新建连接开销大,且易超限;改用连接池(pymysql.connections.ConnectionPool 或更推荐 DBUtils.PooledDB
  • 显式关闭 cursor,但不要关 conn:连接由池管理,手动 close 会把连接还给池;漏关 cursor 可能导致 MySQL 报 Commands out of sync
  • 开启 autocommit=False 但手动 commit:避免每条 insert 都刷盘;批量提交前检查 len(items) >= 100 再 commit,比单条 commit 快 5–10 倍

示例关键片段:

from DBUtils.PooledDB import PooledDB
import pymysql
<p>pool = PooledDB(
creator=pymysql,
host='localhost',
user='root',
password='123',
database='scrapy_db',
charset='utf8mb4',
maxconnections=10,
autocommit=False
)</p><p>class MysqlPipeline:
def process_item(self, item, spider):
conn = pool.connection()
cursor = conn.cursor()
try:
cursor.execute(
"INSERT INTO news (title, url) VALUES (%s, %s)",
(item['title'], item['url'])
)
if self.batch_count >= 100:
conn.commit()
self.batch_count = 0
else:
self.batch_count += 1
finally:
cursor.close()  # 必须关</p><h1>conn.close() 不要调用!还给池</h1>

想真正异步?别碰 pymysql,换 aiomysql + asyncio Pipeline

Scrapy 本身不原生支持 async Pipeline,但 2.6+ 版本允许返回 DeferredAwaitable。硬上 aiomysql 能解阻塞,但要注意它和 Scrapy 的 event loop 兼容性——Scrapy 用 Twisted,aiomysql 用 asyncio,混用容易出 RuntimeError: There is no current event loop in thread

实操建议:

  • 只在 Scrapy 2.7+ 且启用 ASYNCIO_PRIORITY_QUEUE=True 时才考虑 aiomysql
  • 必须用 asyncio.to_thread() 包裹 pymysql 操作:这是目前最稳的“伪异步”方案,不改 event loop,又规避了主线程阻塞
  • 别用 async def process_item 直接 await:Scrapy 会报 TypeError: object xxx can't be used in 'await' expression

简写示意(非完整类):

import asyncio
from scrapy import signals
<p>class AsyncMysqlPipeline:
def <strong>init</strong>(self):
self.pool = None</p><pre class="brush:python;toolbar:false;">@classmethod
def from_crawler(cls, crawler):
    pipeline = cls()
    crawler.signals.connect(pipeline.spider_opened, signal=signals.spider_opened)
    return pipeline

async def spider_opened(self, spider):
    self.pool = await aiomysql.create_pool(
        host='localhost', user='root', password='123',
        db='scrapy_db', loop=asyncio.get_event_loop()
    )

def process_item(self, item, spider):
    # 丢进线程池执行,不阻塞 Twisted 主循环
    return asyncio.to_thread(self._sync_save, item)

def _sync_save(self, item):
    with self.pool.acquire() as conn:
        with conn.cursor() as cur:
            cur.execute("INSERT ...", (item['title'],))
            conn.commit()

MySQLdbPyMySQL 在 Pipeline 里表现一样吗?

不一样。MySQLdb 是 C 扩展,快但已停止维护,Python 3.12+ 编译失败;PyMySQL 纯 Python,兼容性好,但默认没开 socket timeout,遇到 MySQL 暂时不可用会卡死 30 秒以上,表现为爬虫假死、log 无输出、Ctrl+C 也不响应。

实操建议:

  • 强制加 connect_timeout=5read_timeout=5:否则一次网络抖动就能拖垮整个爬虫周期
  • 捕获 pymysql.err.OperationalErrorpymysql.err.IntegrityError:前者是连不上或超时,后者是唯一键冲突(比如重复 URL),该跳过就跳过,别让单条错导致 pipeline 中断
  • 别信 “charset=utf8”:MySQL 实际要 utf8mb4 才支持 emoji,否则存中文可能变 ??? 或报 Incorrect string value

为什么用 INSERT IGNOREON DUPLICATE KEY UPDATE 而不是先 SELECT 再判断?

因为并发写入时,两次查询 + 一次插入之间存在竞态窗口。哪怕你加了 UNIQUE KEY(url),不用原子写法,仍可能写入重复数据,或者抛出 IntegrityError 后没兜住,导致 item 丢失。

实操建议:

  • 建表时务必加 UNIQUE KEY:比如 UNIQUE KEY `uk_url` (`url`),这是 INSERT IGNORE 生效前提
  • INSERT IGNORE INTO ... 最省事:冲突时静默跳过,适合去重场景
  • 需要更新时间戳或计数器?改用 INSERT ... ON DUPLICATE KEY UPDATE updated_at=NOW(),但注意 VALUES(col) 引用的是本次 INSERT 的值,不是原记录值
  • 别在 Pipeline 里做 SELECT COUNT(*) 判断是否存在:慢、锁表、且无法解决并发冲突

入库逻辑真正的复杂点不在语法,而在连接生命周期管理、错误恢复策略、以及对 MySQL 事务边界的理解——比如 autocommit 关着时,一条 insert 失败,后续语句还在同一个事务里,不 rollback 就会污染下一批数据。

今天关于《Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

基金从业资格考试入口系统 基金从业资格考试2025报名时间及要求基金从业资格考试入口系统 基金从业资格考试2025报名时间及要求
上一篇
基金从业资格考试入口系统 基金从业资格考试2025报名时间及要求
知乎听书模式怎么设置 知乎听书模式开启教程【步骤】
下一篇
知乎听书模式怎么设置 知乎听书模式开启教程【步骤】
查看更多
最新文章
资料下载
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    4460次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    4807次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    4685次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    6479次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    5058次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码