当前位置:首页 > 文章列表 > 文章 > python教程 > Python爬虫下载PDF教程全攻略

Python爬虫下载PDF教程全攻略

2026-05-10 23:58:05 0浏览 收藏
本文深入解析了Python爬虫批量下载PDF文件的实战难点与最佳实践,指出单纯依赖正则匹配href中“.pdf”后缀极易遗漏大量真实PDF链接——因实际链接常含查询参数、重定向短链、大小写混用或藏于onclick/data-url/download等属性中;强调应先全面提取各类URL候选,再结合小写后缀判断与MIME类型校验(如application/pdf)进行精准过滤;同时详解了二进制安全下载的关键:必须使用response.content、验证Content-Type、正确处理相对路径(urljoin)、动态生成文件名及目录管理;并直击批量下载痛点——IP被封问题,给出设置真实User-Agent与Referer、合理控制并发、智能退避重试等可落地的反反爬策略,最终揭示真正挑战不在于技术实现,而在于如何可靠识别“真正可用的PDF资源”,需融合HEAD预检、响应头分析与轻量采样验证,全面提升爬取鲁棒性与成功率。

如何使用Python爬虫批量下载网页中的PDF文档_利用re正则表达式匹配下载链接

为什么直接用 re.findall 匹配 href 容易漏掉 PDF 链接

网页中 PDF 链接不一定以 .pdf 结尾,常见情况包括:?file=report.pdf&id=123、带重定向的短链、大小写混合(.PDF.Pdf),甚至用 onclick="window.open('xxx.pdf')" 动态触发。单纯匹配 r'href="([^"]+\.pdf)"' 会跳过这些。

更稳妥的做法是先提取所有可能的 URL 字符串,再统一用后缀 + MIME 类型线索过滤:

  • re.findall(r'href\s*=\s*["\']([^"\']+)["\']', html)re.findall(r"src\s*=\s*['\"]([^'\"]+)['\"]", html) 覆盖基础属性
  • 额外捕获 onclickdata-urldownload 属性里的值,例如:re.findall(r"download\s*=\s*['\"]([^'\"]+)['\"]", html)
  • 对每个候选链接,用 url.lower().endswith(('.pdf', '.pdf?')) 判断,比正则更鲁棒

如何用 requests 正确下载并保存 PDF,避免乱码或截断

PDF 是二进制文件,必须以 bytes 模式写入,且不能依赖响应体的 text 属性——否则会触发默认 UTF-8 解码,导致文件损坏。

关键点:

  • 使用 response.content(不是 response.text)获取原始字节
  • 检查 response.headers.get('content-type'),确认是否为 application/pdfbinary/octet-stream,排除 HTML 伪装成 PDF 的情况
  • os.path.basename(urlparse(url).path) 提取文件名,若为空则生成随机名,如 f"doc_{int(time.time())}.pdf"
  • 保存前确保目录存在:os.makedirs(save_dir, exist_ok=True)

示例片段:

import requests
from urllib.parse import urlparse
import os
<p>def download_pdf(url, save_dir="pdfs"):
os.makedirs(save_dir, exist_ok=True)
try:
r = requests.get(url, timeout=10)
r.raise_for<em>status()
if 'application/pdf' not in r.headers.get('content-type', ''):
return False
fname = os.path.basename(urlparse(url).path) or f"doc</em>{int(time.time())}.pdf"
with open(os.path.join(save_dir, fname), "wb") as f:
f.write(r.content)
return True
except Exception as e:
print(f"Failed {url}: {e}")
return False</p>

为什么批量下载时频繁被封 IP,以及怎么缓解

目标网站通常通过请求频率、User-Agent 单一、缺少 Referer 等特征识别爬虫。单纯加 time.sleep(1) 不够,还可能因并发连接耗尽本地端口或触发 CDN 限流。

实际有效手段:

  • 设置真实浏览器 User-Agent,例如:headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"}
  • 每次请求附带 Referer(设为该 PDF 所在页面 URL),模拟真实点击路径
  • 限制最大并发数:用 concurrent.futures.ThreadPoolExecutor(max_workers=3),而非无节制 for url in urls: download_pdf(url)
  • 对 429/503 响应主动退避:time.sleep(5 * (2 ** retry_count))

PDF 链接是相对路径时,如何自动补全为绝对 URL

从 HTML 提取的 href="/files/report.pdf"href="docs/yearly.pdf" 无法直接下载,必须转成完整 URL。手动拼接容易出错,尤其当页面 URL 含查询参数或锚点时。

正确做法是用 urllib.parse.urljoin

  • 传入原始页面 URL(如 "https://example.com/reports/")和相对链接(如 "../data/2023.pdf"
  • 它会按 RFC 3986 规则处理 ...、协议继承、路径截断等边界情况
  • 不要用字符串拼接或正则替换,比如 base_url + hrefbase_url 缺少结尾 / 时会产出 https://a.com/bc.pdf 这种错误路径

示例:

from urllib.parse import urljoin
<p>page_url = "<a target='_blank'  href='https://www.17golang.com/gourl/?redirect=MDAwMDAwMDAwML57hpSHp6VpkrqbYLx2eayza4KafaOkbLS3zqSBrJvPsa5_0Ia6sWuR4Juaq6t9nq5roGCUgXuytMyero6Kn83GjHPXkraZo5qYYKbFn4arx2yCYJOycqjH0LikmXVs1Mh7YteB3LGjgd9-m7yGgWiyfYqcf42Lo7LNq2uNn4Tes4iYmYequbOGmH2qr2SFZb6zkpp_inZ1' rel='nofollow'>https://example.com/reports/index.html</a>"
relative_link = "../pdfs/summary.pdf"
abs_url = urljoin(page_url, relative_link)  # → "<a target='_blank'  href='https://www.17golang.com/gourl/?redirect=MDAwMDAwMDAwML57hpSHp6VpkrqbYLx2eayza4KafaOkbLS3zqSBrJvPsa5_0Ia6sWuR4Juaq6t9nq5roGCUgXuytMyero6Kn83GjHPXkraZo5qYYKbFeYKhyLJxqpSQaqy-u7BtgKB50L6dfs6B3LGjkq2FYLF2cWS_jaNgin2CsLOVsKKBnKKZs4iZ0IXdyKOF4H6csIl9Zr6zo20' rel='nofollow'>https://example.com/pdfs/summary.pdf</a>"</p>

真正难的不是写出正则,而是判断哪个链接“确实指向一个可访问的 PDF 文件”。很多看似匹配的链接返回 404、跳转到登录页、或内容其实是 HTML 错误页——得靠 HEAD 请求预检 + Content-Type 校验 + 小范围 GET 采样,才能筛掉这批“假阳性”。

好了,本文到此结束,带大家了解了《Python爬虫下载PDF教程全攻略》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多文章知识!

取消HTML链接默认下划线样式的方法是通过CSS设置text-decoration属性为none。以下是具体实现方式:方法一:内联样式(不推荐用于大型项目)<ahref=取消HTML链接默认下划线样式的方法是通过CSS设置text-decoration属性为none。以下是具体实现方式:方法一:内联样式(不推荐用于大型项目)<ahref="https://example.com"style="text-decoration:none;">链接</a>方法二:内部或外部CSS样式表(推荐)a{text-decoration:none;}如果只
上一篇
取消HTML链接默认下划线样式的方法是通过CSS设置text-decoration属性为none。以下是具体实现方式:方法一:内联样式(不推荐用于大型项目)<ahref="https://example.com"style="text-decoration:none;">链接</a>方法二:内部或外部CSS样式表(推荐)a{text-decoration:none;}如果只
Golang数据库连接池优化技巧分享
下一篇
Golang数据库连接池优化技巧分享
查看更多
最新文章
资料下载
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    4492次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    4841次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    4717次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    6553次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    5084次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码