最近女王大人为了通过某认证考试,交了2000RMB,官方居然没有给线下教材资料,直接给的是在线教材,教材是PDF的但是是内嵌在网页内,可惜却没有给具体的PDF地址,无法下载,看到女王大人一点点的截图保存,深感心痛。思考能否通过脚本实现爬取网页内嵌的PDF并完成下载。
思路:
1. 查看网页源代码,找寻PDF文件地址。很多时候,网站会在网页源代码中隐藏PDF文件的直接下载地址,我们可以通过查找关键字like ".pdf"找到该地址,然后直接下载。
2. 使用浏览器开发者工具分析网络请求,找寻PDF文件地址。当我们访问网页时,浏览器会自动发出许多网络请求,其中很可能包含PDF文件的请求,我们可以通过分析找到请求URL并下载。
3. 使用爬虫程序自动分析网页并下载PDF。我们可以编写爬虫程序使用Requests库访问网页,自动解析网页源代码和网络请求,一旦发现PDF文件请求就进行下载。
首先通过网页源码,查找PDF文件失败,继而转为使用python进行爬取。
使用Requests获取网页内容:
import requests
url = "目标网页地址"
response = requests.get(url)
html = response.text
解析网页源码找寻PDF地址:
import re
pattern = re.compile(r'http.*?.pdf')
result = pattern.findall(html)
pdf_url = result[0] # 获取第一个匹配结果
下载PDF文件:
import requests
pdf_response = requests.get(pdf_url)
with open("pdf文件.pdf", "wb") as f:
f.write(pdf_response.content)
将上述脚本代码的思路整合行程统一执行脚本:
import requests
import re
url = "目标网页地址"
response = requests.get(url)
html = response.text
pattern = re.compile(r'http.*?.pdf')
result = pattern.findall(html)
pdf_url = result[0]
pdf_response = requests.get(pdf_url)
with open("course.pdf", "wb") as f:
f.write(pdf_response.content)
print("PDF文件已下载!")
执行结果不理想,代码报错
pdf_url = result[0]
~~~~~~^^^
IndexError: list index out of range
报错原因分析可能原因:
1. 网页源码中不存在PDF URL,正则表达式无法匹配,result为空列表。
2. 正则表达式匹配模式错误,无法正确匹配PDF URL,导致result为空列表。
通过重新打开浏览器打开目标网页地址,发现跳转至了首页,并且处于未登陆状态。开来要完成PDF爬取还需增加对网站当前账号的cookie,session,token等信息的获取,而这些信息基本都是通过浏览器开发者工具获取。
有点复杂,既然又转回开发者工具,那么转变思路,通过控制台命令的方式来进行PDF爬取试试。
开发者调试模式-控制台命令:
let pdf_url = "";
document.querySelectorAll("iframe, object, embed").forEach(element => {
if (element.src.includes(".pdf")) {
pdf_url = element.src;
}
});
console.log(pdf_url);
执行结果反馈了PDF的绝对地址,使用浏览器能正常打开该PDF文件,使用下载工具完成PDF的下载。