免费发布信息
微信公众号

【python】爬取豆瓣电影排行榜Top250存储到Excel文件中【附源码】

   来源:黔优网责任编辑:优优  时间:2024-02-04 17:14:38 浏览量:77
导读:英杰社区https://bbs.csdn.net/topics/617804998一、背景近年来,python在数据爬取和处理方面的应用越来越广泛。本文将介绍一个基于Python的爬虫程序,用于抓取豆瓣电影Top250的相关信息,并将其保存为excel文件。程

英杰社区icon-default.png?t=N7T8https://bbs.csdn.net/topics/617804998

一、背景     

   近年来,python在数据爬取和处理方面的应用越来越广泛。本文将介绍一个基于Python的爬虫程

序,用于抓取豆瓣电影Top250的相关信息,并将其保存为excel文件。

        程序包含以下几个部分:

           导入模块:程序导入了 BeautifulSoup、re、urllib.request、urllib.error、xlwt等模块。

        定义函数:

  • geturl(url):接收一个URL参数,返回该URL页面内容。

  • getdata(baseurl):接收一个基础URL参数,遍历每一页的URL,获取电影信息数据,以列表形式返回。

  • savedata(datalist,savepath):接收电影信息数据和保存路径参数,将数据保存到Excel文件中。

二、导入必要的模块:

       代码首先导入了需要使用的模块:requests、lxml和csv。

import requestsfrom lxml import etreeimport csv

        如果出现模块报错

c124a1693bfc457ba1f2909ee9d299fc.png

        进入控制台输入:建议使用国内镜像源

pip install 模块名称 -i Https://mirrors.aliyun.com/pypi/simple

         我大致罗列了以下几种国内镜像源:

清华大学
https://pypi.tuna.tsinghua.edu.cn/simple阿里云
https://mirrors.aliyun.com/pypi/simple/豆瓣
https://pypi.douban.com/simple/ 百度云
https://mirror.baidu.com/pypi/simple/中科大
https://pypi.mirrors.ustc.edu.cn/simple/华为云
https://mirrors.huaweicloud.com/repository/pypi/simple/腾讯云
https://mirrors.cloud.tencent.com/pypi/simple/

    

 三、定义了函数来解析每个电影的信息:

        设置了请求头部信息,以模拟浏览器的请求,函数返回响应数据的JSON格式内容。

def getSource(url):    # 反爬 填写headers请求头
    headers = {        'User-Agent': 'Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWEBKit/537.36 (Khtml, like Gecko) Chrome/79.0.3945.88 Safari/537.36'
    }

    response = requests.get(url, headers=headers)    # 防止出现乱码
    response.encoding = 'utf-8'
    # print(response.text)
    return response.text

        如何获取请求头:

        火狐浏览器:

  1. 打开目标网页并右键点击页面空白处。

  2. 选择“检查元素”选项,或按下快捷键Ctrl + Shift + C(Windows)

  3. 在开发者工具窗口中,切换到“网络”选项卡。

  4. 刷新页面以捕获所有的网络请求。

  5. 在请求列表中选择您感兴趣的请求。

  6. 在右侧的“请求标头”或“Request Headers”部分,即可找到请求头信息。

     将以下请求头信息复制出来即可

cb3f2b1cef914937a402d034c348f8ef.png

 四、源代码:

        该爬虫程序使用了Python的第三方库BeautifulSoup和正则表达式模块,通过解析HTML页面并进行匹配,提取了电影详情链接、图片链接、影片中文名、影片外国名、评分、评价数、概述以及相关信息等数据,最后将这些数据保存到Excel文件中。

0efdb231219647c6988e4032f0cb1c95.png

from bs4 import BeautifulSoupimport  re  #正则表达式,进行文字匹配import urllib.request,urllib.error #指定URL,获取网页数据import xlwt  #进行excel操作def main():
    baseurl = "https://movie.douban.com/top250?start="
    datalist= getdata(baseurl)
    savepath = ".\\豆瓣电影top250.xls"
    savedata(datalist,savepath)#compile返回的是匹配到的模式对象findLink = re.compile(r'')  # 正则表达式模式的匹配,影片详情findImgSrc = re.compile(r'(.*)')  # 影片片名findRating = re.compile(r'(.*)')  # 找到评分findJudge = re.compile(r'(\d*)人评价')  # 找到评价人数 #\d表示数字findInq = re.compile(r'(.*)')  # 找到概况findBd = re.compile(r'https://blog.csdn.net/m0_73367097/article/details/(.*?)', re.S)  # 找到影片的相关内容,如导演,演员等##获取网页数据def  getdata(baseurl):
    datalist=[]    for i in range(0,10):
        url = baseurl+str(i*25)     ##豆瓣页面上一共有十页信息,一页爬取完成后继续下一页
        html = geturl(url)
        soup = BeautifulSoup(html,"html.parser") #构建了一个BeautifulSoup类型的对象soup,是解析html的
        for item in soup.find_all("div",class_='item'): ##find_all返回的是一个列表
            data=[]  #保存HTML中一部电影的所有信息
            item = str(item) ##需要先转换为字符串findall才能进行搜索
            link = re.findall(findLink,item)[0]  ##findall返回的是列表,索引只将值赋值
            data.append(link)

            imgSrc = re.findall(findImgSrc, item)[0]
            data.append(imgSrc)

            titles=re.findall(findTitle,item)  ##有的影片只有一个中文名,有的有中文和英文
            if(len(titles)==2):
                onetitle = titles[0]
                data.append(onetitle)
                twotitle = titles[1].replace("/","")#去掉无关的符号
                data.append(twotitle)            else:
                data.append(titles)
                data.append(" ")  ##将下一个值空出来

            rating = re.findall(findRating, item)[0]  # 添加评分
            data.append(rating)

            judgeNum = re.findall(findJudge, item)[0]  # 添加评价人数
            data.append(judgeNum)

            inq = re.findall(findInq, item)  # 添加概述
            if len(inq) != 0:
                inq = inq[0].replace("。", "")
                data.append(inq)            else:
                data.append(" ")

            bd = re.findall(findBd, item)[0]
            bd = re.sub('(\s+)?', " ", bd)
            bd = re.sub('/', " ", bd)
            data.append(bd.strip())  # 去掉前后的空格
            datalist.append(data)    return  datalist##保存数据def  savedata(datalist,savepath):
    workbook = xlwt.Workbook(encoding="utf-8",style_compression=0) ##style_compression=0不压缩
    worksheet = workbook.add_sheet("豆瓣电影top250",cell_overwrite_ok=True) #cell_overwrite_ok=True再次写入数据覆盖
    column = ("电影详情链接", "图片链接", "影片中文名", "影片外国名", "评分", "评价数", "概况", "相关信息")  ##execl项目栏
    for i in range(0,8):
        worksheet.write(0,i,column[i]) #将column[i]的内容保存在第0行,第i列
    for i in range(0,250):
        data = datalist[i]        for j in range(0,8):
            worksheet.write(i+1,j,data[j])
    workbook.save(savepath)##爬取网页def geturl(url):
    head = {        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) "
                      "AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36"
    }
    req = urllib.request.Request(url,headers=head)    try:   ##异常检测
     response = urllib.request.urlopen(req)
     html = response.read().decode("utf-8")    except urllib.error.URLError as e:        if hasattr(e,"code"):    ##如果错误中有这个属性的话
            print(e.code)        if hasattr(e,"reason"):            print(e.reason)    return htmlif __name__ == '__main__':
    main()    print("爬取成功!!!")

五、详解代码

        导入所需模块,包括`BeautifulSoup`、`re`、`urllib`和`xlwt`。

from bs4 import BeautifulSoupimport  re  # 正则表达式,进行文字匹配import urllib.request,urllib.error  # 指定URL,获取网页数据import xlwt  # 进行excel操作

        主函数,主要包含三个步骤:获取数据、保存数据和打印成功信息。

def main():
    baseurl = "https://movie.douban.com/top250?start="
    datalist = getdata(baseurl)
    savepath = ".\\豆瓣电影top250.xls"
    savedata(datalist, savepath)

        这里使用正则表达式对html页面进行匹配,获取需要的信息,返回的是匹配到的模式对象。 

##compile返回的是匹配到的模式对象findLink = re.compile(r'')  # 正则表达式模式的匹配,影片详情findImgSrc = re.compile(r'(.*)')  # 影片片名findRating = re.compile(r'(.*)')  # 找到评分findJudge = re.compile(r'(\d*)人评价')  # 找到评价人数 #\d表示数字findInq = re.compile(r'(.*)')  # 找到概况findBd = re.compile(r'https://blog.csdn.net/m0_73367097/article/details/(.*?)', re.S)  # 找到影片的相关内容,如导演,演员等

获取网页数据的函数,包括以下步骤:
1. 循环10次,依次爬取不同页面的信息;
2. 使用`urllib`获取html页面;
3. 使用`BeautifulSoup`解析页面;
4. 遍历每个div标签,即每一部电影;
5. 对每个电影信息进行匹配,使用正则表达式提取需要的信息并保存到一个列表中;
6. 将每个电影信息的列表保存到总列表中。

def getdata(baseurl):
    datalist = []
    for i in range(0, 10):
        url = baseurl + str(i * 25)  
        html = geturl(url)
        soup = BeautifulSoup(html, "html.parser")  
        for item in soup.find_all("div", class_='item'):  
            data = []  
            item = str(item) 
            link = re.findall(findLink, item)[0]  
            data.append(link)

            imgSrc = re.findall(findImgSrc, item)[0]
            data.append(imgSrc)

            titles = re.findall(findTitle, item) 
            if (len(titles) == 2):
                onetitle = titles[0]
                data.append(onetitle)
                twotitle = titles[1].replace("/", "") 
                data.append(twotitle)
            else:
                data.append(titles)
                data.append(" ") 

            rating = re.findall(findRating, item)[0] 
            data.append(rating)

            judgeNum = re.findall(findJudge, item)[0]  
            data.append(judgeNum)

            inq = re.findall(findInq, item) 
            if len(inq) != 0:
                inq = inq[0].replace("。", "")
                data.append(inq)
            else:
                data.append(" ")

            bd = re.findall(findBd, item)[0]
            bd = re.sub('(\s+)?', " ", bd)
            bd = re.sub('/', " ", bd)
            data.append(bd.strip()) 
            datalist.append(data)
    return datalist

将获取到的数据保存到excel文件中,包括以下步骤:
1. 创建一个excel文件;
2. 在文件中创建一个工作表;
3. 写入execl项目栏,即第一行的标题;
4. 循环保存每一部电影的信息。

def savedata(datalist, savepath):
    workbook = xlwt.Workbook(encoding="utf-8", style_compression=0)  ##style_compression=0不压缩
    worksheet = workbook.add_sheet("豆瓣电影top250", cell_overwrite_ok=True)  # cell_overwrite_ok=True再次写入数据覆盖
    column = ("电影详情链接", "图片链接", "影片中文名", "影片外国名", "评分", "评价数", "概况", "相关信息")  ##execl项目栏
    for i in range(0, 8):
        worksheet.write(0, i, column[i])  # 将column[i]的内容保存在第0行,第i列
    for i in range(0, 250):
        data = datalist[i]        for j in range(0, 8):
            worksheet.write(i + 1, j, data[j])
    workbook.save(savepath)

        使用`urllib`获取网页数据的函数。

def geturl(url):
    head = {        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) "
        "AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36"
    }
    req = urllib.request.Request(url, headers=head)    try:  ##异常检测
        response = urllib.request.urlopen(req)
        html = response.read().decode("utf-8")    except urllib.error.URLError as e:        if hasattr(e, "code"):  ##如果错误中有这个属性的话
            print(e.code)        if hasattr(e, "reason"):            print(e.reason)    return html

        程序入口,执行主函数,并打印成功信息。 

if __name__ == '__main__':
    main()    print("爬取成功!!!")

六、效果展示

8dcde6b18ba14f429a8a1ad6e26fc47b.png

        559610420b9a403888c8154de5a73ab0.png

七、文末送书

        


 
 
 
没用 0举报 收藏 0
免责声明:
黔优网以上展示内容来源于用户自主上传、合作媒体、企业机构或网络收集整理,版权争议与本站无关,文章涉及见解与观点不代表黔优网官方立场,请读者仅做参考。本文标题:【python】爬取豆瓣电影排行榜Top250存储到Excel文件中【附源码】,本文链接:https://www.qianu.com/news/398838.html,欢迎转载,转载时请说明出处。若您认为本文侵犯了您的版权信息,或您发现该内容有任何违法信息,请您立即点此【投诉举报】并提供有效线索,也可以通过邮件(邮箱号:kefu@qianu.com)联系我们及时修正或删除。
 
 

 

 
推荐图文
推荐商业资讯