当前位置: 首页 > news >正文

Python采集*瓣电影影评并实现可视化分析

前言

嗨喽,大家好呀~这里是爱看美女的茜茜呐

又到了学Python时刻~

环境使用:

  • Python 3.8 解释器

  • Pycharm 编辑器

模块使用

  • import parsel >>> pip install parsel

  • import requests >>> pip install requests

  • import csv

安装python第三方模块:

  1. win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车

  2. 在pycharm中点击Terminal(终端) 输入安装命令

( 更多资料、教程、文档点击此处跳转跳转文末名片加入君羊,找管理员小姐姐领取呀~ )

思路分析

代码展示

( 完整源码点击此处跳转跳转文末名片加入君羊,找管理员小姐姐领取呀~ )

数据采集

导入模块

# 导入数据请求模块 --> 第三方模块, 需要安装 pip install requests
import requests
# 导入数据解析模块 --> 第三方模块, 需要安装 pip install parsel
import parsel
# 导入csv模块 --> 内置模块, 不需要安装
import csv

“”"

  1. 发送请求, 模拟浏览器对于url地址发送请求

    • 模拟浏览器: --> headers 请求头 <开发者工具进行复制>

      把python代码伪装成浏览器去发送请求

      目的: 为了防止被反pa

      反pa: 你得不到数据, 或者返回的数据不是你想要的

    • 如何批量替换

      1. 选中替换内容, ctrl + R

      2. 勾选上 .* 正则

      3. 输入正则匹配规则, 进行替换

        :.*
        ,

    • 采集的速度过快/频繁, 可能会IP异常

      解决方法:

      1. 登陆账号加上cookie

      2. 用IP代理, 切换IP

      免费的IP, https 可能用不了 HTTP有一些可以的, 质量不好

      氪金的IP 一个IP 几分钱一个

    • 多页的数据采集

      分析请求链接的变化规律

“”"
0<起始数包含>, 201<末尾数不包含>, 20<步长>

for page in range(0, 201, 20):
    # 请求链接 字符串格式化方法 -->
    url = f'https://movie.****.com/subject/4811774/comments?start={page}&limit=20&status=P&sort=new_score'

伪装模拟

    headers = {
        # User-Agent 用户代理, 表示浏览器基本身份信息
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
    }

发送请求

    response = requests.get(url=url, headers=headers)

“”"

  1. 获取数据, 获取服务器返回响应数据

    开发者工具: response

    response.text --> 获取响应文本数据

    response --> 响应对象

    text --> 文本

  2. 解析数据, 提取我们想要的数据内容

    影评相关数据

css选择器: 根据标签属性提取数据内容

“”"

把获取下来html字符传数据<response.text>, 转换可解析的对象

    selector = parsel.Selector(response.text)

第一次提取所有内容

    divs = selector.css('div.comment-item')

把列表里面元素一个一个提取出来, for循环遍历

    for div in divs:
        name = div.css('.comment-info a::text').get()  # 昵称
        rating = div.css('.rating::attr(title)').get()  # 评分
        date = div.css('.comment-time ::attr(title)').get()  # 日期
        area = div.css('.comment-location::text').get()  # 归属地
        short = div.css('.short::text').get().replace('\n', '')  # 评论
        count = div.css('.vote-count::text').get()  # 有用

把数据放到字典里面

        dit = {
            '昵称': name,
            '评分': rating,
            '日期': date,
            '归属地': area,
            '评论': short,
            '有用': count,
        }

写入数据

        csv_writer.writerow(dit)
        print(name, rating, date, area, short, count)

创建文件对象

f = open('影评.csv', mode='a', encoding='utf-8-sig', newline='')
# f 文件对象 fieldnames 表头/字段名
csv_writer = csv.DictWriter(f, fieldnames=[
    '昵称',
    '评分',
    '日期',
    '归属地',
    '评论',
    '有用',
])

写入表头

csv_writer.writeheader()

词云图

导入模块

# 导入结巴模块 --> 第三方模块, 需要安装 pip install jieba
import jieba
# 导入pandas --> 第三方模块, 需要安装 pip install pandas
import pandas as pd
# 导入词云模块 --> 第三方模块, 需要安装 pip install wordcloud
import wordcloud

读取csv表格里面数据内容

df = pd.read_csv('影评.csv')

获取评论内容

content_list = df['评论'].to_list()

把列表转成字符串

content = ''.join(content_list)

进行分词处理

string = ' '.join(jieba.lcut(content))

词云图配置

wc = wordcloud.WordCloud(
    width=1000,  # 宽
    height=700,  # 高
    background_color='white',  # 背景颜色
    font_path='msyh.ttc', # 设置字体
    stopwords={'了', '的', '是', '我', '在', '和'},
    scale=15
)

传入文字内容

wc.generate(string)

输出词云图

wc.to_file('词云图.png')
print(string)

尾语

感谢你观看我的文章呐~本次航班到这里就结束啦 🛬

希望本篇文章有对你带来帮助 🎉,有学习到一点知识~

躲起来的星星🍥也在努力发光,你也要努力加油(让我们一起努力叭)。

最后,宣传一下呀~👇👇👇更多源码、资料、素材、解答、交流皆点击下方名片获取呀👇👇👇

相关文章:

  • 互诺科技做网站怎么样/兰州做网站的公司
  • wordpress 文字大小/苏州优化网站公司
  • 本地网站有什么可以做/电商如何从零做起
  • 做啪啪网站/网络口碑营销名词解释
  • 简易个人博客网站源码/网站关键词优化价格
  • 国际实时新闻/汕头搜索引擎优化服务
  • EasyExcel的导入导出使用
  • C++设计模式(4)——策略模式
  • 十四.文件操作
  • 在 VMware Workstation 16 Pro 中安装 Ubuntu Server 22.04.1 并配置静态 IP 地址
  • 使用 Burpsuite 测试的常用操作(一)
  • 分分钟你也能写一个自己需要的 Chrome 扩展程序
  • 基于SpringBoot使用mybatis-generator访问MariaDB
  • 【Kotlin】类的继承 ② ( 使用 is 运算符进行类型检测 | 使用 as 运算符进行类型转换 | 智能类型转换 | Any 超类 )
  • Elasticsearch高级查询—— 匹配查询文档
  • 2023寒假算法集训营1
  • Leetcode.87 扰乱字符串
  • 帮助台技术员协助的自助服务