Python采集*瓣电影影评并实现可视化分析
前言
嗨喽,大家好呀~这里是爱看美女的茜茜呐
又到了学Python时刻~
环境使用:
-
Python 3.8 解释器
-
Pycharm 编辑器
模块使用
-
import parsel >>> pip install parsel
-
import requests >>> pip install requests
-
import csv
安装python第三方模块:
-
win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车
-
在pycharm中点击Terminal(终端) 输入安装命令
( 更多资料、教程、文档点击此处跳转跳转文末名片加入君羊,找管理员小姐姐领取呀~ )
思路分析
代码展示
( 完整源码点击此处跳转跳转文末名片加入君羊,找管理员小姐姐领取呀~ )
数据采集
导入模块
# 导入数据请求模块 --> 第三方模块, 需要安装 pip install requests
import requests
# 导入数据解析模块 --> 第三方模块, 需要安装 pip install parsel
import parsel
# 导入csv模块 --> 内置模块, 不需要安装
import csv
“”"
-
发送请求, 模拟浏览器对于url地址发送请求
-
模拟浏览器: --> headers 请求头 <开发者工具进行复制>
把python代码伪装成浏览器去发送请求
目的: 为了防止被反pa
反pa: 你得不到数据, 或者返回的数据不是你想要的
-
如何批量替换
-
选中替换内容, ctrl + R
-
勾选上 .* 正则
-
输入正则匹配规则, 进行替换
:.*
,
-
-
采集的速度过快/频繁, 可能会IP异常
解决方法:
-
登陆账号加上cookie
-
用IP代理, 切换IP
免费的IP, https 可能用不了 HTTP有一些可以的, 质量不好
氪金的IP 一个IP 几分钱一个
-
-
多页的数据采集
分析请求链接的变化规律
-
“”"
0<起始数包含>, 201<末尾数不包含>, 20<步长>
for page in range(0, 201, 20):
# 请求链接 字符串格式化方法 -->
url = f'https://movie.****.com/subject/4811774/comments?start={page}&limit=20&status=P&sort=new_score'
伪装模拟
headers = {
# User-Agent 用户代理, 表示浏览器基本身份信息
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
发送请求
response = requests.get(url=url, headers=headers)
“”"
-
获取数据, 获取服务器返回响应数据
开发者工具: response
response.text --> 获取响应文本数据
response --> 响应对象
text --> 文本
-
解析数据, 提取我们想要的数据内容
影评相关数据
css选择器: 根据标签属性提取数据内容
“”"
把获取下来html字符传数据<response.text>, 转换可解析的对象
selector = parsel.Selector(response.text)
第一次提取所有内容
divs = selector.css('div.comment-item')
把列表里面元素一个一个提取出来, for循环遍历
for div in divs:
name = div.css('.comment-info a::text').get() # 昵称
rating = div.css('.rating::attr(title)').get() # 评分
date = div.css('.comment-time ::attr(title)').get() # 日期
area = div.css('.comment-location::text').get() # 归属地
short = div.css('.short::text').get().replace('\n', '') # 评论
count = div.css('.vote-count::text').get() # 有用
把数据放到字典里面
dit = {
'昵称': name,
'评分': rating,
'日期': date,
'归属地': area,
'评论': short,
'有用': count,
}
写入数据
csv_writer.writerow(dit)
print(name, rating, date, area, short, count)
创建文件对象
f = open('影评.csv', mode='a', encoding='utf-8-sig', newline='')
# f 文件对象 fieldnames 表头/字段名
csv_writer = csv.DictWriter(f, fieldnames=[
'昵称',
'评分',
'日期',
'归属地',
'评论',
'有用',
])
写入表头
csv_writer.writeheader()
词云图
导入模块
# 导入结巴模块 --> 第三方模块, 需要安装 pip install jieba
import jieba
# 导入pandas --> 第三方模块, 需要安装 pip install pandas
import pandas as pd
# 导入词云模块 --> 第三方模块, 需要安装 pip install wordcloud
import wordcloud
读取csv表格里面数据内容
df = pd.read_csv('影评.csv')
获取评论内容
content_list = df['评论'].to_list()
把列表转成字符串
content = ''.join(content_list)
进行分词处理
string = ' '.join(jieba.lcut(content))
词云图配置
wc = wordcloud.WordCloud(
width=1000, # 宽
height=700, # 高
background_color='white', # 背景颜色
font_path='msyh.ttc', # 设置字体
stopwords={'了', '的', '是', '我', '在', '和'},
scale=15
)
传入文字内容
wc.generate(string)
输出词云图
wc.to_file('词云图.png')
print(string)
尾语
感谢你观看我的文章呐~本次航班到这里就结束啦 🛬
希望本篇文章有对你带来帮助 🎉,有学习到一点知识~
躲起来的星星🍥也在努力发光,你也要努力加油(让我们一起努力叭)。