1、项目介绍
技术栈:
Python语言、Flask框架、Vue框架、requests爬虫、Echarts可视化、MySQL数据库、HTML
使用爬虫爬取京东商品信息数据,对数据进行清洗、存储、分析展示
使用爬虫爬取[京东商品信息]数据,对数据进行清洗、存储、分析展示,应用Python爬虫、Flask框架、Vue、Echarts等技术实现。此系统适用于目标网站任何类型的商品分析。
随着电子商务的迅猛发展,商品销售数据的分析与可视化愈发重要,在零售行业,数据驱动的决策能够显著提升竞争力。许多服务于这一领域的系统在数据处理和展示上仍显不足,常常面临信息更新滞后、数据整合困难和用户体验不佳等问题。这些问题限制了商家和消费者的有效互动,也影响了业务决策的准确性。
本研究提出了一种京东商品销售数据分析可视化系统,通过现代技术手段解决以上问题。该系统采用Python语言与Flask框架作为后端开发工具,前端则使用Vue框架构建用户界面,结合requests库进行数据爬取。数据存储方面,系统使用MySQL数据库,以确保数据的高效管理和检索。同时,系统利用数据清洗和可视化技术,通过Echarts实现数据的直观展示,提升用户的使用体验。
系统的主要功能包括数据概览、商品评价排名、商品价格排名、价格区间分析、店铺星级与评分排名、评论分析和爬取日志管理等模块。用户可以通过输入商品标题进行模糊查询,管理员可获取商品的评论和店铺信息,并进行相应的数据分析。这一系统不仅为商家提供了强大的数据支持,也为消费者决策提供了有价值的信息,促进了购物体验的提升。通过该系统的实现,我们期望能够有效地解决当前行业中的数据处理问题,提升商品销售数据分析的效率与准确性,为未来的电商发展提供新的思路与方法。
关键词:商品数据,Flask框架,MySQL数据库,可视化
2、项目界面
(1)商品价格可视化分析
3、项目说明
(1)介绍
使用爬虫爬取[京东商品信息]数据,对数据进行清洗、存储、分析展示,应用Python爬虫、Flask框架、Vue、Echarts等技术实现。此系统适用于目标网站任何类型的商品分析。
(2)系统功能
1、数据概览
使用爬虫爬取京东商品数据后,将数据在此模块进行展示。所有爬虫在文章后面进行介绍
搜索
:输入商品标题,可对商品进行模糊查询
获取评论
:管理员功能,点击此按钮调用获取评论爬虫,开始获取对应商品的评论信息,默认爬5页,可在程序中修改爬取页数
获取店铺信息
:管理员功能,点击此按钮调用获取店铺信息爬虫,获取该商品对应店铺的信息,包括店铺星级、店铺评分等
详情
:点击详情按钮,跳转到商品详情页面
店铺
:点击按钮,跳转到店铺页面
2、商品价格排名
将所有商品的价格进行排序,使用echarts柱状图从高到低展示前20条数据。支持按照店铺查询店内商品排名
搜索
:选择店铺(可以输入)后点击搜索,查询该店铺所有商品排名
3、店铺星级排名
对已获取信息的店铺星级进行排序,使用echarts折线图进行展示。
4、店铺评分排名
对已获取信息的店铺评分进行排序,可分别展示商品评分,物流评分和售后评分。
5、店铺均价排名
计算所有店铺的商品均价,使用echarts折线图从高到低展示前20条数据。
6、评论分析
展示评论信息的词云图和评分占比,使用词云和饼状图实现。可根据条件展示不同的结果
店铺空、商品空
:展示所有数据的评论信息词云,以及评分占比
店铺不空、商品空
:展示该店铺的评论信息词云,以及评分占比
店铺不空、商品不空
:展示该商品的评论信息词云,以及评分占比
7、个人信息
用户查看个人信息,输入新的信息点击提交,可更新个人信息
9、修改密码
输入原密码与新密码,可修改密码
10、登录注册
用户登录注册
11、用户管理
该功能是管理员功能,管理用户信息
新增
:点击新增按钮,输入用户信息,可添加新用户
搜索
:输入用户名字和手机号码,点击搜索即可查询用户信息
编辑
:
重置密码
:点击重置密码,可重置该用户密码
启用/停用
:对用户账号状态进行修改,被停用的用户无法登录系统
删除
:删除该账号
(3)软件架构
后端
- python
- flask
前端
- vue
- iview
- echarts
python库
4、核心代码
def getData(username,page):
all_data = []
log = ''
start_time = getNowDataTimeStr()
key_word_tosql = '空调' #1、输入爬取关键词,该字段是写入数据库的视频类别字段
try:
log += '============ {} 商品数据获取,开始运行 ============\n'.format(getNowDataTimeStr())
for item in range(1, page):
print("------------第" + str(item) + "页 获取开始!")
log += '============ {} 第{}页 开始爬取\n'.format(getNowDataTimeStr(), item)
url = 'https://search.jd.com/Search?keyword=空调&page={}' #2、 输入爬取关键词 例如:%E7%94%B5%E8%84%91
# url = 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BA&page={}'
url = url.format(item)
print(url)
log += '============ {} url {}\n'.format(getNowDataTimeStr(), url)
# 页面数据获取
resp = requests.get(url, headers=headers)
response = resp.text
# print(response)
# 解析器 解析数据
soup = BeautifulSoup(response,'html.parser')
# print(soup)
for tony in soup.find_all('div',class_='ml-wrap'):
for sp in tony.find_all('div',class_='goods-list-v2 gl-type-1 J-goods-list'):
for li in sp.find_all('li', class_='gl-item'):
# 标题
title_div = li.find('div', class_='p-name p-name-type-2')
title = title_div.find('em').text
# 详情链接
hreff_a = title_div.find('a')
href = hreff_a['href']
# 价格
price_div = li.find('div',class_='p-price')
price = price_div.find('i').text
# 店铺名
shop_div = li.find('div', class_='p-shop')
shop_name_a = shop_div.find('a')
if shop_name_a == None :
shop_name = '——'
shop_href = '——'
else:
shop_name = shop_name_a.text
# 店铺地址
shop_href = shop_div.find('a')['href']
# 评价地址
commit_href = href + '#comment'
print(title,href,price,shop_name,shop_href,commit_href)
all_data.append({
"title": title,
"href": href,
"price": price,
"shop_name": shop_name,
"shop_href": shop_href,
"commit_href": commit_href
})
print("------------第" + str(item) + "页 获取完毕!")
log += '============ {} 第{}页 获取完毕\n'.format(getNowDataTimeStr(), item)
# TODO 延迟5秒,爬取数据多延时更长时间
time.sleep(2)
# 数据入库
print("------------数据入库开始!")
log += '============ {} 数据入库开始\n'.format(getNowDataTimeStr())
count_insert = 0
count_update = 0
mysql = get_a_conn()
for item in all_data:
sql_select = 'select * from tbl_goods where href = "%s"' % item.get('href')
result = mysql.fetchall(sql_select)
if (len(result) > 0):
sql_update = "update tbl_goods set title='%s',price='%s',shop_name='%s',shop_href='%s',commit_href='%s',create_time='%s' where href = '%s'" \
% (item.get('title'), item.get('price'), item.get('shop_name'), item.get('shop_href'), item.get('commit_href'), start_time, item.get('href'))
mysql.fetchall(sql_update)
count_update += 1
else:
insert_sql = 'insert into tbl_goods (title,href,price,shop_name,shop_href,commit_href,key_word,create_time) values ("%s","%s","%s","%s","%s","%s","%s","%s")' \
% (item.get('title'), item.get('href'), item.get('price'), item.get('shop_name'), item.get('shop_href'), item.get('commit_href'), key_word_tosql, start_time) # 倒数第2个参数,就是写入数据库的【key_word】 例如: '手机'
mysql.fetchall(insert_sql)
count_insert += 1
print("============ 数据入库完毕,新增{}条数据,更新{}条数据 ".format(count_insert, count_update))
log += '============ {} 数据入库完毕,新增{}条数据,更新{}条数据\n'.format(getNowDataTimeStr(), count_insert,
count_update)
log += '============ {} 评论获取,运行成功,结束 ============\n'.format(getNowDataTimeStr())
# 插入日志
saveLog(username, start_time, getNowDataTimeStr(), str(len(all_data)), url, '商品评论', log, '1')
return log
print("------------数据入库完毕!")
print('运行完毕')
except Exception as e:
print(e)
print(traceback.print_exc())
# 插入日志
saveLog(username, start_time, getNowDataTimeStr(), str(len(all_data)), url, '商品信息', log, '0')
log += '============ {} 评论获取,运行失败,结束 ============\n'.format(getNowDataTimeStr(), e)
return log
if __name__ == '__main__':
# TODO 参数代表爬取的页数
getData('管理员后台', 5) # 参数代表爬取的页数
5、源码获取方式
🍅由于篇幅限制,获取完整文章或源码、代做项目的,查看我的【用户名】、【专栏名称】、【顶部选题链接】就可以找到我啦🍅
感兴趣的可以先收藏起来,点赞、关注不迷路,下方查看👇🏻获取联系方式👇🏻