主页 > 知识库 > Python爬虫实战之爬取京东商品数据并实实现数据可视化

Python爬虫实战之爬取京东商品数据并实实现数据可视化

热门标签:朝阳手机外呼系统 小苏云呼电话机器人 所得系统电梯怎样主板设置外呼 市场上的电销机器人 北瀚ai电销机器人官网手机版 北京电销外呼系统加盟 地图标注面积 儋州电话机器人 佛山400电话办理

一、开发工具

Python版本:3.6.4

相关模块:

DecryptLogin模块;

argparse模块;

以及一些python自带的模块。

二、环境搭建

安装Python并添加到环境变量,pip安装需要的相关模块即可。

三、原理简介

原理其实挺简单的,首先,我们利用之前开源的DecryptLogin库来实现一下微博的模拟登录操作:

'''模拟登录京东'''
@staticmethod
def login():
    lg = login.Login()
    infos_return, session = lg.jingdong()
    return session

然后写几行简单的代码来保存一下登录后的会话,省得每次运行程序都要先模拟登录京东:

if os.path.isfile('session.pkl'):
    print('[INFO]: 检测到已有会话文件session.pkl, 将直接导入该文件...')
    self.session = pickle.load(open('session.pkl', 'rb'))
    self.session.headers.update({'Referer': ''})
else:
    self.session = JDGoodsCrawler.login()
    f = open('session.pkl', 'wb')
    pickle.dump(self.session, f)
    f.close()

接着去京东抓一波包,一样的套路,有种屡试不爽的感觉:

看看请求这个接口需要提交的参数:

我们可以简单分析一下每个参数的含义:

area: 不用管,可以看作一个固定值
enc: 指定编码, 可以看作固定值"utf-8"
keyword: 搜索的关键词
adType: 不用管,可以看作一个固定值
page: 当前的页码
ad_ids: 不用管,可以看作一个固定值
xtest: 不用管,可以看作一个固定值
_: 时间戳

也就是说我们需要提交的params的内容大概是这样子的:

params = {
            'area': '15',
            'enc': 'utf-8',
            'keyword': goods_name,
            'adType': '7',
            'page': str(page_count),
            'ad_ids': '291:19',
            'xtest': 'new_search',
            '_': str(int(time.time()*1000))
        }

构造好需要提交的params之后,只需要利用登录后的session去请求我们抓包得到的接口:

response = self.session.get(search_url, params=params)

然后从返回的数据里解析并提取我们需要的数据就可以啦:

response_json = response.json()
all_items = response_json.get('291', [])
for item in all_items:
    goods_infos_dict.update({len(goods_infos_dict)+1: 
                                {
                                    'image_url': item.get('image_url', ''),
                                    'price': item.get('pc_price', ''),
                                    'shop_name': item.get('shop_link', {}).get('shop_name', ''),
                                    'num_comments': item.get('comment_num', ''),
                                    'link_url': item.get('link_url', ''),
                                    'color': item.get('color', ''),
                                    'title': item.get('ad_title', ''),
                                    'self_run': item.get('self_run', ''),
                                    'good_rate': item.get('good_rate', '')
                                }
                            })

四、数据可视化

老规矩,可视化一波我们爬取到的数据呗。以我们爬取到的无人机商品数据为例。首先,我们来看看京东里卖无人机的自营店和非自营店比例吧:

咦,竟然是非自营店占多。我一直以为京东基本都是自营店,虽然我基本不用京东。真是个天大的误解T_T。

接着,我们再来看看京东自己给的商品排名前10的那几家店的商品评论数量呗:

对比一下评论最多的店铺:

看来评论数量和京东给的商品排名并没有直接联系T_T,竟然没有一家店是重复的。

再来看看无人机相关商品的价格分布呗:

到此这篇关于Python爬虫实战之爬取京东商品数据并实实现数据可视化的文章就介绍到这了,更多相关Python可视化京东商品数据 内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:
  • 利用Python进行数据可视化的实例代码
  • python数据可视化之matplotlib.pyplot基础以及折线图
  • 浅谈哪个Python库才最适合做数据可视化
  • python数据可视化plt库实例详解
  • 学会Python数据可视化必须尝试这7个库
  • Python中seaborn库之countplot的数据可视化使用
  • python实现股票历史数据可视化分析案例
  • Python数据可视化之基于pyecharts实现的地理图表的绘制
  • Python数据可视化之用Matplotlib绘制常用图形
  • Python数据可视化之绘制柱状图和条形图
  • python用pyecharts实现地图数据可视化
  • python数据可视化 – 利用Bokeh和Bottle.py在网页上展示你的数据

标签:宁夏 龙岩 江苏 酒泉 金融催收 商丘 云南 定西

巨人网络通讯声明:本文标题《Python爬虫实战之爬取京东商品数据并实实现数据可视化》,本文关键词  Python,爬虫,实战,之爬,取,;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 下面列出与本文章《Python爬虫实战之爬取京东商品数据并实实现数据可视化》相关的同类信息!
  • 本页收集关于Python爬虫实战之爬取京东商品数据并实实现数据可视化的相关信息资讯供网民参考!
  • 推荐文章