B 站我想大家都熟悉吧,其实 B 站的爬虫网上一搜一大堆。不过 纸上得来终觉浅,绝知此事要躬行,我码故我在。最终爬取到数据总量为 760万 条。

砚山网站制作公司哪家好,找创新互联建站!从网页设计、网站建设、微信开发、APP开发、响应式网站建设等网站项目制作,到程序开发,运营维护。创新互联建站成立于2013年到现在10年的时间,我们拥有了丰富的建站经验和运维经验,来保证我们的工作的顺利进行。专注于网站建设就选创新互联建站。
准备工作
首先打开 B 站,随便在首页找一个视频点击进去。常规操作,打开开发者工具。这次是目标是通过爬取 B 站提供的 api 来获取视频信息,不去解析网页,解析网页的速度太慢了而且容易被封 ip。
勾选 JS 选项,F5 刷新
找到了 api 的地址
复制下来,去除没必要的内容,得到 https://api.bilibili.com/x/web-interface/archive/stat?aid=15906633 ,用浏览器打开,会得到如下的 json 数据
动手写码
好了,到这里代码就可以码起来了,通过 request 不断的迭代获取数据,为了让爬虫更高效,可以利用多线程。
核心代码
- result = []
 - req = requests.get(url, headers=headers, timeout=6).json()
 - time.sleep(0.6) # 延迟,避免太快 ip 被封
 - try:
 - data = req['data']
 - video = Video(
 - data['aid'], # 视频编号
 - data['view'], # 播放量
 - data['danmaku'], # 弹幕数
 - data['reply'], # 评论数
 - data['favorite'], # 收藏数
 - data['coin'], # 硬币数
 - data['share'] # 分享数
 - )
 - with lock:
 - result.append(video)
 - except:
 - pass
 
迭代爬取
- urls = ["http://api.bilibili.com/archive_stat/stat?aid={}".format(i)
 - for i in range(10000)]
 - with futures.ThreadPoolExecutor(32) as executor: # 多线程
 - executor.map(run, urls)
 
不要一次性爬取全部链接,我是利用两个进程,这样就是多进程+多线程了。一个进程一次大概爬取 50w 条数据。100w 条数据的话大概一个多小时吧。分多次爬取,分别将数据保存为不同的文件名,最后再汇总。
运行的效果大概是这样的,数字是已经已经爬取了多少条链接,其实完全可以在一天或者两天内就把全站信息爬完的。
至于爬取后要怎么处理就看自己爱好了,我是先保存为 csv 文件,然后再汇总插入到数据库。
汇总的 csv 文件
数据库表
由于这些内容是我在几个月前爬取的,所以数据其实有些滞后了。
数据总量
查询播放量前十的视频
查询回复量前十的视频
各种花样查询任君选择!!视频的链接为 https://www.bilibili.com/video/av + v_aid
详细代码请移步至 bili.py
对数据感兴趣的话可以邮箱联系我,可以打包赠与。
项目地址:chenjiandongx/bili-spider 欢迎围观 vfghjklp;]\78+
                当前题目:如何快速爬取B站全站视频信息
                
                本文路径:http://www.csdahua.cn/qtweb/news28/506478.html
            
网站建设、网络推广公司-快上网,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 快上网