博客
关于我
新浪微博爬虫便携版
阅读量:161 次
发布时间:2019-02-27

本文共 1026 字,大约阅读时间需要 3 分钟。

需要调整的参数是新冠肺炎和page,返回一页的数据

import requestsimport pandas as pdimport jsonimport redef get_one_page():    one_page_data = []    params = {           'containerid': '100103type=60&q=新冠肺炎&t=0',        'page_type': 'searchall',        'page': 1    }    url = 'https://m.weibo.cn/api/container/getIndex'# 请求api    response = requests.get(url,params=params).text    cards = json.loads(response)['data']['cards']    for card in cards:        blog_data = card['mblog']        text = re.sub('<.*?>','',blog_data['text'])  # 文章内容        mid = blog_data['mid']  # 文章id        reposts_count = blog_data['reposts_count']  # 转发数        comments_count = blog_data['comments_count']  # 评论数        attitudes_count = blog_data['attitudes_count']  # 点赞数        data = [text,mid,reposts_count,comments_count,attitudes_count]        column = ['text','mid','reposts_count','comments_count','attitudes_count']        one_page_data.append(dict(zip(column,data)))    return one_page_dataif __name__ == '__main__':    data = get_one_page()    print(data)

转载地址:http://cwrf.baihongyu.com/

你可能感兴趣的文章
mysql 快速自增假数据, 新增假数据,mysql自增假数据
查看>>
MySql 手动执行主从备份
查看>>
Mysql 批量修改四种方式效率对比(一)
查看>>
mysql 批量插入
查看>>
Mysql 报错 Field 'id' doesn't have a default value
查看>>
MySQL 报错:Duplicate entry 'xxx' for key 'UNIQ_XXXX'
查看>>
Mysql 拼接多个字段作为查询条件查询方法
查看>>
mysql 排序id_mysql如何按特定id排序
查看>>
Mysql 提示:Communication link failure
查看>>
mysql 插入是否成功_PDO mysql:如何知道插入是否成功
查看>>
Mysql 数据库InnoDB存储引擎中主要组件的刷新清理条件:脏页、RedoLog重做日志、Insert Buffer或ChangeBuffer、Undo Log
查看>>
mysql 数据库中 count(*),count(1),count(列名)区别和效率问题
查看>>
mysql 数据库备份及ibdata1的瘦身
查看>>
MySQL 数据库备份种类以及常用备份工具汇总
查看>>
mysql 数据库存储引擎怎么选择?快来看看性能测试吧
查看>>
MySQL 数据库操作指南:学习如何使用 Python 进行增删改查操作
查看>>
MySQL 数据库的高可用性分析
查看>>
MySQL 数据库设计总结
查看>>
Mysql 数据库重置ID排序
查看>>
Mysql 数据类型一日期
查看>>