python feapder编写爬虫和数据解析
- 更新时间:2021-08-03 09:12:31
- 编辑:魏萦思
本站精选了一篇相关的编程文章,网友桓于娜根据主题投稿了本篇教程内容,涉及到Python相关内容,已被288网友关注,内容中涉及的知识点可以在下方直接下载获取。
参考资料
- 《给Python点颜色:青少年学编程》配套资源 配套资源 / 237.78 MB / 佘友军 推荐度:
- Python测试驱动开发(第2版) PDF 电子书 / 12.4 MB / 哈利·帕西瓦尔 推荐度:
- Python源码剖析 PDF 电子书 / 29.1 MB / 陈儒 推荐度:
- 精通Python网络爬虫:核心技术、框架与项目实战 PDF 电子书 / 13267 MB M / 韦玮 推荐度:
- 从芯片到云端:Python物联网全栈开发实践 PDF 电子书 / 214 MB / 刘凯 推荐度:
正文内容
我们整理一篇关于《python feapder编写爬虫和数据解析》技术文章,好东西应该跟大家分享,把代码做了调试发布出来,为了大家阅读方便。
1、首先,让MysqlDB初始化数据库。
from feapder.db.mysqldb import MysqlDB class TophubSpider(feapder.AirSpider): def __init__(self, *args, **kwargs): super().__init__(*args, **kwargs) self.db = MysqlDB()
2、在start_requests方法中,指定爬取主链接地址,使用关键词download_midware配置。
import feapder from fake_useragent import UserAgent def start_requests(self): yield feapder.Request("https://tophub.today/", download_midware=self.download_midware) def download_midware(self, request): # 随机UA # 依赖:pip3 install fake_useragent ua = UserAgent().random request.headers = {'User-Agent': ua} return request
3、抓取主页标题和链接地址。
使用内置方法xpath分析数据。
def parse(self, request, response): # print(response.text) card_elements = response.xpath('//div[@class="cc-cd"]') # 过滤出对应的卡片元素【什么值得买】 buy_good_element = [card_element for card_element in card_elements if card_element.xpath('.//div[@class="cc-cd-is"]//span/text()').extract_first() == '什么值得买'][0] # 获取内部文章标题及地址 a_elements = buy_good_element.xpath('.//div[@class="cc-cd-cb nano"]//a') for a_element in a_elements: # 标题和链接 title = a_element.xpath('.//span[@class="t"]/text()').extract_first() href = a_element.xpath('.//@href').extract_first() # 再次下发新任务,并带上文章标题 yield feapder.Request(href, download_midware=self.download_midware, callback=self.parser_detail_page, title=title)
以上就是python feapder编写爬虫和数据解析的方法,希望对大家有所帮助。
相关教程
-
python里pop是什么意思
pop() 函数用于移除列表中的一个元素(默认最后一个元素),并且返回该元素的值。它的语法是list.pop(obj=list[-1]),参数是obj -- 可选参数,要移除列表元素的对象。
发布时间:2019-06-26
-
python2.7+selenium2实现淘宝滑块自动认证功能
这篇文章主要为大家详细介绍了python2.7+selenium2实现淘宝滑块自动认证功能,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
发布时间:2019-08-26