相关电影天堂迅雷在线观看的扩展:
谁能提供一个高清免费电影网站,,不带卡的
电影 / 最新电影_电影天堂-迅雷电影下载
http://www.dy2018.net/html/gndy/dyzz/index.html
高清MV
http://gaoqing.tv/other/
迅播影院 - 迅雷看看|迅播电影|GVOD资源|GVOD电影|迅雷电影下载
http://www.gvodb.com/
迅播影院-Gvod Player-Gvod电影-迅雷电影下载
http://xunbo.cc/
最新电影_最新电视剧_好看的电影_冰冰影院
http://rbb.cc/
高清在线 - hdool.com(高清电影-高清电视剧-高清MV-高清视频-最新电影)
http://www.hdool.com/
免费电影,在线电影—Gvod电影-蝌蚪影视—www.kedouba.com
http://www.kedouba.com/
影像公社_GVOD迅播高清影视_免费在线观看
http://hd.83gs.cn/
GVOD电视剧-迅播高清电视剧在线观看
http://gvoddsj.com/
Python爬虫框架:scrapy爬取迅雷电影天堂最新电影ed2k
项目开始
第一步仍然是创建scrapy项目与spider文件
切换到工作目录两条命令依次输入
scrapy startproject xunleidianyingscrapy genspider xunleiBT https://www.xl720.com/thunder/years/2019
内容分析
打开目标网站(分类是2019年上映的电影),分析我们需要的数据
进入页面是列表的形式就像豆瓣电影一样,然后我们点进去具体页面看看
这个页面就是我们需要拿到的内容页面,我们来看我们需要哪些数据(某些数据从第一个页面就可以获得,但是下载地址必须到第二个页面)
电影名称电影信息电影内容剧情电影下载地址分析完成之后就可以首先编写 items.py文件
import scrapy'''更多Python学习资料以及源码教程资料,可以在群821460695 免费获取'''class XunleidianyingItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() name = scrapy.Field() information = scrapy.Field() content = scrapy.Field() downloadurl = scrapy.Field() pass
另外别忘了去settings.py中开启 ITEM_PIPELINES 选项
爬虫文件编写
老样子,为了方便测试我们的爬虫,首先编写一个main.py的文件方便IDE调用
main.py:
import scrapy.cmdlinescrapy.cmdline.execute('scrapy crawl xunleiBT'.split())
首先我们先测试直接向目标发送请求是否可以得到响应
爬虫文件 xunleiBT.py编写如下:
# -*- coding: utf-8 -*-import scrapyclass XunleibtSpider(scrapy.Spider): name = 'xunleiBT' allowed_domains = ['https://www.xl720.com/thunder/years/2019'] start_urls = ['https://www.xl720.com/thunder/years/2019/'] def parse(self, response): print(response.text) pass
运行 main.py 看看会出现什么
好的,发现直接返回正常的网页也就是我们要的网页,说明该网站没有反爬机制,这样我们就更容易爬取了
然后通过xpath定位页面元素,具体就不再赘述,之前的scarpy教程中都有 继续编写爬虫文件
import scrapy#导入编写的 itemfrom xunleidianying.items import XunleidianyingItem'''更多Python学习资料以及源码教程资料,可以在群821460695 免费获取'''class XunleibtSpider(scrapy.Spider): name = 'xunleiBT' allowed_domains = ['www.xl720.com'] start_urls = ['https://www.xl720.com/thunder/years/2019/'] def parse(self, response): url_list = response.xpath('//h3//@href').getall() for url in url_list: yield scrapy.Request(url,callback=self.detail_page) nextpage_link = response.xpath('//a[@class=\"nextpostslink\"]/@href').get() if nextpage_link: yield scrapy.Request(nextpage_link, callback=self.parse) def detail_page(self,response): # 切记item带括号 BT_item = XunleidianyingItem() BT_item['name'] = response.xpath('//h1/text()').get() BT_item['information'] = ''.join(response.xpath('//div[@id=\"info\"]//text()').getall()) BT_item['content'] = response.xpath('//div[@id=\"link-report\"]/text()').get() BT_item['downloadurl'] = response.xpath('//div[@class=\"download-link\"]/a/text() | //div[@class=\"download-link\"]/a/@href').getall() yield BT_item
ITEM爬取完成后该干什么?当然是入库保存了,编写pipelines.py文件进行入库保存
再次提醒别忘了去settings.py中开启 ITEM_PIPELINES 选项
pipelines.py文件代码如下:
import pymongo#连接本地数据库myclient = pymongo.MongoClient(\"mongodb://localhost:27017/\")#数据库名称mydb = myclient[\"movie_BT\"]#数据表名称mysheet = mydb[\"movie\"]'''更多Python学习资料以及源码教程资料,可以在群821460695 免费获取'''class XunleidianyingPipeline(object): def process_item(self, item, spider): data = dict(item) mysheet.insert(data) return item
再次运行main.py 等待运行完成后打开数据库查询
数据保存完成,这次我们一共导入了380个数据,可以愉快的查看电影了
今天电影天堂迅雷在线观看的内容先分享到这里了,读完本文后,是否找到相关电影天堂迅雷在线观看的答案,想了解更多,请关注yfnsxy.cn聚上美世界奇闻怪事网站。【版权声明】:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请联系首页【QQ秒回】 举报,一经查实,本站将立刻删除。 转载请说明来源于"聚上美",本文地址:https://yfnsxy.cn/shjw/49439.html