百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分析 > 正文

使用python scrapy框架抓取cnblog 的文章内容

liebian365 2024-10-24 14:30 22 浏览 0 评论

scrapy 的文档请移驾到 http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/install.html

1、准备工作

安装python 、Spyder 、scrapy 如果想要数据直接入mysql 还需要安装python的 MySQLdb 依赖包

本人mac操作系统 安装MySQLdb的时候出现了些小问题 最后是重装了openssl 才通过的

Spyder 是编写python的ide

2、新建项目

cd /usr/local/var/www/python

执行 scrapy startproject myblog 则新建了一个名称为myblog 的项目,执行完成后 你的python文件夹就出现了myblog文件夹了

cnblog_spider.py 是后来我新建的 后缀.pyc 是执行python后的编译的文件 其他的都是执行创建项目后就自动生成的文件了

3、编写爬虫脚本 cnblog_spider.py

分析cnblog的网站 使用scrapy shell http://www.cnblogs.com/threemore/

使用google浏览器 找到你想要抓取的数据 话不多说 直接上代码,我抓取了cnblog文章的标题,链接 时间,文章的id,正文内容

# -*- coding: utf-8 -*-

from scrapy.spider import Spider
from scrapy.selector import Selector
from myblog.items import MyblogItem
import scrapy
import re
#SITE_URL = 'http://www.cnblogs.com/threemore/'


#抓取在cnblog中的文章
class CnblogSpider(Spider):
    #抓取名称 执行命令的时候后面的名称   scrapy crawl cnblog 中的cnblog 就是在这里定义的
    name ='cnblog'
    allow_domains = ["cnblogs.com"]
    
    
    #定义抓取的网址
    start_urls = [
        'http://www.cnblogs.com/threemore/'
    ]
    
    #执行函数
    def parse(self,response):
        sel = Selector(response)
        self.log("begins  % s" % response.url)
        article_list = sel.css('div.postTitle').xpath('a')
        
        #抓取列表里面的内容也地址后循环抓取列表的内容页面数据
        for article in article_list:
 url = article.xpath('@href').extract[0]
 self.log("list article url: % s" % url)
        
 #继续抓取内容页数据
 yield scrapy.Request(url,callback=self.parse_content)
 
        #如果有下一页继续抓取数据
        next_pages = sel.xpath('//*[@id="nav_next_page"]/a/@href')
        
        if next_pages :
 next_page = next_pages.extract[0]
 #print next_page
 self.log("next_page: % s" % next_page)
 #自己调用自己  类似php 函数的当中的递归
 yield scrapy.Request(next_page,callback=self.parse)
        
 
 
    #内容页抓取
    def parse_content(self,response):
        self.log("detail views: % s" % response.url)
        
        #定义好的item  只需要在items 文件中定义抓取过来的数据对应的字段
        item = MyblogItem
        
        #xpath 寻找需要在页面中抓取的数据
        item['link'] =  response.url  
    
        #正则匹配出文章在cnblog中的id
        m = re.search(r"([0-9])+", item['link'])
        if m:
 item['aid'] = m.group(0)
        else:
 item['aid'] = 0;
        item['title'] = response.xpath('//*[@id="cb_post_title_url"]/text').extract[0]
        item['content'] = response.xpath('//*[@id="cnblogs_post_body"]').extract[0]
        item['date'] = response.xpath('//*[@id="post-date"]').extract
        #print item['content']
        yield item

4、数据入库

编写管道程序pipelines.py,管道就是存储数据使用的 爬虫文件最后yield 的item 会将数据给到pipelines.py 这个文件

为了测试和正式环境的方便 我就配置了两份mysql的登陆信息

每次执行前 都将即将入库的数据表给清空了一次 防止重复采集 ,直接看代码

# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html

#需要在setting.py文件中设置ITEM_PIPELINES 将前面的注释打开配置成当前的文件即可
#当前的管道就是这么配置 'myblog.pipelines.MyblogPipeline': 300,


import MySQLdb,datetime


DEBUG = True

#定义测试环境和正式环境中的mysql  
if DEBUG:
    dbuser = 'root'
    dbpass = 'root'
    dbname = 'test'
    dbhost = '127.0.0.1'
    dbport = '3306'
else:
    dbuser = 'root'
    dbpass = 'root'
    dbname = 'test'
    dbhost = '127.0.0.1'
    dbport = '3306'

class MyblogPipeline(object):
    
    #初始化 链接数据库
    def __init__(self):
        
        self.conn = MySQLdb.connect(user=dbuser, passwd=dbpass, db=dbname, host=dbhost, charset="utf8", use_unicode=True)
    
        self.cursor = self.conn.cursor
    
        self.cursor.execute('truncate table test_cnbog')        
    
        self.conn.commit
    
    
    
    #执行sql语句 
    def process_item(self, item, spider):
        try:
 self.cursor.execute("""INSERT INTO test_cnbog (title, link, aid,content,date)  
 VALUES (%s,%s,%s,%s,%s)""", 
 (
 item['title'].encode('utf-8'), 
 item['link'].encode('utf-8'),
 item['aid'],
 item['content'].encode('utf-8'),
 datetime.datetime.now,
 )
 )
 self.conn.commit
        except MySQLdb.Error, e:
 
 print u'Error %d: $s' % (e.args[0],e.args[1])
        
        return item

5、配置setting.py

开启入库的配置

找到 ITEM_PIPELINES 将前面的注释去掉 看到代码上面的注释的链接了么 直接访问看下是干啥的就行了 官方网站上看实例好像是将数据写入到monge里面去了

本人对monge 不熟悉 直接放到mysql去了 大致意思就是说pipelines.py 这个文件就是讲你采集的数据存放在什么地方

# Configure item pipelines
# See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {
    'myblog.pipelines.MyblogPipeline': 300,
}

6、执行采集

在项目的文件夹下面执行 :scrapy crawl myblog

特意将crawl 拿百度翻译看了下 啥意思 原来就是“爬行”

最后展示下采集回来的数据

15条没有采集到数据 aid 程序就是拿正则随便处理了下

相关推荐

“版本末期”了?下周平衡补丁!国服最强5套牌!上分首选

明天,酒馆战棋就将迎来大更新,也聊了很多天战棋相关的内容了,趁此机会,给兄弟们穿插一篇构筑模式的卡组推荐!老规矩,我们先来看10职业胜率。目前10职业胜率排名与一周前基本类似,没有太多的变化。平衡补丁...

VS2017 C++ 程序报错“error C2065:“M_PI”: 未声明的标识符"

首先,程序中头文件的选择,要选择头文件,在文件中是没有对M_PI的定义的。选择:项目——>”XXX属性"——>配置属性——>C/C++——>预处理器——>预处理器定义,...

东营交警实名曝光一批酒驾人员名单 88人受处罚

齐鲁网·闪电新闻5月24日讯酒后驾驶是对自己和他人生命安全极不负责的行为,为守护大家的平安出行路,东营交警一直将酒驾作为重点打击对象。5月23日,东营交警公布最新一批饮酒、醉酒名单。对以下驾驶人醉酒...

Qt界面——搭配QCustomPlot(qt platform)

这是我第一个使用QCustomPlot控件的上位机,通过串口精确的5ms发送一次数据,再将读取的数据绘制到图表中。界面方面,尝试卡片式设计,外加QSS简单的配了个色。QCustomPlot官网:Qt...

大话西游2分享赢取种族坐骑手办!PK趣闻录由你书写

老友相聚,仗剑江湖!《大话西游2》2021全民PK季4月激燃打响,各PK玩法鏖战齐开,零门槛参与热情高涨。PK季期间,不仅各种玩法奖励丰厚,参与PK趣闻录活动,投稿自己在PK季遇到的趣事,还有机会带走...

测试谷歌VS Code AI 编程插件 Gemini Code Assist

用ClaudeSonnet3.7的天气测试编码,让谷歌VSCodeAI编程插件GeminiCodeAssist自动编程。生成的文件在浏览器中的效果如下:(附源代码)VSCode...

顾爷想知道第4.5期 国服便利性到底需优化啥?

前段时间DNF国服推出了名为“阿拉德B计划”的系列改版计划,截至目前我们已经看到了两项实装。不过关于便利性上,国服似乎还有很多路要走。自从顾爷回归DNF以来,几乎每天都在跟我抱怨关于DNF里面各种各样...

掌握Visual Studio项目配置【基础篇】

1.前言VisualStudio是Windows上最常用的C++集成开发环境之一,简称VS。VS功能十分强大,对应的,其配置系统较为复杂。不管是对于初学者还是有一定开发经验的开发者来说,捋清楚VS...

还嫌LED驱动设计套路深?那就来看看这篇文章吧

随着LED在各个领域的不同应用需求,LED驱动电路也在不断进步和发展。本文从LED的特性入手,推导出适合LED的电源驱动类型,再进一步介绍各类LED驱动设计。设计必读:LED四个关键特性特性一:非线...

Visual Studio Community 2022(VS2022)安装图文方法

直接上步骤:1,首先可以下载安装一个VisualStudio安装器,叫做VisualStudioinstaller。这个安装文件很小,很快就安装完成了。2,打开VisualStudioins...

Qt添加MSVC构建套件的方法(qt添加c++11)

前言有些时候,在Windows下因为某些需求需要使用MSVC编译器对程序进行编译,假设我们安装Qt的时候又只是安装了MingW构建套件,那么此时我们该如何给现有的Qt添加一个MSVC构建套件呢?本文以...

Qt为什么站稳c++GUI的top1(qt c)

为什么现在QT越来越成为c++界面编程的第一选择,从事QT编程多年,在这之前做C++界面都是基于MFC。当时为什么会从MFC转到QT?主要原因是MFC开发界面想做得好看一些十分困难,引用第三方基于MF...

qt开发IDE应该选择VS还是qt creator

如果一个公司选择了qt来开发自己的产品,在面临IDE的选择时会出现vs或者qtcreator,选择qt的IDE需要结合产品需求、部署平台、项目定位、程序猿本身和公司战略,因为大的软件产品需要明确IDE...

Qt 5.14.2超详细安装教程,不会来打我

Qt简介Qt(官方发音[kju:t],音同cute)是一个跨平台的C++开库,主要用来开发图形用户界面(GraphicalUserInterface,GUI)程序。Qt是纯C++开...

Cygwin配置与使用(四)——VI字体和颜色的配置

简介:VI的操作模式,基本上VI可以分为三种状态,分别是命令模式(commandmode)、插入模式(Insertmode)和底行模式(lastlinemode),各模式的功能区分如下:1)...

取消回复欢迎 发表评论: