• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法

    來源:懂視網 責編:小采 時間:2020-11-27 22:29:17
    文檔

    Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法

    Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態html文件的實例繼續,在這篇文章中實現了采集與靜態文件的生成,在實際的采集項目中, 應該是先入庫再選擇性的生成靜態文件。 那么我選擇的數據庫是mongodb,為什么用這個數據庫,因為這個數據庫是基于集合,
    推薦度:
    導讀Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態html文件的實例繼續,在這篇文章中實現了采集與靜態文件的生成,在實際的采集項目中, 應該是先入庫再選擇性的生成靜態文件。 那么我選擇的數據庫是mongodb,為什么用這個數據庫,因為這個數據庫是基于集合,

    接著這篇文章Node.js+jade抓取博客所有文章生成靜態html文件的實例繼續,在這篇文章中實現了采集與靜態文件的生成,在實際的采集項目中, 應該是先入庫再選擇性的生成靜態文件。

    那么我選擇的數據庫是mongodb,為什么用這個數據庫,因為這個數據庫是基于集合,數據的操作基本是json,與dom模塊cheerio具有非常大的親和力,cheerio處理過濾出來的數據,可以直接插入mongodb,不需要經過任何的處理,非常的便捷,當然跟node.js的親和力那就不用說了,更重要的是,性能很棒。這篇文章我就不具體寫mongodb的基本用法,到時候會另起文章從0開始寫mongodb基本常用用法.先看下入庫的效果與生成靜態文件的效果:

    我在這個階段,把爬蟲分離成2個模塊,采集入庫( crawler.js ), 生成靜態文件(makeHtml.js).

    crawler.js:

    var http = require('http');
    var cheerio = require('cheerio');
    var mongoose = require('mongoose');
    mongoose.Promise = global.Promise;
    var DB_URL = 'mongodb://localhost:27017/crawler';
    
    var aList = []; //博客文章列表信息
    var aUrl = []; //博客所有的文章url
    
    var db = mongoose.createConnection(DB_URL);
    db.on('connected', function (err) {
     if (err) {
     console.log(err);
     } else {
     console.log('db connected success');
     }
    });
    var Schema = mongoose.Schema;
    var arcSchema = new Schema({
     id: Number, //文章id
     title: String, //文章標題
     url: String, //文章鏈接
     body: String, //文章內容
     entry: String, //摘要
     listTime: Date //發布時間
    });
    var Article = db.model('Article', arcSchema);
    
    function saveArticle(arcInfo) {
     var arcModel = new Article(arcInfo);
     arcModel.save(function (err, result) {
     if (err) {
     console.log(err);
     } else {
     console.log(`${arcInfo['title']} 插入成功`);
     }
     });
    }
    
    function filterArticle(html) {
     var $ = cheerio.load(html);
     var arcDetail = {};
     var title = $("#cb_post_title_url").text();
     var href = $("#cb_post_title_url").attr("href");
     var re = /\/(\d+)\.html/;
     var id = href.match(re)[1];
     var body = $("#cnblogs_post_body").html();
     return {
     id: id,
     title: title,
     url: href,
     body: body
     };
    }
    
    function crawlerArc(url) {
     var html = '';
     var str = '';
     var arcDetail = {};
     http.get(url, function (res) {
     res.on('data', function (chunk) {
     html += chunk;
     });
     res.on('end', function () {
     arcDetail = filterArticle(html);
     saveArticle(arcDetail);
     if ( aUrl.length ) {
     setTimeout(function () {
     if (aUrl.length) {
     crawlerArc(aUrl.shift());
     }
     }, 100);
     }else {
     console.log( '采集任務完成' );
     return;
     }
     });
     });
    }
    
    function filterHtml(html) {
     var $ = cheerio.load(html);
     var arcList = [];
     var aPost = $("#content").find(".post-list-item");
     aPost.each(function () {
     var ele = $(this);
     var title = ele.find("h2 a").text();
     var url = ele.find("h2 a").attr("href");
     ele.find(".c_b_p_desc a").remove();
     var entry = ele.find(".c_b_p_desc").text();
     ele.find("small a").remove();
     var listTime = ele.find("small").text();
     var re = /\d{4}-\d{2}-\d{2}\s*\d{2}[:]\d{2}/;
     listTime = listTime.match(re)[0];
    
     arcList.push({
     title: title,
     url: url,
     entry: entry,
     listTime: listTime
     });
     });
     return arcList;
    }
    
    function nextPage(html) {
     var $ = cheerio.load(html);
     var nextUrl = $("#pager a:last-child").attr('href');
     if (!nextUrl) return getArcUrl(aList);
     var curPage = $("#pager .current").text();
     if (!curPage) curPage = 1;
     var nextPage = nextUrl.substring(nextUrl.indexOf('=') + 1);
     if (curPage < nextPage) crawler(nextUrl);
    }
    
    function crawler(url) {
     http.get(url, function (res) {
     var html = '';
     res.on('data', function (chunk) {
     html += chunk;
     });
     res.on('end', function () {
     aList.push(filterHtml(html));
     nextPage(html);
     });
     });
    }
    
    function getArcUrl(arcList) {
     for (var key in arcList) {
     for (var k in arcList[key]) {
     aUrl.push(arcList[key][k]['url']);
     }
     }
     crawlerArc(aUrl.shift());
    }
    
    var url = 'http://www.cnblogs.com/ghostwu/';
    crawler(url);

    其他的核心模塊沒有怎么改動,主要增加了數據庫連接,數據庫創建,集合創建( 集合相當于關系型數據庫中的表 ),Schema( 相當于關系型數據庫的表結構 ).

    mongoose操作數據庫( save:插入數據 ).分離了文件生成模塊.

    makeHtml.js文件

    var fs = require('fs');
    var jade = require('jade');
    
    var mongoose = require('mongoose');
    mongoose.Promise = global.Promise;
    var DB_URL = 'mongodb://localhost:27017/crawler';
    
    var allArc = [];
    var count = 0;
    
    var db = mongoose.createConnection(DB_URL);
    db.on('connected', function (err) {
     if (err) {
     console.log(err);
     } else {
     console.log('db connected success');
     }
    });
    var Schema = mongoose.Schema;
    var arcSchema = new Schema({
     id: Number, //文章id
     title: String, //文章標題
     url: String, //文章鏈接
     body: String, //文章內容
     entry: String, //摘要
     listTime: Date //發布時間
    });
    var Article = db.model('Article', arcSchema);
    
    function makeHtml(arcDetail) {
     str = jade.renderFile('./views/layout.jade', arcDetail);
     ++count;
     fs.writeFile('./html/' + count + '.html', str, function (err) {
     if (err) {
     console.log(err);
     }
     console.log( `${arcDetail['id']}.html創建成功` + count );
     if ( allArc.length ){
     setTimeout( function(){
     makeHtml( allArc.shift() );
     }, 100 );
     }
     });
    }
    
    function getAllArc(){
     Article.find( {}, function( err, arcs ){
     allArc = arcs;
     makeHtml( allArc.shift() );
     } ).sort( { 'id' : 1 } );
    }
    getAllArc();

    以上這篇Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

    聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法

    Node.js+jade+mongodb+mongoose實現爬蟲分離入庫與生成靜態文件的方法:接著這篇文章Node.js+jade抓取博客所有文章生成靜態html文件的實例繼續,在這篇文章中實現了采集與靜態文件的生成,在實際的采集項目中, 應該是先入庫再選擇性的生成靜態文件。 那么我選擇的數據庫是mongodb,為什么用這個數據庫,因為這個數據庫是基于集合,
    推薦度:
    標簽: js 實現的 爬蟲
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 国产精品福利电影一区二区三区四区欧美白嫩精品| 国产精品无码无在线观看| 老司机69精品成免费视频| 亚洲欧洲久久久精品| 欧美日韩精品一区二区| 久久免费99精品国产自在现线| 国产色精品vr一区区三区| 国产欧美日韩精品专区| 久久久久成人精品无码中文字幕 | www.亚洲精品| 国产精品v欧美精品v日韩精品 | 精品久久人人妻人人做精品| 久久精品黄AA片一区二区三区| 国产精品天干天干在线综合| 国产精品丝袜一区二区三区 | 精品一区二区三区中文字幕| 91精品国产综合久久精品| 免费精品无码AV片在线观看| 亚洲国产精品成人一区| 一区二区三区四区精品视频| 久久国产精品久久久| 亚洲精品NV久久久久久久久久| 中文字幕亚洲综合精品一区| 精品国产午夜理论片不卡| 国产在线精品一区二区不卡| 亚洲国产精品国自产拍AV| 久夜色精品国产一区二区三区| 911亚洲精品国产自产| 99久久人妻无码精品系列 | 国产精品亚韩精品无码a在线| 中文精品久久久久人妻| 精品久久久久久无码中文字幕| 国产精品成人一区二区| 国产精品影音先锋| 国内精品久久久人妻中文字幕| 亚洲精品国产首次亮相| 亚洲&#228;v永久无码精品天堂久久 | 特级精品毛片免费观看| 日韩精品无码Av一区二区 | 国产精品无码无在线观看| 久久亚洲av无码精品浪潮|