• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    asp.net c# 抓取頁面信息方法介紹

    來源:懂視網 責編:小采 時間:2020-11-27 22:42:09
    文檔

    asp.net c# 抓取頁面信息方法介紹

    asp.net c# 抓取頁面信息方法介紹:一:網頁更新 我們知道,一般網頁中的信息是不斷翻新的,這也要求我們定期的去抓這些新信息,但是這個定期該怎么理解,也就是多長時間需要抓一次該頁面,其實這個定期也就是頁面緩存時間,在頁面的緩存時間內我們再次抓取該網頁是沒有必要的,反而給人家
    推薦度:
    導讀asp.net c# 抓取頁面信息方法介紹:一:網頁更新 我們知道,一般網頁中的信息是不斷翻新的,這也要求我們定期的去抓這些新信息,但是這個定期該怎么理解,也就是多長時間需要抓一次該頁面,其實這個定期也就是頁面緩存時間,在頁面的緩存時間內我們再次抓取該網頁是沒有必要的,反而給人家

    一:網頁更新
    我們知道,一般網頁中的信息是不斷翻新的,這也要求我們定期的去抓這些新信息,但是這個“定期”該怎么理解,也就是多長時間需要抓一次該頁面,其實這個定期也就是頁面緩存時間,在頁面的緩存時間內我們再次抓取該網頁是沒有必要的,反而給人家服務器造成壓力。
    就比如說我要抓取博客園首頁,首先清空頁面緩存,

    從Last-Modified到Expires,我們可以看到,博客園的緩存時間是2分鐘,而且我還能看到當前的服務器時間Date,如果我再次

    刷新頁面的話,這里的Date將會變成下圖中 If-Modified-Since,然后發送給服務器,判斷瀏覽器的緩存有沒有過期?

    最后服務器發現If-Modified-Since >= Last-Modifined的時間,服務器也就返回304了,不過發現這cookie信息真是賊多啊 。

    在實際開發中,如果在知道網站緩存策略的情況下,我們可以讓爬蟲2min爬一次就好了,當然這些都是可以由數據團隊來配置維護了, 好了,下面我們用爬蟲模擬一下。
    代碼如下:
    using System;
    using System.Net;

    namespace ConsoleApplication2
    {
    public class Program
    {
    static void Main(string[] args)
    {
    DateTime prevDateTime = DateTime.MinValue;

    for (int i = 0; i < 10; i++)
    {
    try
    {
    var url = "http://cnblogs.com";

    var request = (HttpWebRequest)HttpWebRequest.Create(url);

    request.Method = "Head";

    if (i > 0)
    {
    request.IfModifiedSince = prevDateTime;
    }

    request.Timeout = 3000;

    var response = (HttpWebResponse)request.GetResponse();

    var code = response.StatusCode;

    //如果服務器返回狀態是200,則認為網頁已更新,記得當時的服務器時間
    if (code == HttpStatusCode.OK)
    {
    prevDateTime = Convert.ToDateTime(response.Headers[HttpResponseHeader.Date]);
    }

    Console.WriteLine("當前服務器的狀態碼:{0}", code);
    }
    catch (WebException ex)
    {
    if (ex.Response != null)
    {
    var code = (ex.Response as HttpWebResponse).StatusCode;

    Console.WriteLine("當前服務器的狀態碼:{0}", code);
    }
    }
    }
    }
    }
    }


    二:網頁編碼的問題

    有時候我們已經抓取到網頁了,準備去解析的時候,tmd的全部是亂碼,真是操蛋,比如下面這樣,

    或許我們依稀的記得在html的meta中有一個叫做charset的屬性,里面記錄的就是編碼方式,還有一個要點就是response.CharacterSet這個屬性中同樣也記錄了編碼方式,下面我們再來試試看。

    居然還是亂碼,蛋疼了,這次需要到官網上面去看一看,到底http頭信息里面都交互了些什么,憑什么瀏覽器能正常顯示,爬蟲爬過來的就不行。

    查看了http頭信息,終于我們知道了,瀏覽器說我可以解析gzip,deflate,sdch這三種壓縮方式,服務器發送的是gzip壓縮,到這里我們也應該知道了常用的web性能優化。
    代碼如下:
    using System;
    using System.Collections.Generic;
    using System.Linq;
    using System.Text;
    using System.Threading;
    using HtmlAgilityPack;
    using System.Text.RegularExpressions;
    using System.Net;
    using System.IO;
    using System.IO.Compression;

    namespace ConsoleApplication2
    {
    public class Program
    {
    static void Main(string[] args)
    {
    //var currentUrl = "http://www.mm5mm.com/";

    var currentUrl = "http://www.sohu.com/";

    var request = WebRequest.Create(currentUrl) as HttpWebRequest;

    var response = request.GetResponse() as HttpWebResponse;

    var encode = string.Empty;

    if (response.CharacterSet == "ISO-8859-1")
    encode = "gb2312";
    else
    encode = response.CharacterSet;

    Stream stream;

    if (response.ContentEncoding.ToLower() == "gzip")
    {
    stream = new GZipStream(response.GetResponseStream(), CompressionMode.Decompress);
    }
    else
    {
    stream = response.GetResponseStream();
    }

    var sr = new StreamReader(stream, Encoding.GetEncoding(encode));

    var html = sr.ReadToEnd();
    }
    }
    }


    三:網頁解析

    既然經過千辛萬苦拿到了網頁,下一個就要解析了,當然正則匹配是個好方法,畢竟工作量還是比較大的,可能業界也比較推崇 HtmlAgilityPack這個解析工具,能夠將Html解析成XML,然后可以用XPath去提取指定的內容,大大提高了開發速度,性能也不賴,畢竟Agility也就是敏捷的意思,關于XPath的內容,大家看懂W3CSchool的這兩張圖就OK了。

    代碼如下:
    using System;
    using System.Collections.Generic;
    using System.Linq;
    using System.Text;
    using System.Threading;
    using HtmlAgilityPack;
    using System.Text.RegularExpressions;
    using System.Net;
    using System.IO;
    using System.IO.Compression;

    namespace ConsoleApplication2
    {
    public class Program
    {
    static void Main(string[] args)
    {
    //var currentUrl = "http://www.mm5mm.com/";

    var currentUrl = "http://www.sohu.com/";

    var request = WebRequest.Create(currentUrl) as HttpWebRequest;

    var response = request.GetResponse() as HttpWebResponse;

    var encode = string.Empty;

    if (response.CharacterSet == "ISO-8859-1")
    encode = "gb2312";
    else
    encode = response.CharacterSet;

    Stream stream;

    if (response.ContentEncoding.ToLower() == "gzip")
    {
    stream = new GZipStream(response.GetResponseStream(), CompressionMode.Decompress);
    }
    else
    {
    stream = response.GetResponseStream();
    }

    var sr = new StreamReader(stream, Encoding.GetEncoding(encode));

    var html = sr.ReadToEnd();

    sr.Close();

    HtmlDocument document = new HtmlDocument();

    document.LoadHtml(html);

    //提取title
    var title = document.DocumentNode.SelectSingleNode("http://title").InnerText;

    //提取keywords
    var keywords = document.DocumentNode.SelectSingleNode("http://meta[@name='Keywords']").Attributes["content"].Value;
    }
    }
    }


    好了,打完收工,睡覺。。

    聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    asp.net c# 抓取頁面信息方法介紹

    asp.net c# 抓取頁面信息方法介紹:一:網頁更新 我們知道,一般網頁中的信息是不斷翻新的,這也要求我們定期的去抓這些新信息,但是這個定期該怎么理解,也就是多長時間需要抓一次該頁面,其實這個定期也就是頁面緩存時間,在頁面的緩存時間內我們再次抓取該網頁是沒有必要的,反而給人家
    推薦度:
    標簽: 方法 頁面 網頁
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 亚洲国产精品特色大片观看完整版 | 97国产视频精品| 中文字幕九七精品乱码| 国产成人精品一区二区三区| 国产成人精品日本亚洲网址| 亚洲精品无码高潮喷水在线| 久久99精品九九九久久婷婷| 亚洲第一精品在线视频| 国产精品www| 91精品国产高清91久久久久久| 少妇精品久久久一区二区三区| 香蕉依依精品视频在线播放 | 国产精品久久久久久| 精品午夜福利在线观看| 亚洲日韩国产精品第一页一区| 久久夜色撩人精品国产| 精品久久人人爽天天玩人人妻| 国产L精品国产亚洲区久久| 久久精品国产91久久麻豆自制 | 日本一卡精品视频免费| 一夲道无码人妻精品一区二区| 日韩亚洲精品福利 | 精品欧美一区二区三区久久久| 国产精品国产三级国产AⅤ| 99久久精品免费国产大片| 91精品免费久久久久久久久| 91久久精品国产91性色也| 欧美日激情日韩精品| 成人国产精品动漫欧美一区| 国产成人亚洲精品91专区手机| 国产成人高清精品免费观看| 国产精品美女网站在线观看| 隔壁老王国产在线精品| 国产91精品一区二区麻豆亚洲| 久久这里只精品国产99热| 永久免费精品视频| 国产成人精品综合久久久| 精品免费久久久久国产一区| 久久露脸国产精品| 一本一本久久aa综合精品| 日韩精品无码一区二区三区免费|