• <fieldset id="8imwq"><menu id="8imwq"></menu></fieldset>
  • <bdo id="8imwq"><input id="8imwq"></input></bdo>
    最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
    問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
    當前位置: 首頁 - 科技 - 知識百科 - 正文

    python爬取指定url的ICP備案信息

    來源:懂視網 責編:小采 時間:2020-11-27 14:28:26
    文檔

    python爬取指定url的ICP備案信息

    python爬取指定url的ICP備案信息:#coding=gbk import os import sys import re import time import urllib2 def perror_and_exit(message, status = -1): sys.stderr.write(message + '\n') sys.exit(status) def get_text_from_html_tag(html): pattern_text = re.compile(r
    推薦度:
    導讀python爬取指定url的ICP備案信息:#coding=gbk import os import sys import re import time import urllib2 def perror_and_exit(message, status = -1): sys.stderr.write(message + '\n') sys.exit(status) def get_text_from_html_tag(html): pattern_text = re.compile(r

    #coding=gbk 
    import os
    import sys
    import re
    import time
    import urllib2
     
    def perror_and_exit(message, status = -1):
     sys.stderr.write(message + '
    ')
     sys.exit(status)
     
    def get_text_from_html_tag(html):
     pattern_text = re.compile(r">.*? return pattern_text.findall(html)[0][1:-2].strip()
     
    def parse_alexa(url):
     url_alexa = "http://icp.alexa.cn/index.php?q=%s" % url
     print url_alexa
     #handle exception 
     times = 0
     while times < 5000: #等待有一定次數限制 
     try:
     alexa = urllib2.urlopen(url_alexa).read()
     
     pattern_table = re.compile(r".*?", re.DOTALL | re.MULTILINE)
     match_table = pattern_table.search(alexa)
     if not match_table:
     raise BaseException("No table in HTML")
     break
     except:
     print "try %s times:sleep %s seconds" % (times, 2**times)
     times += 1
     time.sleep(2**times)
     continue
     
     table = match_table.group()
     pattern_tr = re.compile(r".*?", re.DOTALL | re.MULTILINE)
     match_tr = pattern_tr.findall(table)
     if len(match_tr) != 2:
     perror_and_exit("table format is incorrect")
     
     icp_tr = match_tr[1]
     pattern_td = re.compile(r".*?", re.DOTALL | re.MULTILINE)
     match_td = pattern_td.findall(icp_tr)
     
     #print match_td 
     company_name = get_text_from_html_tag(match_td[1])
     company_properties = get_text_from_html_tag(match_td[2])
     company_icp = get_text_from_html_tag(match_td[3])
     company_icp = company_icp[company_icp.find(">") + 1:]
     company_website_name = get_text_from_html_tag(match_td[4])
     company_website_home_page = get_text_from_html_tag(match_td[5])
     company_website_home_page = company_website_home_page[company_website_home_page.rfind(">") + 1:]
     company_detail_url = get_text_from_html_tag(match_td[7])
     pattern_href = re.compile(r"href=".*?"", re.DOTALL | re.MULTILINE)
     match_href = pattern_href.findall(company_detail_url)
     if len(match_href) == 0:
     company_detail_url = ""
     else:
     company_detail_url = match_href[0][len("href=""):-1]
     return [url, company_name, company_properties, company_icp, company_website_name, company_website_home_page, company_detail_url]
     pass
     
    if __name__ == "__main__":
     fw = file("out.txt", "w")
     for url in sys.stdin:
     fw.write("	".join(parse_alexa(url)) + "
    ")
     
    #coding=gbk
    import os
    import sys
    import re
    import time
    import urllib2
     
    def perror_and_exit(message, status = -1):
     sys.stderr.write(message + '
    ')
     sys.exit(status)
     
    def get_text_from_html_tag(html):
     pattern_text = re.compile(r">.*? return pattern_text.findall(html)[0][1:-2].strip()
     
    def parse_alexa(url):
     url_alexa = "http://icp.alexa.cn/index.php?q=%s" % url
     print url_alexa
     #handle exception
     times = 0
     while times < 5000: #等待有一定次數限制
     try:
     alexa = urllib2.urlopen(url_alexa).read()
     
     pattern_table = re.compile(r".*?", re.DOTALL | re.MULTILINE)
     match_table = pattern_table.search(alexa)
     if not match_table:
     raise BaseException("No table in HTML")
     break
     except:
     print "try %s times:sleep %s seconds" % (times, 2**times)
     times += 1
     time.sleep(2**times)
     continue
     
     table = match_table.group()
     pattern_tr = re.compile(r".*?", re.DOTALL | re.MULTILINE)
     match_tr = pattern_tr.findall(table)
     if len(match_tr) != 2:
     perror_and_exit("table format is incorrect")
     
     icp_tr = match_tr[1]
     pattern_td = re.compile(r".*?", re.DOTALL | re.MULTILINE)
     match_td = pattern_td.findall(icp_tr)
     
     #print match_td
     company_name = get_text_from_html_tag(match_td[1])
     company_properties = get_text_from_html_tag(match_td[2])
     company_icp = get_text_from_html_tag(match_td[3])
     company_icp = company_icp[company_icp.find(">") + 1:]
     company_website_name = get_text_from_html_tag(match_td[4])
     company_website_home_page = get_text_from_html_tag(match_td[5])
     company_website_home_page = company_website_home_page[company_website_home_page.rfind(">") + 1:]
     company_detail_url = get_text_from_html_tag(match_td[7])
     pattern_href = re.compile(r"href=".*?"", re.DOTALL | re.MULTILINE)
     match_href = pattern_href.findall(company_detail_url)
     if len(match_href) == 0:
     company_detail_url = ""
     else:
     company_detail_url = match_href[0][len("href=""):-1]
     return [url, company_name, company_properties, company_icp, company_website_name, company_website_home_page, company_detail_url]
     pass
     
    if __name__ == "__main__":
     fw = file("out.txt", "w")
     for url in sys.stdin:
     fw.write("	".join(parse_alexa(url)) + "
    ")[python] view plaincopyprint? time.sleep(2)
     pass
     
     time.sleep(2)
     pass

    每次抓取都會sleep 2s,防止ip被封,實際上即使sleep了IP過一段時間還是會被封

    由于是結構化抓取,當網站格式變化此程序將無法使用

    聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    python爬取指定url的ICP備案信息

    python爬取指定url的ICP備案信息:#coding=gbk import os import sys import re import time import urllib2 def perror_and_exit(message, status = -1): sys.stderr.write(message + '\n') sys.exit(status) def get_text_from_html_tag(html): pattern_text = re.compile(r
    推薦度:
    標簽: 備案 指定的 python
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 久久久国产精品| 亚洲精品综合久久| 亚洲精品一级无码鲁丝片| 欧美精品免费线视频观看视频| 亚洲一日韩欧美中文字幕欧美日韩在线精品一区二 | 国产精品片在线观看手机版| 精品人妻久久久久久888| 日韩精品人妻av一区二区三区| 99熟女精品视频一区二区三区| 久久狠狠高潮亚洲精品| 无码精品第一页| 久久精品国产一区二区三区 | 久久精品一区二区三区中文字幕| 亚洲国产精品一区| 2022精品天堂在线视频| 精品视频无码一区二区三区| 亚洲AV永久无码精品| 午夜精品久久久久久| 国产这里有精品| 国产精品va久久久久久久| 欧美精品一区二区三区在线| 99久久成人国产精品免费 | 亚洲国产精品va在线播放| 蜜臀精品无码AV在线播放| 久久国产综合精品五月天| 国产精品美女久久久久av爽| 精品福利资源在线| 国产成人精品免费视频动漫| 成人区精品一区二区不卡| 国产精品无码A∨精品影院 | 亚洲精品无码久久久久去q| 亚洲A∨精品一区二区三区| 蜜臀久久99精品久久久久久| 惠民福利中文字幕人妻无码乱精品| AAA级久久久精品无码区| 成人精品一区二区三区电影黑人| 性色精品视频网站在线观看| 99RE8这里有精品热视频| 国产区精品福利在线观看精品 | 99熟女精品视频一区二区三区| 国产福利电影一区二区三区,亚洲国模精品一区 |