<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    qileilove

    blog已經轉移至github,大家請訪問 http://qaseven.github.io/

    python實現簡單爬蟲功能

     在我們日常上網瀏覽網頁的時候,經常會看到一些好看的圖片,我們就希望把這些圖片保存下載,或者用戶用來做桌面壁紙,或者用來做設計的素材。

      我們最常規的做法就是通過鼠標右鍵,選擇另存為。但有些圖片鼠標右鍵的時候并沒有另存為選項,還有辦法就通過就是通過截圖工具截取下來,但這樣就降低圖片的清晰度。好吧~!其實你很厲害的,右鍵查看頁面源代碼。

      我們可以通過python 來實現這樣一個簡單的爬蟲功能,把我們想要的代碼爬取到本地。下面就看看如何使用python來實現這樣一個功能。

     

     

    一,獲取整個頁面數據

     

    首先我們可以先獲取要下載圖片的整個頁面信息。

    getjpg.py

    復制代碼
    #coding=utf-8 import urllib  def getHtml(url):     page = urllib.urlopen(url)     html = page.read()     return html  html = getHtml("http://tieba.baidu.com/p/2738151262")  print html
    復制代碼

      Urllib 模塊提供了讀取web頁面數據的接口,我們可以像讀取本地文件一樣讀取wwwftp上的數據。首先,我們定義了一個getHtml()函數:

      urllib.urlopen()方法用于打開一個URL地址。

      read()方法用于讀取URL上的數據,向getHtml()函數傳遞一個網址,并把整個頁面下載下來。執行程序就會把整個網頁打印輸出。

     

     

    二,篩選頁面中想要的數據

     

      Python 提供了非常強大的正則表達式,我們需要先要了解一點python 正則表達式的知識才行。

    http://www.cnblogs.com/fnng/archive/2013/05/20/3089816.html

     

    假如我們百度貼吧找到了幾張漂亮的壁紙,通過到前段查看工具。找到了圖片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”pic_ext=”jpeg”

    修改代碼如下:

    復制代碼
    import re import urllib  def getHtml(url):     page = urllib.urlopen(url)     html = page.read()     return html  def getImg(html):     reg = r'src="(.+?\.jpg)" pic_ext'     imgre = re.compile(reg)     imglist = re.findall(imgre,html)     return imglist           html = getHtml("http://tieba.baidu.com/p/2460150866") print getImg(html)
    復制代碼

      我們又創建了getImg()函數,用于在獲取的整個頁面中篩選需要的圖片連接。re模塊主要包含了正則表達式:

      re.compile() 可以把正則表達式編譯成一個正則表達式對象.

      re.findall() 方法讀取html 中包含 imgre(正則表達式)的數據。

        運行腳本將得到整個頁面中包含圖片的URL地址。

     

     

    三,將頁面篩選的數據保存到本地

     

    把篩選的圖片地址通過for循環遍歷并保存到本地,代碼如下:

     

    復制代碼
    #coding=utf-8 import urllib import re  def getHtml(url):     page = urllib.urlopen(url)     html = page.read()     return html  def getImg(html):     reg = r'src="(.+?\.jpg)" pic_ext'     imgre = re.compile(reg)     imglist = re.findall(imgre,html)     x = 0     for imgurl in imglist:         urllib.urlretrieve(imgurl,'%s.jpg' % x)         x+=1   html = getHtml("http://tieba.baidu.com/p/2460150866")  print getImg(html)
    復制代碼

     

      這里的核心是用到了urllib.urlretrieve()方法,直接將遠程數據下載到本地。

      通過一個for循環對獲取的圖片連接進行遍歷,為了使圖片的文件名看上去更規范,對其進行重命名,命名規則通過x變量加1。保存的位置默認為程序的存放目錄。

    程序運行完成,將在目錄下看到下載到本地的文件。

     

    分類: python

    posted on 2014-03-04 11:33 順其自然EVO 閱讀(228) 評論(0)  編輯  收藏 所屬分類: python

    <2025年5月>
    27282930123
    45678910
    11121314151617
    18192021222324
    25262728293031
    1234567

    導航

    統計

    常用鏈接

    留言簿(55)

    隨筆分類

    隨筆檔案

    文章分類

    文章檔案

    搜索

    最新評論

    閱讀排行榜

    評論排行榜

    主站蜘蛛池模板: 午夜dj在线观看免费视频| 国产99视频精品免费专区| 国产传媒在线观看视频免费观看| 亚洲第一二三四区| 久久久久久精品免费看SSS| 亚洲天堂在线播放| 亚洲AV无码一区二区三区牛牛| 久久精品免费一区二区| 亚洲人妖女同在线播放| 在线观看免费大黄网站| 亚洲成a∨人片在无码2023| 免费国内精品久久久久影院| 国产亚洲Av综合人人澡精品| 亚洲成a人一区二区三区| 精品国产免费人成网站| 国产亚洲av片在线观看播放| 日韩av无码久久精品免费| 亚洲成人网在线播放| 大香人蕉免费视频75| 成人久久久观看免费毛片| 亚洲精品你懂的在线观看| 91免费国产精品| 亚洲一卡2卡3卡4卡乱码 在线| 国产极品美女高潮抽搐免费网站| 九一在线完整视频免费观看| 久久精品国产精品亚洲精品 | 一级做a爰片久久毛片免费看| 综合亚洲伊人午夜网| 久久青草精品38国产免费| 久久狠狠爱亚洲综合影院| 国产成人精品123区免费视频| 久草免费福利在线| 亚洲国产视频网站| 免费成人午夜视频| 亚洲一区免费观看| 久久精品国产亚洲AV天海翼 | 黄页网站免费观看| 皇色在线免费视频| 国产成人精品日本亚洲18图| 亚洲色欲久久久久综合网| 67194熟妇在线永久免费观看|