<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    qileilove

    blog已經轉移至github,大家請訪問 http://qaseven.github.io/

    python實現簡單爬蟲功能

     在我們日常上網瀏覽網頁的時候,經常會看到一些好看的圖片,我們就希望把這些圖片保存下載,或者用戶用來做桌面壁紙,或者用來做設計的素材。

      我們最常規的做法就是通過鼠標右鍵,選擇另存為。但有些圖片鼠標右鍵的時候并沒有另存為選項,還有辦法就通過就是通過截圖工具截取下來,但這樣就降低圖片的清晰度。好吧~!其實你很厲害的,右鍵查看頁面源代碼。

      我們可以通過python 來實現這樣一個簡單的爬蟲功能,把我們想要的代碼爬取到本地。下面就看看如何使用python來實現這樣一個功能。

     

     

    一,獲取整個頁面數據

     

    首先我們可以先獲取要下載圖片的整個頁面信息。

    getjpg.py

    復制代碼
    #coding=utf-8 import urllib  def getHtml(url):     page = urllib.urlopen(url)     html = page.read()     return html  html = getHtml("http://tieba.baidu.com/p/2738151262")  print html
    復制代碼

      Urllib 模塊提供了讀取web頁面數據的接口,我們可以像讀取本地文件一樣讀取wwwftp上的數據。首先,我們定義了一個getHtml()函數:

      urllib.urlopen()方法用于打開一個URL地址。

      read()方法用于讀取URL上的數據,向getHtml()函數傳遞一個網址,并把整個頁面下載下來。執行程序就會把整個網頁打印輸出。

     

     

    二,篩選頁面中想要的數據

     

      Python 提供了非常強大的正則表達式,我們需要先要了解一點python 正則表達式的知識才行。

    http://www.cnblogs.com/fnng/archive/2013/05/20/3089816.html

     

    假如我們百度貼吧找到了幾張漂亮的壁紙,通過到前段查看工具。找到了圖片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”pic_ext=”jpeg”

    修改代碼如下:

    復制代碼
    import re import urllib  def getHtml(url):     page = urllib.urlopen(url)     html = page.read()     return html  def getImg(html):     reg = r'src="(.+?\.jpg)" pic_ext'     imgre = re.compile(reg)     imglist = re.findall(imgre,html)     return imglist           html = getHtml("http://tieba.baidu.com/p/2460150866") print getImg(html)
    復制代碼

      我們又創建了getImg()函數,用于在獲取的整個頁面中篩選需要的圖片連接。re模塊主要包含了正則表達式:

      re.compile() 可以把正則表達式編譯成一個正則表達式對象.

      re.findall() 方法讀取html 中包含 imgre(正則表達式)的數據。

        運行腳本將得到整個頁面中包含圖片的URL地址。

     

     

    三,將頁面篩選的數據保存到本地

     

    把篩選的圖片地址通過for循環遍歷并保存到本地,代碼如下:

     

    復制代碼
    #coding=utf-8 import urllib import re  def getHtml(url):     page = urllib.urlopen(url)     html = page.read()     return html  def getImg(html):     reg = r'src="(.+?\.jpg)" pic_ext'     imgre = re.compile(reg)     imglist = re.findall(imgre,html)     x = 0     for imgurl in imglist:         urllib.urlretrieve(imgurl,'%s.jpg' % x)         x+=1   html = getHtml("http://tieba.baidu.com/p/2460150866")  print getImg(html)
    復制代碼

     

      這里的核心是用到了urllib.urlretrieve()方法,直接將遠程數據下載到本地。

      通過一個for循環對獲取的圖片連接進行遍歷,為了使圖片的文件名看上去更規范,對其進行重命名,命名規則通過x變量加1。保存的位置默認為程序的存放目錄。

    程序運行完成,將在目錄下看到下載到本地的文件。

     

    分類: python

    posted on 2014-03-04 11:33 順其自然EVO 閱讀(229) 評論(0)  編輯  收藏 所屬分類: python

    <2025年5月>
    27282930123
    45678910
    11121314151617
    18192021222324
    25262728293031
    1234567

    導航

    統計

    常用鏈接

    留言簿(55)

    隨筆分類

    隨筆檔案

    文章分類

    文章檔案

    搜索

    最新評論

    閱讀排行榜

    評論排行榜

    主站蜘蛛池模板: 亚洲AV日韩AV天堂久久 | 日韩免费视频播播| 亚洲一区二区三区高清在线观看| 日韩国产免费一区二区三区| 亚洲精品伊人久久久久| 免费a级毛片18以上观看精品| a毛片在线看片免费| 久久亚洲春色中文字幕久久久| 成人毛片18女人毛片免费| 无码的免费不卡毛片视频| 黑人大战亚洲人精品一区| 亚欧人成精品免费观看| 亚洲AV无码成人精品区狼人影院| 国产美女亚洲精品久久久综合| 在线观看永久免费| 亚洲日韩在线中文字幕综合| 久久亚洲国产成人亚| 成年大片免费视频| 有色视频在线观看免费高清在线直播| 亚洲性猛交XXXX| 成人黄页网站免费观看大全| 成全高清在线观看免费| 亚洲AV日韩AV一区二区三曲| 久久国产亚洲精品无码| 亚洲成a人一区二区三区| 131美女爱做免费毛片| 九九视频高清视频免费观看| 亚洲一区二区三区在线网站| 亚洲成AV人在线观看天堂无码| 日本黄页网站免费| 131美女爱做免费毛片| 中文在线免费看视频| 亚洲日本va一区二区三区| 久久久久亚洲AV成人无码网站| 日本一道本高清免费| 黄色免费网站网址| 91在线视频免费观看| 在线精品自拍亚洲第一区| 亚洲中文字幕无码一去台湾| 久久精品国产亚洲AV无码娇色 | 免费看搞黄视频网站|