<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    IBMSOFT

    ibmsoft 努力不一定成功,放棄一定失敗! 堅持自己的理想,實現自己的目標! 有好的想法就要出想辦法實現!

    BlogJava 首頁 新隨筆 聯系 聚合 管理
      8 Posts :: 2 Stories :: 3 Comments :: 0 Trackbacks
    ?

    我這里講的不是怎么使用搜索引擎,而是怎么讓程序利用搜索引擎來搜集網址,這有什么用?很有用!網上動輒有人叫賣網址數據庫,如發布軟件網址、郵件地址、論壇網址、行業網址,這些網址是怎么來的呢?不可能是人手工收集而來的,都是讓程序利用搜索引擎取到的,如果您需要某類網址信息數據,就跟我來一起研究一下,非常簡單。

      本文采用Java語言寫成,以google和百度搜索引擎為對象。

      我們要利用google、百度搜索引擎的搜索規則中的兩條,關鍵字搜索和inurl搜索。什么是inurl搜索,就是你所要搜索的網址中本身帶有的關鍵字,比如http://www.xxx.com/post.asp ,這個網址就含有post.asp這樣的關鍵字,在搜索引擎中填寫規則是 inurl:post.asp,這是收集網址的關鍵,因為很多網址本身會帶有特定的信息,比如軟件發布的網頁網址信息中多含有 publish、submit、tuijian這樣的信息,如http://www.xxx.com/publish.asp,這樣的網址多是發布信息的網頁,在結合網頁中本身可能含有的關鍵字,就可以用搜索引擎搜索出結果,然后我們利用程序將結果取回,對HTML頁面進行分析,去除沒有用的信息,將有用的網址信息寫入文件或者數據庫,就可以給其它應用程序或者人來使用了。

      第一步,用程序將搜索結果取回,先以百度為例,比如我們要搜索軟件發布的網頁,關鍵字采用 “軟件發布 版本 inurl:publish.asp",先登錄百度看看,將關鍵字寫入,然后提交,在地址欄就會看到 http://www.baidu.com/s?ie=gb2312&bs=%C8%ED%BC%FE%B7%A2%B2%BC+%C8%ED%BC%FE%B0%E6%B1%BE+inurl%3Apublish.asp&sr=&z=&cl=3&f=8&wd=%C8%ED%BC%FE%B7%A2%B2%BC+%B0%E6%B1%BE+inurl%3Apublish.asp&ct=0 ,中文關鍵字全都變成編碼了,沒有關系,我們在程序中直接用中文也是可以的,其中多個關鍵字用+號相連,去掉一些沒有用的信息,我們可以把地址優化成 http://www.baidu.com/s?lm=0&si=&rn=20&ie=gb2312&ct=0& wd=軟件發布+版本+inurl%3Apublish%2Easp&pn=0&cl=0,其中rn表示一頁顯示多少個結果,wd=表示你要搜索的關鍵字,pn表示從第幾條開始顯示,這個pn將是我們程序循環取結果的變量,每20條循環一次。我們用Java寫的程序來模擬這個搜索的過程,用到的關鍵類為 java.net.HttpURLConnection,java.net.URL,先寫一個提交搜索的class,關鍵代碼如下:

    class Search
    {
     public URL url;
     public HttpURLConnection http;
     public java.io.InputStream urlstream;
     ......
     for(int i=0;i++;i <100)
     {
      ......
      try {
       url = new URL("www.baidu.com/s?lm=0&si=&rn=20&ie=gb2312&ct=0& wd=軟件發布+版本+inurl%3Apublish%2Easp&pn="+beginrecord+"&cl=0");
      }catch(Exception ef){};
      try {
       http = (HttpURLConnection) url.openConnection();
       http.connect();
       urlstream = http.getInputStream();
      }catch(Exception ef){};
      java.io.BufferedReader l_reader = new java.io.
      BufferedReader(new java.io.InputStreamReader(urlstream));
      try {
       while ((currentLine = l_reader.readLine()) != null) {
        totalstring += currentLine;
       }
      } catch (IOException ex3) {}
      ....
      //本次搜索的結果已經放到totalstring中了,是一些HTML代碼,需要下一步進行分析了。
    }
      再以google為例,稍微有些不同,google對瀏覽器進行了一些檢測,編碼也不同,URL為http: //www.google.com/search?q=軟件發布+版本+inurl:publish.asp&hl=zh-CN&lr= &newwindow=1&start=0&sa=N&ie=UTF-8,其中編碼要用ie=UTF-8,start表示從第幾條記錄顯示,需要注意的是google對瀏覽器還要檢查,如果瀏覽器不符合它的要求,將返回錯誤代碼,所以在模擬瀏覽器提交中,我們要多加一行代碼,修改關鍵部分要將http屬性中的User-Agent設置為常用的瀏覽器,比如Mozilla/4.0,代碼如下:

    try {
     http = (HttpURLConnection) url.openConnection();
     http.setRequestProperty("User-Agent", "Mozilla/4.0");
     http.connect();
     urlstream = http.getInputStream();
    }catch(Exception ef){};

      第二步,對取回的HTML編碼進行分析,取出其中的有用網址信息,并寫入文件或者數據庫,由于這些搜索引擎都有網頁快照和相似網頁等網址信息混雜在HTML中,我們要將這些網址信息剔除掉,剔除的關鍵就是找出其中的規律,百度搜索引擎中的網頁快照和其它沒有用的的地址都含有baidu這個關鍵字,而google中含有的無用網址信息含有關鍵字 google和cache,我們就根據這些關鍵字剔除無用網址信息。在Java中要對字符串進行分析必然要用到 java.util.StringTokenize這個類,用來將字符串以特定的分隔符分開,java.util.regex.Pattern和 java.util.regex.Matcher用來匹配字符串,關鍵代碼如下:

    class CompareStr
    {
     public boolean comparestring(String oristring,String tostring)
     {
      Pattern p=null; //正則表達式
      Matcher m=null; //操作的字符串
      boolean b;
      p = Pattern.compile(oristring,Pattern.CASE_INSENSITIVE);
      m = p.matcher(tostring);
      b = m.find();
      return b;
     }
    }

    class AnalyUrl
    {
     ......
     StringTokenizer token = new StringTokenizer(totalstring," <> \"");
     String firstword;
     CompareStrcompstr = new CompareStr();
     String dsturl = null;
     while (token.hasMoreTokens())
     {
      firstword = token.nextToken();
      if (!compstr.comparestring("google.com", firstword) && !compstr.comparestring("cache",firstword))
      {
       if (firstword.length() > 7)
       {
        dsturl = firstword.substring(6,firstword.length() - 1);
        WriteUrl(dsturl); //成功取到URL,記錄到文件中
       }
      }
     }
    }
      通過以上程序,我們就可以收集到自己要的網址信息了,還可以再寫另外一個應用程序,對收集到的網址信息進一步分析,取出自己需要的信息,這里就不再累贅,道理都是一樣的。最后需說明一點,google搜索引擎搜索所能返回的結果不能超過1000條,過了1000條,就直接提示“對不起, Google 為所有查詢的結果數都不會超過 1000 個。”,百度搜索引擎返回的結果不能超過700多條,所以我們要搜索時盡可能多加關鍵字,將結果范圍縮小。

    posted on 2006-06-14 19:50 ibmsoft 閱讀(772) 評論(1)  編輯  收藏

    Feedback

    # re: Java實現利用搜索引擎收集網址的程序 2006-06-19 14:27 javaPlayer
    好!!!!!!!!!!!!!!!!  回復  更多評論
      


    只有注冊用戶登錄后才能發表評論。


    網站導航:
     
    主站蜘蛛池模板: 黑人大战亚洲人精品一区| 最近2019免费中文字幕视频三| 18禁亚洲深夜福利人口| 亚洲老熟女五十路老熟女bbw| 亚洲AV成人一区二区三区在线看 | 日本视频一区在线观看免费| 99re免费视频| 四虎成年永久免费网站| 日本成年免费网站| 成人免费看吃奶视频网站| 成年女人永久免费观看片| 国产一级大片免费看| 亚洲精品人成无码中文毛片| 中文字幕精品无码亚洲字| 亚洲国产精品成人精品无码区在线| 亚洲成AV人片在线观看ww| 久久久无码精品亚洲日韩按摩| 久久久久亚洲AV无码麻豆| ass亚洲**毛茸茸pics| 亚洲国产精品嫩草影院| 免费看内射乌克兰女| 国产精品免费久久| 久久精品乱子伦免费| 成人免费毛片内射美女APP| 国产yw855.c免费视频| 最新精品亚洲成a人在线观看| 亚洲AV无码1区2区久久| 亚洲一区在线观看视频| 春暖花开亚洲性无区一区二区| fc2成年免费共享视频18| 色猫咪免费人成网站在线观看| 四虎在线最新永久免费| 日本二区免费一片黄2019| 综合久久久久久中文字幕亚洲国产国产综合一区首 | jzzijzzij在线观看亚洲熟妇| xxxx日本在线播放免费不卡| 国产精品视频白浆免费视频| 无码中文在线二区免费| 亚洲天堂在线视频| 亚洲国产午夜精品理论片| 最新亚洲人成网站在线观看|