<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    使用Lucene進行全文檢索(二)---得到有效的內容

    scud(飛云小俠) http://www.jscud.com 轉載請注明來源/作者

    關鍵字:lucene,html parser,全文檢索,IndexReader,Document,Field,IndexWriter,Term,HTMLPAGE


      在使用lucene對相關內容進行索引時,會遇到各種格式的內容,例如Html,PDF,Word等等,那么我們如何從這么文檔中得到我們需要的內容哪?例如Html的內容,一般我們不需要對Html標簽建立索引,因為那不是我們需要搜索的內容.這個時候,我們就需要從Html內容中解析出我們所需要的內容.對于PDF,Word文檔,也是類似的要求.
     
      總之,我們只需要從內容中提取出我們需要的文本來建立索引,這樣用戶就能搜索到需要的內容,然后訪問對應的資源即可.

      Lucene本身帶的例子中有一個解析Html的代碼,不過不是純JAVA的,所以在網上我又找到了另外一個Html解析器,網址如下:http://htmlparser.sourceforge.net.
     
      對PDF解析的相關項目有很多,例如PDFBox.在PDFBox里面提出pdf的文本內容只需要一句話即可:  
      
       
    Document doc = LucenePDFDocument.getDocument( file );  

      
      當然如果需要更高級的設置,就要使用PDFBox中PDFTextStripper等類來實現更高級的操作了.
     
     
      對Word文檔解析的相關有POI,網址是 http://jakarta.apache.org/poi/.
     
      HtmlParser本身提供的功能很強大,我們下面主要來關注我們需要的功能.首先給出幾個函數如下:
     

     /**
     * 解析一個Html頁面,返回一個Html頁面類.
     *
     * @param resource 文件路徑或者網址
     */
        public static SearchHtmlPage parseHtmlPage(String resource)
        {
            String title = "";
            String body = "";
            try
            {
                Parser myParser = new Parser(resource);

                //設置編碼:根據實際情況修改
                myParser.setEncoding("GBK");

                HtmlPage visitor = new HtmlPage(myParser);

                myParser.visitAllNodesWith(visitor);

                title = visitor.getTitle();

                body = combineNodeText(visitor.getBody().toNodeArray());
            }
            catch (ParserException e)
            {
                LogMan.error("Parse Html Page " + resource + " Error!");
            }

            SearchHtmlPage result = new SearchHtmlPage(title, body);

            return result;
        }

        /**
         * 解析Html內容,得到普通文本和鏈接的內容.
         *
         * @param content 要解析的內容
         * @return 返回解析后的內容
         */
        public static String parseHtmlContent(String content)
        {
            Parser myParser;
            NodeList nodeList = null;

            myParser = Parser.createParser(content, "GBK");

            NodeFilter textFilter = new NodeClassFilter(TextNode.class);
            NodeFilter linkFilter = new NodeClassFilter(LinkTag.class);

            //暫時不處理 meta
            //NodeFilter metaFilter = new NodeClassFilter(MetaTag.class);

            OrFilter lastFilter = new OrFilter();
            lastFilter.setPredicates(new NodeFilter[] { textFilter, linkFilter });

            try
            {
                nodeList = myParser.parse(lastFilter);
            }
            catch (ParserException e)
            {
                LogMan.warn("Parse Content Error", e);
            }

            //中場退出了
            if (null == nodeList)
            {
                return "";
            }

            Node[] nodes = nodeList.toNodeArray();

            String result = combineNodeText(nodes);
            return result;
        }

     //合并節點的有效內容
        private static String combineNodeText(Node[] nodes)
        {
            StringBuffer result = new StringBuffer();

            for (int i = 0; i < nodes.length; i++)
            {
                Node anode = (Node) nodes[i];

                String line = "";
                if (anode instanceof TextNode)
                {
                    TextNode textnode = (TextNode) anode;
                    //line = textnode.toPlainTextString().trim();
                    line = textnode.getText();
                }
                else if (anode instanceof LinkTag)
                {
                    LinkTag linknode = (LinkTag) anode;

                    line = linknode.getLink();
                    //過濾jsp標簽
                    line = StringFunc.replace(line, "<%.*%>", "");
                }

                if (StringFunc.isTrimEmpty(line)) continue;

                result.append(" ").append(line);
            }

            return result.toString();
        }


      
      其中SearchHtmlPage類是表示一個Html頁面的模型,包含標題和內容,代碼如下:
      
     package com.jscud.www.support.search;
     
     /**
      * 搜索時解析Html后返回的頁面模型.
      *
      * @author scud(飛云小俠) http://www.jscud.com
      * 
      */
     public class SearchHtmlPage
     {
         /**標題*/
         private String title;
     
         /**內容*/
         private String body;
        
         public SearchHtmlPage(String title, String body)
         {
             this.title = title;
             this.body = body;
         }
        
         public String getBody()
         {
             return body;
         }
     
         public void setBody(String body)
         {
             this.body = body;
         }
     
         public String getTitle()
         {
             return title;
         }
     
         public void setTitle(String title)
         {
             this.title = title;
         }
     }
     


     
      當然,使用HtmlParser解析Html資源還有很多其他的方法,可以設置很多的條件來滿足用戶的解析要求,用戶可以閱讀其他的文章或者HtmlParser的文檔來了解,在此不多介紹.
     
      下一節講解如何進行搜索.

     

    posted on 2005-08-12 17:33 Scud(飛云小俠) 閱讀(822) 評論(0)  編輯  收藏 所屬分類: Java

    <2005年8月>
    31123456
    78910111213
    14151617181920
    21222324252627
    28293031123
    45678910

    導航

    統計

    公告

    文章發布許可
    創造共用協議:署名,非商業,保持一致

    我的郵件
    cnscud # gmail


    常用鏈接

    留言簿(15)

    隨筆分類(113)

    隨筆檔案(103)

    相冊

    友情鏈接

    技術網站

    搜索

    積分與排名

    最新評論

    閱讀排行榜

    評論排行榜

    主站蜘蛛池模板: 久久夜色精品国产噜噜亚洲a| 国产电影午夜成年免费视频| 99re视频精品全部免费| 久久久久亚洲AV成人片| 中文字幕在亚洲第一在线| 一级毛片免费观看不卡视频| 麻豆69堂免费视频| 亚洲日韩AV一区二区三区中文| 久久久久亚洲av无码专区| 国产亚洲3p无码一区二区| 亚洲成a人片在线观看国产| 毛片免费观看网站| 成人免费一级毛片在线播放视频 | 国产免费直播在线观看视频| av无码国产在线看免费网站| 国产成人精品无码免费看| 国产无遮挡裸体免费视频在线观看| 一区免费在线观看| 亚洲福利一区二区三区| 亚洲av丰满熟妇在线播放| 亚洲精品无码久久久影院相关影片 | 国产免费变态视频网址网站| 免费毛片在线视频| 免费激情视频网站| 日本一线a视频免费观看| a级毛片免费高清毛片视频| 一级毛片人与动免费观看| 一区二区三区免费精品视频| 一级毛片免费一级直接观看| 国产特黄特色的大片观看免费视频 | 免费专区丝袜脚调教视频| 一边摸一边桶一边脱免费视频| 美女视频黄a视频全免费网站色| 特级aaaaaaaaa毛片免费视频| 黄页网址大全免费观看12网站| 黄网站色视频免费看无下截| 人人爽人人爽人人片A免费| 乱爱性全过程免费视频| 免费看一区二区三区四区| 怡红院免费全部视频在线视频| 美女被cao网站免费看在线看|