<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    使用Lucene進行全文檢索(二)---得到有效的內容

    scud(飛云小俠) http://www.jscud.com 轉載請注明來源/作者

    關鍵字:lucene,html parser,全文檢索,IndexReader,Document,Field,IndexWriter,Term,HTMLPAGE


      在使用lucene對相關內容進行索引時,會遇到各種格式的內容,例如Html,PDF,Word等等,那么我們如何從這么文檔中得到我們需要的內容哪?例如Html的內容,一般我們不需要對Html標簽建立索引,因為那不是我們需要搜索的內容.這個時候,我們就需要從Html內容中解析出我們所需要的內容.對于PDF,Word文檔,也是類似的要求.
     
      總之,我們只需要從內容中提取出我們需要的文本來建立索引,這樣用戶就能搜索到需要的內容,然后訪問對應的資源即可.

      Lucene本身帶的例子中有一個解析Html的代碼,不過不是純JAVA的,所以在網上我又找到了另外一個Html解析器,網址如下:http://htmlparser.sourceforge.net.
     
      對PDF解析的相關項目有很多,例如PDFBox.在PDFBox里面提出pdf的文本內容只需要一句話即可:  
      
       
    Document doc = LucenePDFDocument.getDocument( file );  

      
      當然如果需要更高級的設置,就要使用PDFBox中PDFTextStripper等類來實現更高級的操作了.
     
     
      對Word文檔解析的相關有POI,網址是 http://jakarta.apache.org/poi/.
     
      HtmlParser本身提供的功能很強大,我們下面主要來關注我們需要的功能.首先給出幾個函數如下:
     

     /**
     * 解析一個Html頁面,返回一個Html頁面類.
     *
     * @param resource 文件路徑或者網址
     */
        public static SearchHtmlPage parseHtmlPage(String resource)
        {
            String title = "";
            String body = "";
            try
            {
                Parser myParser = new Parser(resource);

                //設置編碼:根據實際情況修改
                myParser.setEncoding("GBK");

                HtmlPage visitor = new HtmlPage(myParser);

                myParser.visitAllNodesWith(visitor);

                title = visitor.getTitle();

                body = combineNodeText(visitor.getBody().toNodeArray());
            }
            catch (ParserException e)
            {
                LogMan.error("Parse Html Page " + resource + " Error!");
            }

            SearchHtmlPage result = new SearchHtmlPage(title, body);

            return result;
        }

        /**
         * 解析Html內容,得到普通文本和鏈接的內容.
         *
         * @param content 要解析的內容
         * @return 返回解析后的內容
         */
        public static String parseHtmlContent(String content)
        {
            Parser myParser;
            NodeList nodeList = null;

            myParser = Parser.createParser(content, "GBK");

            NodeFilter textFilter = new NodeClassFilter(TextNode.class);
            NodeFilter linkFilter = new NodeClassFilter(LinkTag.class);

            //暫時不處理 meta
            //NodeFilter metaFilter = new NodeClassFilter(MetaTag.class);

            OrFilter lastFilter = new OrFilter();
            lastFilter.setPredicates(new NodeFilter[] { textFilter, linkFilter });

            try
            {
                nodeList = myParser.parse(lastFilter);
            }
            catch (ParserException e)
            {
                LogMan.warn("Parse Content Error", e);
            }

            //中場退出了
            if (null == nodeList)
            {
                return "";
            }

            Node[] nodes = nodeList.toNodeArray();

            String result = combineNodeText(nodes);
            return result;
        }

     //合并節點的有效內容
        private static String combineNodeText(Node[] nodes)
        {
            StringBuffer result = new StringBuffer();

            for (int i = 0; i < nodes.length; i++)
            {
                Node anode = (Node) nodes[i];

                String line = "";
                if (anode instanceof TextNode)
                {
                    TextNode textnode = (TextNode) anode;
                    //line = textnode.toPlainTextString().trim();
                    line = textnode.getText();
                }
                else if (anode instanceof LinkTag)
                {
                    LinkTag linknode = (LinkTag) anode;

                    line = linknode.getLink();
                    //過濾jsp標簽
                    line = StringFunc.replace(line, "<%.*%>", "");
                }

                if (StringFunc.isTrimEmpty(line)) continue;

                result.append(" ").append(line);
            }

            return result.toString();
        }


      
      其中SearchHtmlPage類是表示一個Html頁面的模型,包含標題和內容,代碼如下:
      
     package com.jscud.www.support.search;
     
     /**
      * 搜索時解析Html后返回的頁面模型.
      *
      * @author scud(飛云小俠) http://www.jscud.com
      * 
      */
     public class SearchHtmlPage
     {
         /**標題*/
         private String title;
     
         /**內容*/
         private String body;
        
         public SearchHtmlPage(String title, String body)
         {
             this.title = title;
             this.body = body;
         }
        
         public String getBody()
         {
             return body;
         }
     
         public void setBody(String body)
         {
             this.body = body;
         }
     
         public String getTitle()
         {
             return title;
         }
     
         public void setTitle(String title)
         {
             this.title = title;
         }
     }
     


     
      當然,使用HtmlParser解析Html資源還有很多其他的方法,可以設置很多的條件來滿足用戶的解析要求,用戶可以閱讀其他的文章或者HtmlParser的文檔來了解,在此不多介紹.
     
      下一節講解如何進行搜索.

     

    posted on 2005-08-12 17:33 Scud(飛云小俠) 閱讀(829) 評論(0)  編輯  收藏 所屬分類: Java

    <2005年8月>
    31123456
    78910111213
    14151617181920
    21222324252627
    28293031123
    45678910

    導航

    統計

    公告

    文章發布許可
    創造共用協議:署名,非商業,保持一致

    我的郵件
    cnscud # gmail


    常用鏈接

    留言簿(15)

    隨筆分類(113)

    隨筆檔案(103)

    相冊

    友情鏈接

    技術網站

    搜索

    積分與排名

    最新評論

    閱讀排行榜

    評論排行榜

    主站蜘蛛池模板: 亚洲成aⅴ人片久青草影院| 成人精品综合免费视频| 久久久久免费精品国产小说| 免费观看国产小粉嫩喷水| 67194在线午夜亚洲| 男人的好免费观看在线视频| 亚洲校园春色小说| 亚洲天堂一区在线| 91老湿机福利免费体验| 亚洲成a人片在线观看中文动漫 | 日韩va亚洲va欧洲va国产| 国产一级在线免费观看| 亚洲中文字幕日产乱码高清app| 久久国产一片免费观看| 亚洲精品高清国产一线久久| 亚洲VA中文字幕无码毛片| 亚洲成av人无码亚洲成av人| 国产成人在线免费观看| 久久久久亚洲AV无码专区首| 久久国产乱子伦精品免费不卡| 亚洲韩国—中文字幕| 99爱在线精品免费观看| 亚洲av日韩av永久在线观看| 亚洲福利精品电影在线观看| 色www永久免费网站| 亚洲福利一区二区三区| 久久国产精品一区免费下载| 亚洲国产美女精品久久久久| 午夜一级毛片免费视频| ww在线观视频免费观看w| 亚洲av无码潮喷在线观看| 免费电视剧在线观看| 免费国产a理论片| 亚洲人成电影在在线观看网色| 成年女人18级毛片毛片免费 | 国产v亚洲v天堂a无| 亚洲第一页综合图片自拍| 久久免费的精品国产V∧| 亚洲国产精品18久久久久久| 亚洲精品中文字幕乱码三区| 久久精品免费一区二区喷潮|