<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    JAVA—咖啡館

    ——歡迎訪問rogerfan的博客,常來《JAVA——咖啡館》坐坐,喝杯濃香的咖啡,彼此探討一下JAVA技術(shù),交流工作經(jīng)驗,分享JAVA帶來的快樂!本網(wǎng)站部分轉(zhuǎn)載文章,如果有版權(quán)問題請與我聯(lián)系。

    BlogJava 首頁 新隨筆 聯(lián)系 聚合 管理
      447 Posts :: 145 Stories :: 368 Comments :: 0 Trackbacks

    支持英文、數(shù)字、中文(簡體)混合分詞
    常用的數(shù)量和人名的匹配
    超過22萬詞的詞庫整理
    實現(xiàn)正向最大匹配算法

    //采用正向最大匹配的中文分詞算法,相當(dāng)于分詞粒度等于0
    MMAnalyzer analyzer = new MMAnalyzer();

    //參數(shù)為分詞粒度:當(dāng)字數(shù)等于或超過該參數(shù),且能成詞,該詞就被切分出來
    MMAnalyzer analyzer = new MMAnalyzer(2);


    //增加一個新詞典,采用每行一個詞的讀取方式
    MMAnalyzer.addDictionary(reader);

    //增加一個新詞
    MMAnalyzer.addWord(newWord);


     

    //刪除詞庫中的全部詞語(注意:非常危險的操作,在沒有加載新的詞庫前所有的分詞都將失效)
    MMAnalyzer.clear();

    //詞庫中是否包含該詞
    MMAnalyzer.contains(String word);

    //從詞庫中移除該詞
    MMAnalyzer.removeWord(String word);

    //當(dāng)前詞庫中包含的詞語總數(shù)
    MMAnalyzer.size();


    view plaincopy to clipboardprint?
    package demo.analysis;   
     
    import java.io.IOException;   
     
    import jeasy.analysis.MMAnalyzer;   
     
    public class Segment   
    {   
     
    public static void main(String[] args)   
    {   
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"   
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"   
    + "20000余人受傷,近20萬人無家可歸。";   
     
    MMAnalyzer analyzer = new MMAnalyzer();   
    try   
    {   
    System.out.println(analyzer.segment(text, " | "));   
    }   
    catch (IOException e)   
    {   
    e.printStackTrace();   
    }   
    }   
    }  
    package demo.analysis;

    import java.io.IOException;

    import jeasy.analysis.MMAnalyzer;

    public class Segment
    {

    public static void main(String[] args)
    {
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"
    + "20000余人受傷,近20萬人無家可歸。";

    MMAnalyzer analyzer = new MMAnalyzer();
    try
    {
    System.out.println(analyzer.segment(text, " | "));
    }
    catch (IOException e)
    {
    e.printStackTrace();
    }
    }

    生成效果:

    據(jù) | 路透社 | 報道 | 印度尼西亞 | 社會 | 事務(wù) | 部 | 官員 | 星期二 | 29日 | 表示 | 日惹 | 市 | 附近 | 當(dāng)?shù)貢r間 | 27日

    | 晨 | 5時 | 53分 | 發(fā)生 | 里氏 | 6.2級 | 地震 | 已經(jīng) | 造成 | 至少 | 5427人 | 死亡 | 20000 | 余人 | 受傷 | 近 | 20萬人 | 無家可歸 |


    view plaincopy to clipboardprint?
    package demo.analysis;   
     
    import jeasy.analysis.MMAnalyzer;   
     
    import org.apache.lucene.analysis.Analyzer;   
    import org.apache.lucene.document.Document;   
    import org.apache.lucene.document.Field;   
    import org.apache.lucene.index.IndexWriter;   
    import org.apache.lucene.queryParser.QueryParser;   
    import org.apache.lucene.search.Hits;   
    import org.apache.lucene.search.IndexSearcher;   
    import org.apache.lucene.search.Query;   
    import org.apache.lucene.store.Directory;   
    import org.apache.lucene.store.RAMDirectory;   
     
    public class Segment   
    {   
     
    public static void main(String[] args)   
    {   
    String fieldName = "text";   
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"   
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"   
    + "20000余人受傷,近20萬人無家可歸。"; //檢索內(nèi)容   
     
    //采用正向最大匹配的中文分詞算法   
    Analyzer analyzer = new MMAnalyzer();   
     
    Directory directory = new RAMDirectory();   
    //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);   
     
    try   
    {   
    IndexWriter iwriter = new IndexWriter(directory, analyzer, true);   
    iwriter.setMaxFieldLength(25000);   
    Document doc = new Document();   
    doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));   
    iwriter.addDocument(doc);   
    iwriter.close();   
     
    IndexSearcher isearcher = new IndexSearcher(directory);   
    QueryParser parser = new QueryParser(fieldName, analyzer);   
    Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞   
    Hits hits = isearcher.search(query);   
    System.out.println("命中:" + hits.length());   
     
    for (int i = 0; i < hits.length(); i++)   
    {   
    Document hitDoc = hits.doc(i);   
    System.out.println("內(nèi)容:" + hitDoc.get(fieldName));   
    }   
     
    isearcher.close();   
    directory.close();   
    }   
    catch (Exception e)   
    {   
    e.printStackTrace();   
    }   
    }   
     
    }  
    package demo.analysis;

    import jeasy.analysis.MMAnalyzer;

    import org.apache.lucene.analysis.Analyzer;
    import org.apache.lucene.document.Document;
    import org.apache.lucene.document.Field;
    import org.apache.lucene.index.IndexWriter;
    import org.apache.lucene.queryParser.QueryParser;
    import org.apache.lucene.search.Hits;
    import org.apache.lucene.search.IndexSearcher;
    import org.apache.lucene.search.Query;
    import org.apache.lucene.store.Directory;
    import org.apache.lucene.store.RAMDirectory;

    public class Segment
    {

    public static void main(String[] args)
    {
    String fieldName = "text";
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"
    + "20000余人受傷,近20萬人無家可歸。"; //檢索內(nèi)容

    //采用正向最大匹配的中文分詞算法
    Analyzer analyzer = new MMAnalyzer();

    Directory directory = new RAMDirectory();
    //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);

    try
    {
    IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
    iwriter.setMaxFieldLength(25000);
    Document doc = new Document();
    doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));
    iwriter.addDocument(doc);
    iwriter.close();

    IndexSearcher isearcher = new IndexSearcher(directory);
    QueryParser parser = new QueryParser(fieldName, analyzer);
    Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞
    Hits hits = isearcher.search(query);
    System.out.println("命中:" + hits.length());

    for (int i = 0; i < hits.length(); i++)
    {
    Document hitDoc = hits.doc(i);
    System.out.println("內(nèi)容:" + hitDoc.get(fieldName));
    }

    isearcher.close();
    directory.close();
    }
    catch (Exception e)
    {
    e.printStackTrace();
    }
    }

    生成效果:

    命中:1
    內(nèi)容:據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生

    的里氏6.2級地震已經(jīng)造成至少5427人死亡,20000余人受傷,近20萬人無家可歸。


    view plaincopy to clipboardprint?
    package demo.analysis;   
     
    import jeasy.analysis.MMAnalyzer;   
     
    import org.apache.lucene.analysis.Analyzer;   
    import org.apache.lucene.analysis.TokenStream;   
    import org.apache.lucene.document.Document;   
    import org.apache.lucene.document.Field;   
    import org.apache.lucene.index.IndexReader;   
    import org.apache.lucene.index.IndexWriter;   
    import org.apache.lucene.index.TermPositionVector;   
    import org.apache.lucene.queryParser.QueryParser;   
    import org.apache.lucene.search.Hits;   
    import org.apache.lucene.search.IndexSearcher;   
    import org.apache.lucene.search.Query;   
    import org.apache.lucene.search.highlight.Highlighter;   
    import org.apache.lucene.search.highlight.QueryScorer;   
    import org.apache.lucene.search.highlight.TokenSources;   
    import org.apache.lucene.store.Directory;   
    import org.apache.lucene.store.RAMDirectory;   
     
    public class Segment   
    {   
     
    public static void main(String[] args)   
    {   
    String fieldName = "text";   
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"   
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"   
    + "20000余人受傷,近20萬人無家可歸。"; //檢索內(nèi)容   
     
    //采用正向最大匹配的中文分詞算法   
    Analyzer analyzer = new MMAnalyzer();   
     
    Directory directory = new RAMDirectory();   
    //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);   
     
    try   
    {   
    IndexWriter iwriter = new IndexWriter(directory, analyzer, true);   
    iwriter.setMaxFieldLength(25000);   
    Document doc = new Document();   
    doc.add(new Field(fieldName, text, Field.Store.YES,   
    Field.Index.TOKENIZED,   
    Field.TermVector.WITH_POSITIONS_OFFSETS));   
    iwriter.addDocument(doc);   
    iwriter.close();   
     
    IndexSearcher isearcher = new IndexSearcher(directory);   
    QueryParser parser = new QueryParser(fieldName, analyzer);   
    Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞   
    Hits hits = isearcher.search(query);   
    System.out.println("命中:" + hits.length());   
     
    Highlighter highlighter = new Highlighter(new QueryScorer(query));   
    for (int i = 0; i < hits.length(); i++)   
    {   
    text = hits.doc(i).get(fieldName);   
    TermPositionVector tpv = (TermPositionVector) IndexReader.open(   
    directory).getTermFreqVector(hits.id(i), fieldName);   
    TokenStream tokenStream = TokenSources.getTokenStream(tpv);   
    String result = highlighter.getBestFragments(tokenStream, text, 3, "...");   
    System.out.println("內(nèi)容:" + result);   
    }   
     
    isearcher.close();   
    directory.close();   
    }   
    catch (Exception e)   
    {   
    e.printStackTrace();   
    }   
    }   
     
    }  
    package demo.analysis;

    import jeasy.analysis.MMAnalyzer;

    import org.apache.lucene.analysis.Analyzer;
    import org.apache.lucene.analysis.TokenStream;
    import org.apache.lucene.document.Document;
    import org.apache.lucene.document.Field;
    import org.apache.lucene.index.IndexReader;
    import org.apache.lucene.index.IndexWriter;
    import org.apache.lucene.index.TermPositionVector;
    import org.apache.lucene.queryParser.QueryParser;
    import org.apache.lucene.search.Hits;
    import org.apache.lucene.search.IndexSearcher;
    import org.apache.lucene.search.Query;
    import org.apache.lucene.search.highlight.Highlighter;
    import org.apache.lucene.search.highlight.QueryScorer;
    import org.apache.lucene.search.highlight.TokenSources;
    import org.apache.lucene.store.Directory;
    import org.apache.lucene.store.RAMDirectory;

    public class Segment
    {

    public static void main(String[] args)
    {
    String fieldName = "text";
    String text = "據(jù)路透社報道,印度尼西亞社會事務(wù)部一官員星期二(29日)表示,"
    + "日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的里氏6.2級地震已經(jīng)造成至少5427人死亡,"
    + "20000余人受傷,近20萬人無家可歸。"; //檢索內(nèi)容

    //采用正向最大匹配的中文分詞算法
    Analyzer analyzer = new MMAnalyzer();

    Directory directory = new RAMDirectory();
    //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);

    try
    {
    IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
    iwriter.setMaxFieldLength(25000);
    Document doc = new Document();
    doc.add(new Field(fieldName, text, Field.Store.YES,
    Field.Index.TOKENIZED,
    Field.TermVector.WITH_POSITIONS_OFFSETS));
    iwriter.addDocument(doc);
    iwriter.close();

    IndexSearcher isearcher = new IndexSearcher(directory);
    QueryParser parser = new QueryParser(fieldName, analyzer);
    Query query = parser.parse("印度尼西亞 6.2級地震");//檢索詞
    Hits hits = isearcher.search(query);
    System.out.println("命中:" + hits.length());

    Highlighter highlighter = new Highlighter(new QueryScorer(query));
    for (int i = 0; i < hits.length(); i++)
    {
    text = hits.doc(i).get(fieldName);
    TermPositionVector tpv = (TermPositionVector) IndexReader.open(
    directory).getTermFreqVector(hits.id(i), fieldName);
    TokenStream tokenStream = TokenSources.getTokenStream(tpv);
    String result = highlighter.getBestFragments(tokenStream, text, 3, "...");
    System.out.println("內(nèi)容:" + result);
    }

    isearcher.close();
    directory.close();
    }
    catch (Exception e)
    {
    e.printStackTrace();
    }
    }

    }
     
    生成效果:

    命中:1
    內(nèi)容:據(jù)路透社報道,<B>印度尼西亞</B>社會事務(wù)部一官員星期二(29日)表示,日惹市附近當(dāng)?shù)貢r間27日晨5時53分發(fā)生的

    里氏<B>6.2級</B><B>地震</B>已經(jīng)造成至少5427人死亡,20000余人受傷,近20萬人無家可歸


    本文來自CSDN博客,轉(zhuǎn)載請標明出處:http://blog.csdn.net/Java2King/archive/2010/01/08/5155878.aspx

     

    本文來自CSDN博客,轉(zhuǎn)載請標明出處:http://blog.csdn.net/xiaoping8411/archive/2010/03/30/5435134.aspx

    posted on 2010-06-21 10:10 rogerfan 閱讀(3004) 評論(0)  編輯  收藏 所屬分類: 【開源技術(shù)】
    主站蜘蛛池模板: 亚洲成a人在线看天堂无码| 本免费AV无码专区一区| 亚洲AV天天做在线观看| 免费一级做a爰片性色毛片| 午夜福利不卡片在线播放免费| 国产免费午夜a无码v视频| 97在线视频免费播放| 污污污视频在线免费观看| 亚洲欧美黑人猛交群| 亚洲av无码一区二区三区天堂古代| 国产精品无码免费播放| 99精品视频在线免费观看| 中文字幕在线免费看线人| 又大又硬又粗又黄的视频免费看| 亚洲日韩精品无码专区网址| 国产精品免费看久久久无码| 国产一精品一AV一免费孕妇| 日本免费一区二区三区四区五六区| 亚洲中文字幕一二三四区| 久久久久亚洲精品天堂| 亚洲AV无码成人精品区蜜桃| 国产日韩亚洲大尺度高清| 亚洲人成影院在线无码按摩店| 麻豆最新国产剧情AV原创免费 | 国产高潮流白浆喷水免费A片 | 国产亚洲一区二区手机在线观看 | 亚洲精品中文字幕乱码三区| 亚洲AV无码乱码在线观看性色扶| 日本人成在线视频免费播放| 中文字幕永久免费| 亚欧国产一级在线免费| igao激情在线视频免费| 91福利免费网站在线观看| 韩日电影在线播放免费版| 成全视频在线观看免费| 久久综合九色综合97免费下载| 国产亚洲一卡2卡3卡4卡新区| 久久国产精品亚洲一区二区| 亚洲AV成人片色在线观看 | 亚洲av无码专区青青草原| 久久精品国产亚洲av品善|