-
Notifications
You must be signed in to change notification settings - Fork 2.3k
获得jar包
shiyuan edited this page Sep 14, 2016
·
7 revisions
#下载jar包
可以从 http://maven.ansj.org/org/ansj/ 或http://maven.nlpcn.org下载你需要的jar包
- 让分词运行需要两个jar,分别是 tree_split 和 ansj_seg 的jar 。建议每次下载保证这两个jar是最新的。
- 然后将jar导入到classpath中。应该不用多说了吧。你懂的
#用maven导入
- 第一步在你的pom.xml中加入.
<project...>
....
<repositories>
<repository>
<id>mvn-repo</id>
<url>http://maven.ansj.org/</url>
</repository>
</repositories>
....
</project>
- 在dependencies标签中粘贴如下:(其实version 以最新的为标准.)
<dependencies>
....
<dependency>
<groupId>org.ansj</groupId>
<artifactId>ansj_seg</artifactId>
<classifier>min</classifier> <!--如果是需要nlp方式分词,就去掉这个标签-->
<version>1.4</version>
</dependency>
....
</dependencies>
- jar的编译版本是jdk1.6 。
这两个jar的区别,标准版本。比简洁版本。大的多的多。标准版一般是40m左右。简洁版大约是4m左右。
标准版提供了NlpAnalysis 方式。也就是具有更加的新词发现以及新词识别的能力。
但是为了部署成本。以及内存耗费。如果不是用来作自然语言处理的童鞋。建议用简洁版本。绿色环保。