我用分词的目的,主要是做黑词的筛查,所以不需要分页,也不需要缓存,如果想屏蔽缓存在哪做呢
发布时间:2011-12-25 01:12 t
By assad
我一直在关注您开发的分词,已经在很多项目中使用
突然发现您公布了开源搜索方案,很是惊讶,很感谢您的辛勤付出。
我想请教几个问题:
1.是否支持增量索引自动化。也就是自动把新数据加入索引。
2.是否支持join查询
中文分词!!!“千”单字当然搜索不到“千年”这个词
发布时间:2012-10-25 11:10 t
By benq81
我看楼主现在的搜索挺准确的啊,是自己加了分词吗?还是别的办法~
[quote='benq81' pid='1380' dateline='1351136388']
我看楼主现在的搜索挺准确的啊,是自己加了分词吗?还是别的办法~
[/quote]
当时给他建议后添加了自定义词汇,药到病除。。。
发布时间:2007-06-07 11:06 t
By 森然
期待C版简易中文分词-cscwsd-0.0.4发布
为什么我对一串utf-8编码的中文分词,竟得到了下面的效果(只是单纯得到每个字)
我在程序里已经设置了编码方式 scws_set_charset(s, "utf-8");
[attach]124[/attach]
发布时间:2007-12-28 09:12 t
By yorsun
能不能对utf8进行分词?
C版简易中文分词-cscwsd-0.0.3 安装很容易就成功了,但是这个pre版本却一直没有安装成功。继续努力中。