...还有,MYISAM内置的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万左右的数据用内置的match .. against ... 效果还是可以接受的。
1年多前,我用的是xungle,当时感觉用着不错,主要是搜索速度快。后来由于hdwiki升级,而xungle对新版本的支持不太好。就一直没有用全文搜索,用的还是hdwiki自带的搜索(当然,流量有限) 上周末看了下xunsearch的教程,然后下...
...还有,MYISAM内置的全文也只是一个简单的解决方案,最终效果可能也不是非常好,根据以前的测试50万左右的数据用内置的match .. against ... 效果还是可以接受的。 [/quote] 还会对取出的结果集再进行分析一次, 冗余字段是什...
...5万篇文章,约900万个词(是分好的词不是字)。 检索效果还不错,如果纯单词进行检索效果相当好。长句略慢。。。。 [url=http://www.dot66.net/search2.php]http://www.dot66.net/search2.php[/url] 2. 自动分类,这个是一个智能学习的分...
...好了。此外,我看到了你默认搜索的是 2年内,所以可能效果上采用了 value compare (addRange)的所以效率比较慢。建议直接对时间字段建立年份索引 以下为示范代码 $doc->addTerm('time', date('Y', $chrono)); 这样搜索的时候可以默认搜索当...
...积分,是官方默认的,必须加,木有办法,抱歉了! 效果: 每次增删改数据的时候,自动更新索引。 日志效果: @@@@@@@@@@@@@@ 2012-11-30 07:41:01 本次更新1条记录,详情如下:@@@@@@@@@@@@ 2012-11-30 07:41:01 update(ps:这里可能是add,...
...配怎么做?之前好像也有人发过贴,就是类似mysql like的效果,但是没有回复。 我自己曾尝试过几个做法,但都失败了 1. 利用xs自带的scws,这个英文明显是根据空格分词的,所以达不到效果 2. 自己写的一元/二元分词器,某...
为什么我对一串utf-8编码的中文分词,竟得到了下面的效果(只是单纯得到每个字) 我在程序里已经设置了编码方式 scws_set_charset(s, "utf-8"); [attach]124[/attach]