我之前主键是 Article:12345 这样会记录越来越多 直接 12345 好像就不会了[hr] Article:12345 会重复 12345 不会 article:12345 (小写)也不会 ..这算是bug吗?不是说不区分大小写吗? [hr] 本地环境: OS X 10.9.2 (13C64)
这个问题已经提过了。。。暂无好办法,建议另行调用不加排序的 count() 因为概率估算的关系,你区间过滤+排序就导致概率失效
...龙大串烧,情人节好礼多多” “武松杀嫂雕塑是艺术,还是恶俗?大家怎么看的?” 没有加上rule.utf8.ini时,得到如下结果 情歌/n 接龙/n 大/a 串烧/v ,/un 情人节/t 好/a 礼/n 多多/z 武松/nr 杀/v 嫂/ng 雕塑/n 是/v 艺术/n ,/un 还是...
...php Indexer.php --flush -p /var/www/xunsearch/goods.ini 用过后队列数还是没有改变,索引还是没有增加进去,仿佛就在缓存队列中,然后我就把xs重启,队列数据变成0条了,然后我就$index->add($doc),对列数据又增加成一条,反复的$index->add($...
...hp Indexer.php --flush -p /var/www/xunsearch/goods.ini 用过后队列数还是没有改变,索引还是没有增加进去,仿佛就在缓存队列中,然后我就把xs重启,队列数据变成0条了,然后我就$index->add($doc),对列数据又增加成一条,反复的$index->add($...
...还行,差不多0.5秒一次。 这种情况下是按版面分库好还是按区块分库好?还是直接用测试版的智能分库比较好?另外帖子的时间分布比较长,有十一年,这种情况下限定默认的搜索时间范围(比如一年)能不能比较好地加快...
我的数字字段也是这样,哎,而且我还试了不管是数字类型的还是字串类型的数字都乱码,但是两个排序结果好像还不一样。。,另外我设置了内容字段的截取30字节,但是还是全部读出来了
...义词典 dict_user.txt 我在里面写了: 米兔车贴 1.0 1.0 ! 但还是被分了 还看到一个stopwords.txt的文件,但将米兔车贴放到里面了也还是会被分 。。。