好的,我试试,好使了再来反馈 之前我以为是win和linux换行符差异问题,把0D 0A统一替换成linux下0A,还是不好使。
程序里面调用set_rule("d:\rule.ini"); 但是就算用从网站下载的rule文件,也还是报“Failed to load the ruleset file”。 怎么回事?
如题 ,比如我在dict_user文件里添加abc10000,查看分词的时候,它还是会分成abc +10000,这样就达不到效果了、、、
需要增加一个新词“中国梦”。 使用的php XDB工具,增加词库后导入生成xdb文件。 重新生成coreseek的索引 索引的时候还是搜不出来这个词。 我确认使用的是utf-8 no-bom头的格式。 请问如何解决。谢谢
en 是当初写得不规范,新版在GIT中修正了。 很快就会发布 1.1.0 正式版了,修正了少量BUG,目前还是比较稳定的了。
但是我的服务器上还是用的1.1.0,半年前,自从我用了1.1.0之后,服务器内存溢出非常严重,几乎每天都Apache自动崩溃, 你觉得是1.1.0引起的吗,我确定我自己的代码没有死循环
... = "./"。 是不是应该改成extension_dir空白: extension_dir ="" 还是 extension_dir = "/usr/local/lib/php/extensions/no-debug-non-zts-20060613/" 而extension应该是scws.so 还是 /usr/local/lib/php/extensions/no-debug-non-zts-20060613/scws.so 问题2: 如何重启apache服务...
字段配置 [user_id] type = numeric index = self tokenizer = full 用 $search->addRange('user_id',1,20000)->..... 搜索 指定 用户id 范围的内容 addRange区间过滤不起作用 不知道是我配置问题 还是调用方式不对
这个分词系统虽说是简易的,但是我觉得还是过于强大了 譬如说像我们行业类网站,要分的词不多,屈指可数,也可能就几百个 如果能提供分词方法,和一个自己可以添加的词库就好了 呵呵 谢谢