每次隔十几分钟后再分析一篇新的文章都很慢啊。都要几秒种。 接着再刷新一次分析一次就很快了0.003秒。 这是为什么。 我复制到官方的演示就很快。很不解。:huh: 官方是不是做了什么优化的? scws1.1.8
...目中禁止词是放在数据库里面(为了方便增删改),如果每次加载词典都要把禁止词写到临时文件,然后添加,觉得有点过于麻烦。是否可以提供添加单个或多个词的函数? [/quote] 现在没有这个需求了,因为我的非法词库里...
...清楚,我用的是PHP版的,是一个词典文件,生成两次XDB,每次里面的分格符不同,上面说的。 我还有就是刚才我试了,我用我自定义的词生成词典,用scws_set_dict添加我的词典后(词典中的word TF IDF 都很高的,记性我标记为@)...
500万条数据可以分段来读取,比如每次10000条,就不会出现上面的php错误了。判断是不是某条数据是不是已经存在了,可以根据主键来判断是不是已存在,存在的跳过就可以了。例如: [php]$query = "id:1753"; $docs = $xs->search->search($q...
... 实际数据为61084,但是写入到index的数据不确定 在调整每次读取数据的大小和缓冲区大小时有不同的情况 基本保持在58000以上..大概会有1k左右的误差。 求教原因
...成了UTF-8的编码了,显示出乱码了! 不管怎么去设置,每次打开,都成UTF8的,按理说,我的GBK编码的文件,浏览器里应该是也是GBK的,但是却成了UTF8的了 所以我认为分词不正确的,也许是这个问题,但是我不知道为什么会是...
...0GHz MemTotal: 3921076 kB 我是这样的环境配置,反正每次用不同的任意词搜索的时候,第一次搜索总是在10几秒,请各位大神帮我看看,可能是什么原因?谢谢了!~
...'116' dateline='1319506745'] 500万条数据可以分段来读取,比如每次10000条,就不会出现上面的php错误了。判断是不是某条数据是不是已经存在了,可以根据主键来判断是不是已存在,存在的跳过就可以了。例如: [php]$query = "id:1753"; ...
...用PHP进行调用,也可以设置读入内存? 如果可以的话,每次分词还要设置词典么? [/quote] 这个要的, 仅仅对当前的那个 scws handler 有效, PHP程序一结束资源全部释放了