搜索

大约有 53 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0068秒)

31.scws1.1.8为什么第一次都很慢。

发布时间:2011-10-22 21:10 t By ci169

每次隔十几分钟后再分析一篇新的文章都很慢啊。都要几秒种。 接着再刷新一次分析一次就很快了0.003秒。 这是为什么。 我复制到官方的演示就很快。很不解。:huh: 官方是不是做了什么优化的? scws1.1.8

32.RE: 有没有添加单个或多个词的函数?

发布时间:2010-08-02 11:08 t By backluck

...目中禁止词是放在数据库里面(为了方便增删改),如果每次加载词典都要把禁止词写到临时文件,然后添加,觉得有点过于麻烦。是否可以提供添加单个或多个词的函数? [/quote] 现在没有这个需求了,因为我的非法词库里...

33.RE: 自定义的 txt 字典 有关问题 求助

发布时间:2010-04-09 17:04 t By lerado

...清楚,我用的是PHP版的,是一个词典文件,生成两次XDB,每次里面的分格符不同,上面说的。 我还有就是刚才我试了,我用我自定义的词生成词典,用scws_set_dict添加我的词典后(词典中的word TF IDF 都很高的,记性我标记为@)...

34.RE: 索引到一大半的时候出错退出,有没有办法继续?

发布时间:2011-10-25 09:10 t By hpxl

500万条数据可以分段来读取,比如每次10000条,就不会出现上面的php错误了。判断是不是某条数据是不是已经存在了,可以根据主键来判断是不是已存在,存在的跳过就可以了。例如: [php]$query = "id:1753"; $docs = $xs->search->search($q...

35.建立索引不完整问题

发布时间:2012-03-14 16:03 t By 张十三

... 实际数据为61084,但是写入到index的数据不确定 在调整每次读取数据的大小和缓冲区大小时有不同的情况 基本保持在58000以上..大概会有1k左右的误差。 求教原因

36.RE: 实时加载字典,服务器严重吃不消,有没有办法?

发布时间:2009-08-03 23:08 t By askie

...用PHP进行调用,也可以设置读入内存? 如果可以的话,每次分词还要设置词典么?

37.RE: Hightman您好,我的分词怎么不对啊

更新时间:2010-08-19 15:08 t By assad

...成了UTF-8的编码了,显示出乱码了! 不管怎么去设置,每次打开,都成UTF8的,按理说,我的GBK编码的文件,浏览器里应该是也是GBK的,但是却成了UTF8的了 所以我认为分词不正确的,也许是这个问题,但是我不知道为什么会是...

38.我搜索真的很慢,求大神帮看看是什么问题

发布时间:2013-08-12 09:08 t By zhuaijay

...0GHz MemTotal: 3921076 kB 我是这样的环境配置,反正每次用不同的任意词搜索的时候,第一次搜索总是在10几秒,请各位大神帮我看看,可能是什么原因?谢谢了!~

39.RE: 索引到一大半的时候出错退出,有没有办法继续?

发布时间:2011-10-25 10:10 t By tisswb

...'116' dateline='1319506745'] 500万条数据可以分段来读取,比如每次10000条,就不会出现上面的php错误了。判断是不是某条数据是不是已经存在了,可以根据主键来判断是不是已存在,存在的跳过就可以了。例如: [php]$query = "id:1753"; ...

40.RE: 实时加载字典,服务器严重吃不消,有没有办法?

发布时间:2009-08-06 00:08 t By hightman

...用PHP进行调用,也可以设置读入内存? 如果可以的话,每次分词还要设置词典么? [/quote] 这个要的, 仅仅对当前的那个 scws handler 有效, PHP程序一结束资源全部释放了

  • 时间不限
  • 按相关性排序