搜索

大约有 14 项符合查询结果, 库内数据总量为 3,513 项。 (搜索耗时:0.0986秒)

1.如何压缩索引的空间。。。

发布时间:2013-03-29 18:03 t By cdlgdx

如何压缩索引的空间。。。

2.易联网络在这里祝大家身体健康 万事如意

发布时间:2008-04-16 07:04 t By pqrs940

...易联网络于4月份 开放100个[color=red]免费[/color]测试的美国空间 该服务器位于美国德洲数据中心. 点这里查看该免费空间更详细参数点下面连接 产品编号GR002 http://78921.net/vpsus.html 注:测试空间为150m 不提供mysql 和 2级域名 ...

3.“有空间”的分词有问题和扩充词典

更新时间:2013-05-18 14:05 t By lyjkensou

使用的是scws-1.2.1 对“有空间”这个句子进行分词,理想的结果应该是“有空 空间” 但实际结果是“有空 间” 即使通过scws_add_dict()添加了自定义的txt字典(里面只包含“空间 11.82 12.38”一行),仍然分不出“空间”这个词。...

4.急切询问关于词典的问题?

发布时间:2009-01-11 10:01 t By cysin

请问scws的词典格式是double array trie吗,还有没有提升速度的空间

5.xapian-compact如何使用

发布时间:2013-03-29 19:03 t By cdlgdx

xapian-compact如何使用 ,用来优化索引空间

6.使用

发布时间:2013-11-15 15:11 t By wydky

我的网站采用的是付费的空间,window2003 iis6 php5.3的环境,请问可以使用saws中文分词吗?谢谢!

7.RE: “有空间”的分词有问题和扩充词典

发布时间:2013-05-20 13:05 t By hightman

你可以添加一个“有空间”作为词,这样再细分时会出现“有空”+“空间” 作为三字的肯定是取舍其中一个了

8.每天都会生成1G的core.xxxxx

发布时间:2012-05-08 00:05 t By yunxiaoad2

每天在xunsearch目录下,都会生成1个G的core.xxxxx,如果不是硬盘空间耗尽的话,恐怕还会生成更多,请问如何解决呢?

9.问个弱智的问题,不知道会不会收到回复?

发布时间:2011-09-19 13:09 t By strongfinger

用了网上的演示,这个分词系统挺好用的.但是本人是PHP新手,使用win7平台,hightman大侠提供的好像是一个中文分词引擎,不知道怎么直接在我的php空间上激活。请问我自己要怎么实现演示页面的显示效果呢?

10.RE: 疑问?为什么索引大小大约为数据大小的3.5倍

发布时间:2012-03-06 10:03 t By hightman

全文索引就是空间换时间啊。遵守守恒定律,不可能有真正两全齐美的东西啊

12
  • 时间不限
  • 按相关性排序