在linux下装了scws1.1.2,并且装了php5的扩展,但是发现在分词时对于较长的字符串会自动截取前多少个字符进行切分,不知这是不是一个BUG?
请仔细看说明,$so->get_result() 并不是一次调用,需要多次调用直到返回FALSE 例子1. 使用类方法分词
...似乎不能解决我得问题。我再描述一下,打个比方,我要切分一段有200个汉字的字符串,但是返回的分词数组只包含了前100个汉字的词。[hr] 我还是把代码贴出来吧。 从返回的分词数组可以看出来,语句的后半句“从下油...
...XSTokenizerUnary implements XSTokenizer { private $length = 1; // 默认切分长度 public function __construct($arg = null){ if ($arg !== null && $arg !== '') $this->length = $arg; } public function getTokens($value, XSDocument $doc=null){ $charset = is_object($doc) ? $doc->ge...
...XSTokenizerUnary implements XSTokenizer { private $length = 1; // 默认切分长度 public function __construct($arg = null){ if ($arg !== null && $arg !== '') $this->length = $arg; } public function getTokens($value, XSDocument $doc=null){ $charset = is_object($doc) ? $doc->ge...
...了下代码,然后测试了一下可以达到效果了 1)、英文切分的长度采用了宏 2)、切分后可以返回所有字典中存在的词 但是不知道会不会有别的问题。。。 没法上传附件, 贴一下代码吧 // hightman.070902: multi segment // s...
.../color] [b]描述:[/b]设定分词执行时是否执行针对长词复合切分。(例如:中国人->中国+人+中国人)。 参数 mode 表示复合分词法的级别,取值由下面几个常量异或组合: SCWS_MULTI_SHORT | SCWS_MULTI_DUALITY | SCWS_MULTI_ZMAIN | SCWS_MULTI_ZALL ...