package gse // Text 字串类型,可以用来表达 // 1. 一个字元,比如 "中" 又如 "国", 英文的一个字元是一个词 // 2. 一个分词,比如 "中国" 又如 "人口" // 3. 一段文字,比如 "中国有十三亿人口" type Text []byte // Token 一个分词 type Token struct { // 分词的字串,这实际上是个字元数组 text []Text // 分词在语料库中的词频 frequency int // log2(总词频/该分词词频),这相当于 log2(1/p(分词)),用作动态规划中 // 该分词的路径长度。求解 prod(p(分词)) 的最大值相当于求解 // sum(distance(分词)) 的最小值,这就是“最短路径”的来历。 distance float32 // 词性标注 pos string // 该分词文本的进一步分词划分,见 Segments 函数注释。 segments []*Segment } // Text 返回分词文本 func (token *Token) Text() string { return textSliceToString(token.text) } // Frequency 返回分词在语料库中的词频 func (token *Token) Frequency() int { return token.frequency } // Pos 返回分词词性标注 func (token *Token) Pos() string { return token.pos } // Segments 该分词文本的进一步分词划分,比如 "中华人民共和国中央人民政府" 这个分词 // 有两个子分词 "中华人民共和国 " 和 "中央人民政府"。子分词也可以进一步有子分词 // 形成一个树结构,遍历这个树就可以得到该分词的所有细致分词划分,这主要 // 用于搜索引擎对一段文本进行全文搜索。 func (token *Token) Segments() []*Segment { return token.segments } // Equals compare str split tokens func (token *Token) Equals(str string) bool { tokenLen := 0 for _, t := range token.text { tokenLen += len(t) } if tokenLen != len(str) { return false } bytStr := []byte(str) index := 0 for i := 0; i < len(token.text); i++ { textArray := []byte(token.text[i]) for j := 0; j < len(textArray); j++ { if textArray[j] != bytStr[index] { index = index + 1 return false } index = index + 1 } } return true }