I    can   because   I   think   I   can !
首页(8) 搜索技术(3) Unix学习(2) 算法研究(0) 杂七杂八(1) 脚本语言(0) 职业生涯(0) 数据挖掘(0) 
 博客信息
blog名称:拓扑空间
日志总数:8
评论数量:3
留言数量:0
访问次数:26664
建立时间:2007年7月26日
最新公告
经过剑桥三一学院,我以牛顿之名许愿,当空间只剩下拓扑的语言,映射就成了永垂不朽的诗篇,用超越数去超越永远,一万年不变.
最新日志
Linux下 FTP设计与实现
Linux C 简单聊天程序的实现
编写简单的分词程序
分词中的难题
中文分词技术
终于把烦人的广告代码屏蔽掉了
谁知道怎么样屏蔽blog中的google
学术人生
最新回复
回复:谁知道怎么样屏蔽blog中的goo
回复:谁知道怎么样屏蔽blog中的goo
最新留言
签写新留言

友情链接

其他信息
编写简单的分词程序  逍凌 发表于 2007/7/27 23:13:30
  算法简要描述:对一个字符串S,从前到后扫描,对扫描的每个字,从词库中寻找最长匹配.比如假设S="我是中华人民共和国公民",词库中有"中华人民共和国","中华","公民","人民","共和国"......等词.当扫描到"中"字,那么从中字开始,向后分别取1,2,3,......个字("中","中华","中华人","中华人民","中华人民共","中华人民共和","中华人民共和国",,"中华人民共和国公"),词库中的最长匹配字符串是"中华人民共和国",那么就此切分开,扫描器推进到"公"字。
数据结构:选择什么样的数据结构对性能影响很大.我采用Hashtable _rootTable记录词库.键值对为(键,插入次数).对每一个词语,如果该词语有N个字,则将该词语的1,1~2,1~3,......1~N个字作为键,插入_rootTable中.而同一个键如果重复插入,则后面

      [

阅读全文(1502) | 回复(0) | 编辑 | 精华 | 删除]

分词中的难题  逍凌 发表于 2007/7/27 23:09:45
  有了成熟的分词算法,是否就能容易的解决中文分词的问题呢?事实远非如此。中文是一种十分复杂的语言,让计算机理解中文语言更是困难。在中文分词过程中,有两大难题一直没有完全突破。

      [

阅读全文(1300) | 回复(0) | 编辑 | 精华 | 删除]

中文分词技术  逍凌 发表于 2007/7/27 22:57:52
  中文分词技术属于自然语言处理技术范畴,对于一句话,人可以通过自己的知识来明白哪些是词,哪些不是词,但如何让计算机也能理解?其处理过程就是分词算法。现有的分词算法可分为三大类:基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法。

      [阅读全文(1248) | 回复(0) | 编辑 | 精华 | 删除]

« 1
管理      摘写      注销
站点首页 | 苏ICP备05006046号
站点首页 | 联系我们 | 博客注册 | 博客登陆

Sponsored By W3CHINA
W3CHINA Blog 0.8 Processed in 0.469 second(s), page refreshed 144817513 times.
《全国人大常委会关于维护互联网安全的决定》  《计算机信息网络国际联网安全保护管理办法》
苏ICP备05006046号