分词

Win11环境Mecab日语分词和词性分析以及动态库DLL not found问题(Python3.10)

    日语因为存在假名,会导致翻译软件进行翻译时机翻味道过重的问题,比如積ん読(つんどく)这个词,大多数软件会翻译成:堆积的读,但其实是明明买了书却不读,光放着的意思。有时候也需要单独查句子中的单词释义来理解句子的意思,但一看下去全是假名,无法像中文或者英文那样进行简单的分词操作。    本次我们基于Python3.10的三方库Mecab来对日语进行分词和词性分析。    安装和配置Mecab    首先下载最新的......

Win11环境Mecab日语分词和词性分析以及动态库DLL not found问题(Python3.10)

Python3.7+jieba(结巴分词)配合Wordcloud2.js来构造网站标签云(关键词集合)

    其实很早以前就想搞一套完备的标签云架构了,迫于没有时间(其实就是懒),一直就没有弄出来完整的代码,说到底标签对于网站来说还是很重要的,它能够对一件事物产生标志性描述,通常都会采用相关性很强的关键字,这样不仅便于检索和分类,同时对网站的内链体系也是有促进作用的。     最近疫情的关系一直在家里呆着,闲暇时和一些学生聊天的时候,人家问:你说你一直在写博客,那你到底在写一些什么内容的文章呢?我竟然一时语塞,于是搞出来下面这种的标签云,......

Python3.7+jieba(结巴分词)配合Wordcloud2.js来构造网站标签云(关键词集合)