本文目录一览:
- 1、如何用Python做词云
- 2、python中对已经排好序的词语怎么做词云
- 3、python3.7生成的词云,显示成功,却没有图片?
- 4、Python 画好看的云词图
- 5、使用python wordcloud库实现词云,教你两招轻松搞定
- 6、关于python词云的频次统计机制
如何用Python做词云
推荐使用jieba模块来实现分词,WordCloud来绘制词云。
# -*- coding: utf-8 -*-
from PIL import Image
import numpy as np
import matplotlib.pyplot as plt
import jieba
from wordcloud import WordCloud, STOPWORDS
# Read the whole text.
text = open('内容.txt', 'r').read()
text = " ".join(jieba.cut(text, cut_all=False))
# 爱心.png表示你绘图模板,就是最后图片的形状
alice_mask = np.array(Image.open('爱心.png'))
# 中文需要设置字体,songti.ttf代表宋体
wc = WordCloud(font_path='songti.ttf', background_color="white", mask=alice_mask,
max_words=2000)
# generate word cloud
wc.generate(text)
# store to file
wc.to_file('result.png')
# show
plt.imshow(wc)
plt.axis("off")
# plt.figure()
# plt.imshow(alice_mask, cmap=plt.cm.gray)
# plt.axis("off")
plt.show()
python中对已经排好序的词语怎么做词云
期末复习比较忙过段时间来专门写scrapy框架使用,今天介绍如何用python生成词云,虽然网上有很多词云生成工具,不过自己用python来写是不是更有成就感。
今天要生成的是励志歌曲的词云,百度文库里面找了20来首,如《倔强》,海阔天空是,什么的大家熟悉的。
所要用到的python库有 jieba(一个中文分词库)、wordcould 、matplotlib、PIL、numpy。
首先我们要做的是读取歌词。我将歌词存在了文件目录下励志歌曲文本中。
现在来读取他
12345
#encoding=gbklyric= ''f=open('./励志歌曲歌词.txt','r')for i in f: lyric+=f.read()
加入#encoding=gbk是为了防止后面操作报错SyntaxError: Non-UTF-8 code starting with '\xc0'
然后我们用jieba分词来对歌曲做分词提取出词频高的词
123456
import jieba.analyseresult=jieba.analyse.textrank(lyric,topK=50,withWeight=True)keywords = dict()for i in result: keywords[i[0]]=i[1]print(keywords)
得到结果:
然后我们就可以通过wrodcloud等库来生成词云了
首先先自己找一张图片来作为生成词云的形状的图
12345678910111213
from PIL import Image,ImageSequenceimport numpy as npimport matplotlib.pyplot as pltfrom wordcloud import WordCloud,ImageColorGeneratorimage= Image.open('./tim.jpg')graph = np.array(image)wc = WordCloud(font_path='./fonts/simhei.ttf',background_color='White',max_words=50,mask=graph)wc.generate_from_frequencies(keywords)image_color = ImageColorGenerator(graph)plt.imshow(wc)plt.imshow(wc.recolor(color_func=image_color))plt.axis("off")plt.show()
保存生成图片
1
wc.to_file('dream.png')
完整代码:
1234567891011121314151617181920212223242526272829
#encoding=gbkimport jieba.analysefrom PIL import Image,ImageSequenceimport numpy as npimport matplotlib.pyplot as pltfrom wordcloud import WordCloud,ImageColorGeneratorlyric= ''f=open('./励志歌曲歌词.txt','r')for i in f: lyric+=f.read() result=jieba.analyse.textrank(lyric,topK=50,withWeight=True)keywords = dict()for i in result: keywords[i[0]]=i[1]print(keywords) image= Image.open('./tim.jpg')graph = np.array(image)wc = WordCloud(font_path='./fonts/simhei.ttf',background_color='White',max_words=50,mask=graph)wc.generate_from_frequencies(keywords)image_color = ImageColorGenerator(graph)plt.imshow(wc)plt.imshow(wc.recolor(color_func=image_color))plt.axis("off")plt.show()wc.to_file('dream.png')
以上这篇python生成词云的实现方法(推荐)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
python3.7生成的词云,显示成功,却没有图片?
根据你的代码,你生成的词云图片文件名字叫做aaaaa.png,打开你存储python文件的文件夹,在那里面找到aaaaa.png这个图片文件,打开就是生成的词云了
Python 画好看的云词图
词云图是数据分析中比较常见的一种可视化手段。词云图,也叫文字云,是对文本中出现频率较高的 关键词 予以视觉化的展现,出现越多的词,在词云图中展示越显眼。词云图过滤掉大量低频低质的文本信息,因此只要一眼扫过文本就可 领略文章主旨 。
例如?上面这张图,看一眼就知道肯定是新华网的新闻。
那生成一张词云图的主要步骤有哪些?这里使用 Python 来实现,主要分三步:
首先是“结巴”中文分词 jieba 的安装。
对于英文文本,word_cloud 可以直接对文本源生成词云图。但是对中文的支持没有那么给力,所以需要先使用 jieba 对中文文本进行分词,把文章变成词语,然后再生成词云图。例如:
jieba.cut 分词:方法接受三个输入参数,sentence 需要分词的字符串;cut_all 用来控制是否采用全模式;HMM 用来控制是否使用 HMM 模型。
jieba.cut_for_search 分词:方法接受两个参数,sentence 需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细。
jieba.analyse.textrank 使用 TextRank 算法从句子中提取关键词。
然后安装 wordcloud 词云图库。
如果执行上面命令后,显示 success,那么恭喜你,安装成功了。
我就遇到了 Failed building wheel for wordcloud 的错误。于是先安装 xcode-select, 再安装 wordcloud 即可(无需安装 Xcode)。
wordcloud 库把词云当作一个 WordCloud 对象,wordcloud.WordCloud() 代表一个文本对应的词云,可以根据文本中词语出现的频率等参数绘制词云,绘制词云的形状、尺寸和颜色。
1、首先导入文本数据并进行简单的文本处理
2、分词
3、设置遮罩
注意:
1、默认字体不支持中文,如果需要显示中文,需要设置中文字体,否则会乱码。
2、设置遮罩时,会自动将图片非白色部分填充,且图片越清晰,运行速度越快
其中 WordCloud 是云词图最重要的对象,其主要参数描述如下:
效果如下图:
上小结是将文章中所有内容进行分词,输出了所有词,但很多时候,我们有进一步的需求。例如:
1、只需要前 100 个关键词就够了。
2、不需要五颜六色的词语,应与遮罩图片颜色一致。
100个关键词,我们在分词时使用 TextRank 算法从句子中提取关键词。
遮罩颜色可通过设置 WordCloud 的 color_func 属性。
最终效果如下:
使用python wordcloud库实现词云,教你两招轻松搞定
wordcloud库简介
python中的word cloud库是一个用来制作词云的第三方库
安装wordcloud 库
pip install wordcloud123
使用w = wordcloud.WordCloud() 创建一个词云对象
2.WordCloud() 参数介绍
3.实现效果
4.问题
并没有按照词云的样式展示,这里需要使用 jieba库进行分词
安装jieba库
pip install jieba
5.使用jieba库进行分词
6.效果
将txt文本中的内容生成词云
获取文件中的内容
f = open('./xxx.txt', 'r', encoding='utf-8')
text = f.read()
说明
encoding=‘utf-8’ 这个参数表示 读取的内容以utf-8的编码方式读取文件
如果没有这个参数,会出现如下的报错信息
关于python词云的频次统计机制
使用wordcloud库和jieba库可以使用图片上的效果,
这个就是将一个文本先进行分词,然后再统计每个词的词频,选出词频较高的一些词语,然后按照词频的大小设定不同的字体大小,随机生成颜色,随后形成图片。