您的位置:

关于python词云,python词云教程

本文目录一览:

如何用Python做词云

推荐使用jieba模块来实现分词,WordCloud来绘制词云。

# -*- coding: utf-8 -*-

from PIL import Image

import numpy as np

import matplotlib.pyplot as plt

import jieba

from wordcloud import WordCloud, STOPWORDS

# Read the whole text.

text = open('内容.txt', 'r').read()

text = " ".join(jieba.cut(text, cut_all=False))

# 爱心.png表示你绘图模板,就是最后图片的形状

alice_mask = np.array(Image.open('爱心.png'))

# 中文需要设置字体,songti.ttf代表宋体

wc = WordCloud(font_path='songti.ttf', background_color="white", mask=alice_mask,

               max_words=2000)

# generate word cloud

wc.generate(text)

# store to file

wc.to_file('result.png')

# show

plt.imshow(wc)

plt.axis("off")

# plt.figure()

# plt.imshow(alice_mask, cmap=plt.cm.gray)

# plt.axis("off")

plt.show()

python中对已经排好序的词语怎么做词云

期末复习比较忙过段时间来专门写scrapy框架使用,今天介绍如何用python生成词云,虽然网上有很多词云生成工具,不过自己用python来写是不是更有成就感。

今天要生成的是励志歌曲的词云,百度文库里面找了20来首,如《倔强》,海阔天空是,什么的大家熟悉的。

所要用到的python库有 jieba(一个中文分词库)、wordcould 、matplotlib、PIL、numpy。

首先我们要做的是读取歌词。我将歌词存在了文件目录下励志歌曲文本中。

现在来读取他

12345

#encoding=gbklyric= ''f=open('./励志歌曲歌词.txt','r')for i in f:  lyric+=f.read()

加入#encoding=gbk是为了防止后面操作报错SyntaxError: Non-UTF-8 code starting with '\xc0'

然后我们用jieba分词来对歌曲做分词提取出词频高的词

123456

import jieba.analyseresult=jieba.analyse.textrank(lyric,topK=50,withWeight=True)keywords = dict()for i in result:  keywords[i[0]]=i[1]print(keywords)

得到结果:

然后我们就可以通过wrodcloud等库来生成词云了

首先先自己找一张图片来作为生成词云的形状的图

12345678910111213

from PIL import Image,ImageSequenceimport numpy as npimport matplotlib.pyplot as pltfrom wordcloud import WordCloud,ImageColorGeneratorimage= Image.open('./tim.jpg')graph = np.array(image)wc = WordCloud(font_path='./fonts/simhei.ttf',background_color='White',max_words=50,mask=graph)wc.generate_from_frequencies(keywords)image_color = ImageColorGenerator(graph)plt.imshow(wc)plt.imshow(wc.recolor(color_func=image_color))plt.axis("off")plt.show()

保存生成图片

1

wc.to_file('dream.png')

完整代码:

1234567891011121314151617181920212223242526272829

#encoding=gbkimport jieba.analysefrom PIL import Image,ImageSequenceimport numpy as npimport matplotlib.pyplot as pltfrom wordcloud import WordCloud,ImageColorGeneratorlyric= ''f=open('./励志歌曲歌词.txt','r')for i in f:  lyric+=f.read()  result=jieba.analyse.textrank(lyric,topK=50,withWeight=True)keywords = dict()for i in result:  keywords[i[0]]=i[1]print(keywords)  image= Image.open('./tim.jpg')graph = np.array(image)wc = WordCloud(font_path='./fonts/simhei.ttf',background_color='White',max_words=50,mask=graph)wc.generate_from_frequencies(keywords)image_color = ImageColorGenerator(graph)plt.imshow(wc)plt.imshow(wc.recolor(color_func=image_color))plt.axis("off")plt.show()wc.to_file('dream.png')

以上这篇python生成词云的实现方法(推荐)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

python3.7生成的词云,显示成功,却没有图片?

根据你的代码,你生成的词云图片文件名字叫做aaaaa.png,打开你存储python文件的文件夹,在那里面找到aaaaa.png这个图片文件,打开就是生成的词云了

Python 画好看的云词图

词云图是数据分析中比较常见的一种可视化手段。词云图,也叫文字云,是对文本中出现频率较高的 关键词 予以视觉化的展现,出现越多的词,在词云图中展示越显眼。词云图过滤掉大量低频低质的文本信息,因此只要一眼扫过文本就可 领略文章主旨 。

例如?上面这张图,看一眼就知道肯定是新华网的新闻。

那生成一张词云图的主要步骤有哪些?这里使用 Python 来实现,主要分三步:

首先是“结巴”中文分词 jieba 的安装。

对于英文文本,word_cloud 可以直接对文本源生成词云图。但是对中文的支持没有那么给力,所以需要先使用 jieba 对中文文本进行分词,把文章变成词语,然后再生成词云图。例如:

jieba.cut 分词:方法接受三个输入参数,sentence 需要分词的字符串;cut_all 用来控制是否采用全模式;HMM 用来控制是否使用 HMM 模型。

jieba.cut_for_search 分词:方法接受两个参数,sentence 需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细。

jieba.analyse.textrank 使用 TextRank 算法从句子中提取关键词。

然后安装 wordcloud 词云图库。

如果执行上面命令后,显示 success,那么恭喜你,安装成功了。

我就遇到了 Failed building wheel for wordcloud 的错误。于是先安装 xcode-select, 再安装 wordcloud 即可(无需安装 Xcode)。

wordcloud 库把词云当作一个 WordCloud 对象,wordcloud.WordCloud() 代表一个文本对应的词云,可以根据文本中词语出现的频率等参数绘制词云,绘制词云的形状、尺寸和颜色。

1、首先导入文本数据并进行简单的文本处理

2、分词

3、设置遮罩

注意:

1、默认字体不支持中文,如果需要显示中文,需要设置中文字体,否则会乱码。

2、设置遮罩时,会自动将图片非白色部分填充,且图片越清晰,运行速度越快

其中 WordCloud 是云词图最重要的对象,其主要参数描述如下:

效果如下图:

上小结是将文章中所有内容进行分词,输出了所有词,但很多时候,我们有进一步的需求。例如:

1、只需要前 100 个关键词就够了。

2、不需要五颜六色的词语,应与遮罩图片颜色一致。

100个关键词,我们在分词时使用 TextRank 算法从句子中提取关键词。

遮罩颜色可通过设置 WordCloud 的 color_func 属性。

最终效果如下:

使用python wordcloud库实现词云,教你两招轻松搞定

wordcloud库简介

python中的word cloud库是一个用来制作词云的第三方库

安装wordcloud 库

pip install wordcloud123

使用w = wordcloud.WordCloud() 创建一个词云对象

2.WordCloud() 参数介绍

3.实现效果

4.问题

并没有按照词云的样式展示,这里需要使用 jieba库进行分词

安装jieba库

pip install jieba

5.使用jieba库进行分词

6.效果

将txt文本中的内容生成词云

获取文件中的内容

f = open('./xxx.txt', 'r', encoding='utf-8')

 text = f.read()

说明

encoding=‘utf-8’ 这个参数表示 读取的内容以utf-8的编码方式读取文件

如果没有这个参数,会出现如下的报错信息

关于python词云的频次统计机制

使用wordcloud库和jieba库可以使用图片上的效果,

这个就是将一个文本先进行分词,然后再统计每个词的词频,选出词频较高的一些词语,然后按照词频的大小设定不同的字体大小,随机生成颜色,随后形成图片。