本文目录一览:
探讨最受欢迎的15顶级Python库
1 TensorFlow(贡献者:1757,贡献:25756,Stars:116765)
“TensorFlow 是一个使用数据流图进行数值计算的开源软件库。图形节点表示数学运算,而图形边缘表示在它们之间流动的多维数据阵列(张量)。这种灵活的体系结构使用户可以将计算部署到桌面、服务器或移动设备中的一个或多个 CPU/GPU,而无需重写代码。 ”
GitHub 地址:
2 pandas(贡献者:1360,贡献:18441,Stars :17388)
“pandas 是一个 Python 包,、供快速,灵活和富有表现力的数据结构,旨在让”关系“或”标记“数据使用既简单又直观。它的目标是成为用 Python 进行实际,真实数据分析的基础高级构建块。”
GitHub 地址:
3 scikit-learn(贡献者:1218,贡献者:23509,Stars :32326)
“scikit-learn 是一个基于 NumPy,SciPy 和 matplotlib 的机器学习 Python 模块。它为数据挖掘和数据分析提供了简单而有效的工具。SKLearn 所有人都可用,并可在各种环境中重复使用。
GitHub 地址:
4 PyTorch(贡献者:861,贡献:15362,Stars:22763)
“PyTorch 是一个 Python 包,提供两个高级功能:
具有强大的 GPU 加速度的张量计算(如 NumPy)
基于磁带的自动编程系统构建的深度神经网络
你可以重复使用自己喜欢的 Python 软件包,如 NumPy,SciPy 和 Cython,以便在需要时扩展 PyTorch。”
GitHub 地址:
5 Matplotlib(贡献者:778,贡献:28094,Stars :8362)
“Matplotlib 是一个 Python 2D 绘图库,可以生成各种可用于出版品质的硬拷贝格式和跨平台交互式环境数据。Matplotlib 可用于 Python 脚本,Python 和 IPython shell(例如 MATLAB 或 Mathematica),Web 应用程序服务器和各种图形用户界面工具包。”
GitHub 地址:
6 Keras(贡献者:856,贡者:4936,Stars :36450)
“Keras 是一个高级神经网络 API,用 Python 编写,能够在 TensorFlow,CNTK 或 Theano 之上运行。它旨在实现快速实验,能够以最小的延迟把想法变成结果,这是进行研究的关键。”
GitHub 地址:
7 NumPy(贡献者:714,贡献:19399,Stars:9010)
“NumPy 是使用 Python 进行科学计算所需的基础包。它提供了强大的 N 维数组对象,复杂的(广播)功能,集成 C / C ++ 和 Fortran 代码的工具以及有用的线性代数,傅里叶变换和随机数功能。
GitHub 地址:
8 SciPy(贡献者:676,贡献:20180,Stars:5188)
“SciPy(发音为”Sigh Pie“)是数学、科学和工程方向的开源软件,包含统计、优化、集成、线性代数、傅立叶变换、信号和图像处理、ODE 求解器等模块。”
GitHub 地址:
9 Apache MXNet(贡献者:653,贡献:9060,Stars:15812)
“Apache MXNet(孵化)是一个深度学习框架,旨在提高效率和灵活性,让你可以混合符号和命令式编程,以最大限度地提高效率和生产力。 MXNet 的核心是一个动态依赖调度程序,可以动态地自动并行化符号和命令操作。”
GitHub 地址:
10 Theano(贡献者:333,贡献:28060,Stars :8614)
“Theano 是一个 Python 库,让你可以有效地定义、优化和评估涉及多维数组的数学表达式。它可以使用 GPU 并实现有效的符号区分。”
GitHub 地址:
11 Bokeh(贡献者:334,贡献:17395,Stars :8649)
“Bokeh 是一个用于 Python 的交互式可视化库,可以在现代 Web 浏览器中实现美观且有意义的数据视觉呈现。使用 Bokeh,你可以快速轻松地创建交互式图表、仪表板和数据应用程序。”
GitHub 地址:
12 XGBoost(贡献者:335,贡献:3557,Stars:14389)
“XGBoost 是一个优化的分布式梯度增强库,旨在变得高效、强大、灵活和便携。它在 Gradient Boosting 框架下实现机器学习算法。XGBoost 提供了梯度提升决策树(也称为 GBDT,GBM),可以快速准确地解决许多数据科学问题,可以在主要的分布式环境(Hadoop,SGE,MPI)上运行相同的代码,并可以解决数十亿个示例之外的问题。”
GitHub 地址:
13 Gensim(贡献者:301,贡献:3687,Stars :8295)
“Gensim 是一个用于主题建模、文档索引和大型语料库相似性检索的 Python 库,目标受众是自然语言处理(NLP)和信息检索(IR)社区。”
GitHub 地址:
14 Scrapy(贡献者:297,贡献:6808,Stars :30507)
“Scrapy 是一种快速的高级 Web 爬行和 Web 抓取框架,用于抓取网站并从其页面中提取结构化数据。它可用于从数据挖掘到监控和自动化测试的各种用途。”
GitHub 地址:
15 Caffe(贡献者:270,贡献:4152,Stars :26531)
“Caffe 是一个以表达、速度和模块化为基础的深度学习框架,由伯克利人工智能研究(BAIR)/ 伯克利视觉与学习中心(BVLC)和社区贡献者开发。”
GitHub 地址:
以上就是2018年最受欢迎的15个库了,不知有没有你的菜喔!希望本文对所列出的库对你有所帮助!
如何包含特定的几个全局Python三方包
我猜想有类似命令,如--system-packages=package1,package2...,但是没有(见截图,如果选用图中选项,那么全局Python环境的所有包都进来了,与初衷不相符合)
自己想到的方案有如下几种:
1 全新环境,pip就行了. 但是某些包巨大,还需要编译等,如科学计算相关包
2 利用requirement.txt 但是好像和1没有区别
3 stackoverflow上有相关问题,但是并没有解决.链接在此
我自己的全局环境已经有相关包了,为什么非常pip从远程pypi安装呢?
我自己的全局环境已经有相关包了,为什么非常pip从远程pypi安装呢?
可能是因为全局环境下的包没有pypi中的包新
Python常用包,可以学学这9个
最近汇总了平时常用到的9个很好的Python包,它们能极大的提高我们的工作效率,安装它们,然后逐步熟练使用它们。
若有用,可以收藏这篇文章。
你若还在为生成名字、地址、IP地址而发愁,试试 Faker 库吧。
它是专业生成假数据的神器,但生成的数据看起来又如此“不假”。
基本用法如下所示:
使用日期和时间格式从来都不是一件有趣的事情。
尽管内置的 datetime 模块做得相当不错,但有一个更直观的 Pendulum ,能做到快速处理。
它支持时区转换、日期、时间操作和格式设置。
如下是一个快速示例,快速创建1个上海时区的时间:
Scrapy是一个强大的工具,可以让你从网站上快速提取信息。
当需要从多个网站或网页中提取大量信息时,手动提取是低效的。
Scrapy提供了易于使用的方法和包,可以使用HTML标记或CSS类提取信息。通过以下命令安装 scrapy :
然后直接在终端输入下面一行代码,
就能得到百度的首页html内容。
Pandas 是一个简单但功能强大的数据分析工具。使用它可以进行数据清洗,并对其进行统计分析。
分析完数据后,还可以使用外部库(如[Matplotlib])将其可视化().
Pandas最棒的地方是它建在NumPy上面,NumPy是一个强大的数据分析工具,因为Pandas基于它,所以这意味着大多数NumPy方法都是Pandas中已有的函数。
click 是一个Python包,可用于创建命令行接口,相当漂亮的命令行,相当丝滑。
让我们看一个例子:
hello 函数公开了两个参数: count 和 name 。最后,在命令行,直接这样调用脚本:
最后打印:
需要设置web服务器吗?
你有两秒钟的时间吗?因为这就是用Python启动简单web服务器所需的时间,直接下面一行代码:
但对于一个基本的web应用程序来说,这可能太简单了。Flask是一个用Python构建的微web框架。它是“微型”的,因为它没有任何数据库抽象层、表单验证或邮件支持。
幸运的是,它有大量的扩展,可以即插即用,如果只想提供一个简单的API,那么它就是完美的。
要使用Flask创建API服务器,请使用以下脚本:
使用下面一行代码启动服务:
最后,当您在浏览器中访问URL 时,
应该会看到以下JSON:
Requests 是一个强大的HTTP库。有了它,可以自动化任何与HTTP请求相关的操作,包括API自动化调用,这样你就不必再手动进行调用。
它附带了一些有用的特性,如授权处理、JSON/XML解析和会话处理。
如下获取明文地址:北京市海淀区清华东路35号,对应的经纬度时,使用百度地图接口,免费注册得到一个apk,返回经纬度结果如下所示:
Selenium是一个编写自动化测试用例的测试框架。
尽管它是用Java编写的,Python包提供对几乎所有Selenium函数的类似API的访问。
Selenium通常用于自动化应用程序UI的测试,但您也可以使用它自动化机器上的任务,如打开浏览器、拖放文件等。
看一个快速示例,演示如何打开浏览器并访问百度主页:
现在,该脚本每15秒刷新浏览器中的百度主页。
很多时候,需要以某种方式修改图像,使其更适合,例如模糊细节、组合一个或多个图像或创建缩略图。
将自制的 Pillow 脚本与 Click 组合在一起,然后直接从命令行访问它们,这对于加快重复的图像处理任务非常有用。
看一个模糊图像的快速示例: