为了提升效率,我们在工作中常常会用到一些提升Python效率的工具,Python作为一种编程语言,他可以实现日常工作中的各种自动化,为了更加方便开发项目,这里给大家推荐几种python的效率工具。
- Pandas 主要用于数据分析
Panda主要是一种强大的分析结构化的数据的工具集、它的使用基础是Numpy(提供高性能的矩阵运算);用于数据挖掘和数据分析,同时提供数据清洗的功能。
# 1. 安装pandas pip install pandas# 2.python的交互式界面 python -i# 3.使用pandas 导入panads 命名为pd import pandas as pd df = pd.DataFrame print(df)# 4. 输出结果 Empth DataFrameColumns:Index:
- Selenium 自动化测试
Selenium是一个用于web应用程序测试的工具,可以从终端用户的角度来测试应用程序。可以从终端用户的角度来测试应用程序。通过在不同浏览器中运行测试,更容易发现浏览器的不兼容性。并且它适用于许多浏览器。
# 做一个简单地测试,通过打开浏览器并且打开google主页from selenium import webdriverimport timebrowser = webdriver.Chrome(executable_path ="C:\Program Files (x86)\Google\Chrome\chromedriver.exe")website_URL ="https://www.google.co.in/"brower.get(website_URL)refreshrate = int(3) #每3秒刷新一次Google主页。# 它会一直运行,直到你停掉编译器。while True:time.sleep(refreshrate)browser.refresh
- Flask — 微型 web 框架
Flask 是一个轻量级的可定制的框架,使用 python 语言编写,相对于其他的同类框架结构更加的灵活、轻便、安全容易上手。Flask是目前十分流行的 WEB 框架。开发者可以使用 python 语言快速地实现一个网站或web服务。
from flask import Flaskapp = Flask(__name__)@app.route('/')def hello_world:return 'Hello, World!'
- Scrapy —页面爬取
Scrapy能够为你提供强大支持,使你能够精确地从网站中爬取信息。是非常实用。
现在基本上大部分开发者都会利用爬虫工具来实现爬取工作的自动化。所以编写爬虫编码时就可以用到这个Scrapy。
启动Scrapy Shell也是十分的简单:
scrapy shell
我们可以试着提取百度主页上搜索按钮的值,首先要找到按钮使用的类,一个inspect element显示该类为“ bt1”。
具体执行以下操作:
response = fetch("https://baidu.com")response.css(".bt1::text").extract_first==> "Search"
- Requests—调用 API
Requests是一个功能强大的HTTP库。有了它可以轻松地发送请求。无需手动向网址添加查询字符串。除此之外还有许多功能,比如authorization处理、JSON / XML解析、session处理等。
示例
在下面的代码中,我们使用 Request ( ) 构造函数创建了一个新的 request实例 (用来请求同一目录下的图片), 然后返回请求的一些属性。
const myRequest = new Request('http://localhost/flowers.jpg');const myURL = myRequest.url; // http://localhost/flowers.jpgconst myMethod = myRequest.method; // GETconst myCred = myRequest.credentials; // omit
Copy to Clipboard
然后,通过将Request对象作为参数传递给GlobalFetch.fetch()调用来获取此请求,例如:
fetch(myRequest) .then(response => response.blob()) .then(blob => { myImage.src = URL.createObjectURL(blob); });
Copy to Clipboard
在下面的代码片段中,我们使用Request()构造函数创建了一个新的request,其中包含一些初始数据和正文内容,用于需要主体有效载荷的api请求:
const myRequest = new Request('http://localhost/api', {method: 'POST', body: '{"foo":"bar"}'});const myURL = myRequest.url; // http://localhost/apiconst myMethod = myRequest.method; // POSTconst myCred = myRequest.credentials; // omitconst bodyUsed = myRequest.bodyUsed;
Copy to Clipboard
注意:body类型只能是一个Blob,BufferSource (en-US), FormData, URLSearchParams, USVString 或者ReadableStream类型,因此增加一个JSON对象的有效载荷则需要字符串化该对象.
例如,您可以通过将Request对象作为参数传递给GlobalFetch.fetch()调用来获取此api请求,并获得响应:
fetch(myRequest) .then(response => { if (response.status === 200) { return response.json(); } else { throw new Error('Something went wrong on api server!'); } }) .then(response => { console.debug(response); // ... }).catch(error => { console.error(error); });
- Faker— 主要用于创建假的数据
Faker是一个Python包,为您生成假数据。无论是需要引导数据库、创建好看的 XML 文档、填写您的持久性来强调测试它,还是从生产服务中获取的同名数据,Faker 都适合您。
使用pip安装:
pip install Faker
使用faker.Factory.create()创造并初始化faker生成器,faker生成器可以通过访问按所需数据类型命名的属性来生成数据。
from faker import Factoryfake = Factory.create()fake.name()fake.address()fake.text()
方法fake.name()的每次调用都会产生不同的(随机)结果。这是因为faker向faker.Generator.method_name()调用了faker.Generator.format(method_name)。
for _ in range(10): print(fake.name())---------------------------------------------------------------C:\Python27\python.exe "D:/Python Projects/paydayloan/aaa.py"Leslie MckinneyThomas WhiteAnna McdowellWilliam Allen MDKelly HouseMrs. Yolanda MyersWhitney RichardErika DavisEthan HarperMonique Terry
- Pillow —进行图像的处理
Pillow 库(有时也称 PIL 库) 是 Python 图像处理的基础库,它是一个免费开源的第三方库,由一群 Python 社区志愿者使用 Python 语言开发而成(主要贡献者:Alex Clark)。
Pillow 提供了非常强大的图像处理功能,它能够很轻松地完成一些图像处理任务。与 Python 的其他图像处理库相比(OpenCV、Scikit-image 等),Pillow 库简单易用,非常适合初学者学习。
linux与windows下两种不同的安装方式:
点个赞呗[谢谢][谢谢][谢谢][流泪]
借鉴:
链接:https://www.jianshu.com/p/8f2e9d42caa6
版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除