一、Python读取本地文本文件
Python中,读取本地的文本文件比较简单,只需要使用open()函数打开文件,然后使用read()或readlines()方法就可以完成文件读取。具体代码如下:
with open('test.txt', 'r') as f: content = f.read() print(content)
上述代码中,我们使用了Python's with语句来打开文件,以确保在使用完文件之后将文件关闭,这样可以避免文件可能出现的内存泄漏问题。
二、Python通过正则表达式解析文本
在处理文本时,正则表达式是一种非常有用的工具,Python自带了re模块来支持正则表达式的相关操作。下面我们来看一个示例代码:
import re pattern = r'\d+\.\d+' # 正则表达式表达需要匹配的模式 content = 'price is 3.22, cost is 5.87' match = re.findall(pattern, content) print(match)
上述代码中,我们定义了一个正则表达式模式,然后使用findall()方法来查找内容中符合该模式的字符串。输出结果是['3.22', '5.87']。
三、用Python处理Excel文件
在Python中,处理Excel文件需要使用第三方库。可以使用openpyxl、xlwt等库来完成Excel文件的读取和写入。下面是读取Excel文件的一个示例:
import openpyxl wb = openpyxl.load_workbook('example.xlsx') sheet = wb.active for row in sheet.iter_rows(values_only=True): print(row)
上述代码中,我们使用openpyxl库的load_workbook()方法来打开工作簿,然后使用active属性选择当前的活动工作表,然后使用iter_rows()方法迭代每一行数据,输出结果可以是每一行的数据。
四、使用Python爬虫实现网页数据抓取
Python对于网页数据的抓取支持非常强大,可以使用urllib、requests、beautifulsoup等库来完成。下面是一个使用requests库实现网页数据抓取的示例代码:
import requests url = 'http://example.com' response = requests.get(url, timeout=5) print(response.text)
上述代码使用requests库得到了一个网页的响应内容,可以通过response.text属性来获取响应的文本内容。
五、Python处理JSON数据
在Python中,处理JSON数据的方法也非常简单,我们可以使用内置的json库来完成JSON数据的读写操作。下面是一个读取JSON数据文件并输出的示例:
import json with open('data.json') as f: data = json.load(f) print(data)
上述代码中,我们使用了json库的load()方法来读取json文件的数据并存储在data变量中,然后输出data变量的内容。