本文目录一览:
Python存200w数据到数据库需要多久
Python存200w数据到数据库需要474秒,因为正常的三万八千条数据仅需要9秒,以此类推出200万需要的时间。
【python存数据库速度】
1、需要从文本中读取三万条数据写入mysql数据库,文件中为用@分割的sql语句,但是在读取的过程中发现速度过慢,三万八千条数据需要220秒,
2、经测试发现,影响速度的主要原因是commit(),因为没过几秒提交一次即可,但是因为提交的字符长度有限制,所以要设置一个合理的时间读取。
3、更改后,写入三万八千条数据仅需要9秒
python 把list元素插入数据库
两种方法
1、python读取文件后,解析value中的id,存储到list中,再读另一个文件时,去list里判断是否已存在
2、python读取另一个文件后,解析values中的id,脚本直接去数据库判断是否存在
其实数据库可以设计id未主键,这样你直接insert即可,出错的话,数据库会容错
如何将python中的数据写到mysql数据库中
利用mysql插件 pymysql;写insert语句直接插入到数据库
安装:pip install pymysql。
代码:excute_sql方法是执行更新,插入操作。get_datasset方法是查询。
# coding: utf-8
import pymysql.cursors
def execute_sql(sql):
conn = pymysql.connect(host='127.0.0.1',port = 3306,user='root',passwd='123456',db ='db',charset="utf8")
try:
with conn.cursor() as cursor:
cursor.execute(sql)
conn.commit()
finally:
conn.close()
def get_dataset(sql):
conn = pymysql.connect(host='127.0.0.1',port = 3306,user='root',passwd='123456',db ='db',charset="utf8")
try:
with conn.cursor() as cursor:
cursor.execute(sql)
return cursor.fetchall()
finally:
conn.close()
Python读URL数据写入MySQL数据库
import mysql.connection
import requests
import time
conn = mysql.connector.connect(user='root', password='password', database='test')
cursor=conn.cursor()
cursor.execute('create table json(id varchar(20) primary key, text varchar(20))')
conn.commit()
url=''
n=0
while Ture:
n=n+1
req=requests.get(url).json()
cursor.execute('insert into user (id, text) values (%s, %s)', [n, req])
conn.commit()
time.sleep(60)