本文目录一览:
- 1、mysql批量插入数据
- 2、如何向mysql数据库中导入大批量数据?
- 3、mysql数据库中怎么批量插入数据
- 4、MYSQL批量插入数据库实现语句性能分析
- 5、mysql数据库如何批量插入数据,如有表A 字段id name password email 如何插入大批量会员
- 6、如何把csv文件批量导入到mysql数据库
mysql批量插入数据
不用INSERT INTO 难不成用UPDATE,数据导入3000条貌似不多吧
你要这么一说,还真有点难度了,因为数据类型不一样,还不能用数组,貌似没有什么绝窍
不过你可以直接用EXCEL中的CONCATENATE()函数把你的数据转换成SQL输入语句
然后把这个输入语句脚本放到一个文件中,如Iinsert.sql
接着用类似下面的代码把这个脚本导入MYSQL执行
!$db-select_db('databasename')exit($db-error()); //选择当前数据库
if(!file_exists("./insert.sql"))exit("载入\"insert.sql\"失败!");
$import_sql=file_get_contents("pms.sql",dirname(__FILE__)); //打开SQL文件并读取
$explode = explode(";",$import_sql);
$cnt = count($explode);
for($i=0;$i$cnt ;$i++){
!$db-query($explode[$i])exit("导入数据表失败!");
}
echo "已建立数据表...brbr\n";
如何向mysql数据库中导入大批量数据?
导入时把生成索引给关掉,应该能快一点.
不要一边导入一边建立索引.
8G数据,应该也不那么慢了.
把sql语句文件读取出一部分看看,建表语句中,应当有建立索引的部分,删掉它!
只做建表和插入数据两件事.
还有,看看数据库有没有外键?
尽量在插入数据过程中去掉外键关联.
等数据插入完成之后再加索引和外键,应该能提高很多读写性能.
截取一部分数据,例如100Mb.
插入一下试试,可以预先对整体时间有一个预期.
还有,真的要弄台好点的电脑,或者去借一台,等把数据导入完成之后,把msyql的库文件直接复制出来放自己机器上跑就好.
emm..
再追加点信息,要先搞明白,sql原文件里,到底都执行了哪几类操作?
可能需要你用c之类写点小工具,或者别的什么语言,分块读取并处理文件.
8G..
嗯,还好.
现在内存都够大,否则你都没法直接用软件打开了.
只有8G也可以直接用软件打开看.
停掉索引真的可以大幅度加快插入数据的速度.
建议试一试!
mysql数据库中怎么批量插入数据
常见的insert语句,向数据库中,一条语句只能插入一条数据:
insert into persons
(id_p, lastname , firstName, city )
values(204,'haha' , 'deng' , 'shenzhen');
(如上,仅插入了一条记录)
怎样一次insert插入多条记录呢?
使用示例:
insert into persons
(id_p, lastname , firstName, city )
values
(200,'haha' , 'deng' , 'shenzhen'),
(201,'haha2' , 'deng' , 'GD'),
(202,'haha3' , 'deng' , 'Beijing');
这样就批量插入数据了, 遵循这样的语法,就可以批量插入数据了。
执行成功,截图:
据说,在程序开发中,一次插入多条数据,比逐次一条一条的插入数据,效率高很多
所以在程序开发的时候,使用此批量插入,也是比较不错的。
此语句在MySQL 5, postgreSQL 9.3执行通过。
MYSQL批量插入数据库实现语句性能分析
假定我们的表结构如下
代码如下
CREATE
TABLE
example
(
example_id
INT
NOT
NULL,
name
VARCHAR(
50
)
NOT
NULL,
value
VARCHAR(
50
)
NOT
NULL,
other_value
VARCHAR(
50
)
NOT
NULL
)
通常情况下单条插入的sql语句我们会这么写:
代码如下
INSERT
INTO
example
(example_id,
name,
value,
other_value)
VALUES
(100,
'Name
1',
'Value
1',
'Other
1');
mysql允许我们在一条sql语句中批量插入数据,如下sql语句:
代码如下
INSERT
INTO
example
(example_id,
name,
value,
other_value)
VALUES
(100,
'Name
1',
'Value
1',
'Other
1'),
(101,
'Name
2',
'Value
2',
'Other
2'),
(102,
'Name
3',
'Value
3',
'Other
3'),
(103,
'Name
4',
'Value
4',
'Other
4');
如果我们插入列的顺序和表中列的顺序一致的话,还可以省去列名的定义,如下sql
代码如下
INSERT
INTO
example
VALUES
(100,
'Name
1',
'Value
1',
'Other
1'),
(101,
'Name
2',
'Value
2',
'Other
2'),
(102,
'Name
3',
'Value
3',
'Other
3'),
(103,
'Name
4',
'Value
4',
'Other
4');
上面看上去没什么问题,下面我来使用sql语句优化的小技巧,下面会分别进行测试,目标是插入一个空的数据表200W条数据
第一种方法:使用insert
into
插入,代码如下:
代码如下
$params
=
array('value'='50');
set_time_limit(0);
echo
date("H:i:s");
for($i=0;$i2000000;$i++){
$connect_mysql-insert($params);
};
echo
date("H:i:s");
最后显示为:23:25:05
01:32:05
也就是花了2个小时多!
第二种方法:使用事务提交,批量插入数据库(每隔10W条提交下)最后显示消耗的时间为:22:56:13
23:04:00
,一共8分13秒
,代码如下:
代码如下
echo
date("H:i:s");
$connect_mysql-query('BEGIN');
$params
=
array('value'='50');
for($i=0;$i2000000;$i++){
$connect_mysql-insert($params);
if($i%100000==0){
$connect_mysql-query('COMMIT');
$connect_mysql-query('BEGIN');
}
}
$connect_mysql-query('COMMIT');
echo
date("H:i:s");
第三种方法:使用优化SQL语句:将SQL语句进行拼接,使用
insert
into
table
()
values
(),(),(),()然后再一次性插入,如果字符串太长,
则需要配置下MYSQL,在mysql
命令行中运行
:set
global
max_allowed_packet
=
2*1024*1024*10;消耗时间为:11:24:06
11:25:06;
插入200W条测试数据仅仅用了1分钟!代码如下:
代码如下
$sql=
"insert
into
twenty_million
(value)
values";
for($i=0;$i2000000;$i++){
$sql.="('50'),";
};
$sql
=
substr($sql,0,strlen($sql)-1);
$connect_mysql-query($sql);
最后总结下,在插入大批量数据时,第一种方法无疑是最差劲的,而第二种方法在实际应用中就比较广泛,第三种方法在插入测试数据或者其他低要求时比较合适,速度确实快。
mysql数据库如何批量插入数据,如有表A 字段id name password email 如何插入大批量会员
1.首先在命令行控制台中打开mysql教程
或许命令的如下:
mysql
-u
root
-p
database_name
然后或许会提示输入对应的密码
2.下面这条命令或许对你有用,当你想更换一个数据库教程的时候
mysqluse
database_name
然后使用下面这个命令
mysqlsource
d:datafilename.sql
当然你需要将文件所在的路径搞清楚,并且正确地使用了他
进入mysql
安装所在的目录的子目录bin.
输入执行导入sql的命令.
例如:
你的mysql
安装在
d:mysql
步骤如下:
开始
-
运行
-
输入CMD
D:
cd
mysqlbin
mysql
-u
root
-p123456
test
评论
加载更多
如何把csv文件批量导入到mysql数据库
通过命令行导入(要求列与列之间以 英文逗号 分割,若字段中含有 , 则以 " 包裹)
load data infile 'D:/mysql-5.7.29-winx64/files/ratings_5.csv' into table ratings fields terminated by ',' optionally enclosed by '"' escaped by '"' lines terminated by '\r\n';
踩坑一:文件路径用 \ 分割会报错,用 / 可(用 \\ 应该也可)
踩坑二:load data 命令报错
ERROR 1290 (HY000): The MySQL server is running with the --secure-file-priv option so it cannot execute this statement
在 my.ini 中加入(空字符串代表允许从一切目录导入)
[mysqld]
secure-file-priv=''
然后再 Windows 的服务中重新启动 mysql
踩坑三:csv 文件中第一行是诸如 userId 这样的列名
如果你的 csv 文件不大,直接使用 notepad++ 打开后删除第一行即可
但在我们这里,千万级别的文件 notepad++ 无法打开,这时可以考虑两种方法
1. 将 csv 文件传入 Linux 服务器删去第一行
由于不知道如何在 Win 10 中做这个操作,只能通过 Linux 中转执行
sed -i '1d' ratings.csv
检验是否成功,可以打印出第一行观察
cat ratings.csv | head -n 1
2. 通过工具把大的 csv 分成多个 notepad 能够打开的较小文件,对第一个文件删除第一行并依次导入
工具:splitcsv
亲测 5000000 条数据的 csv 文件可以在 notepad++ 中打开(只能同时打开 3 个)
这个工具还有个小坑:ratings_0.csv 的最后一行和 ratings_1.csv 的第一行是重复的,请手动删除