MySql 处理超大数据量 (分库)

来源:百度知道 编辑:UC知道 时间:2024/06/05 21:21:26
两个问题:

1. MySql是否对一百万条以上的数据查询效率比较低下,速度比较慢?大家使用下来的经验如何?

2. 对于千万级以上的数据量,如果还想使用MySQL(诸多原因),是否能通过分库(就是将一个数据库分成几份放在若干台服务器上)来解决?请给出尽量详尽的MySQL分库的操作方法和技术细节,谢谢!
关于怎么做分库,是否有更详细的资料?谢谢

-------------------------------------------
既然有多台服务器可用,那就使用MYSQL集群吧。
在手册中称为“mysql簇”。
查一下手册或者借助搜索引擎吧,我就不复制粘帖了。

其实要看你怎么查询了
100W我记不清楚了但是1000W的话直接查询效率肯定有问题的.
但是要是你把SELECT语句写在存储过程里面,效率降低就很小了!
所以所有的对数据库操作都尽量封装在存储过程里面.
现在在做一个东西,昨天测了下2亿行数据,没什么问题- -效率降低维持在可以接受的地步.
当然优秀的索引,缓存配置,调优之类的我就不说了.
分表,分库,均衡负载等也是解决办法
你上面说那个情况是可能的.

分表 分库 再分表 再分库