mongo 集群部署环境:(测试环境,三分片无副本)
————————————————-
IP地址 路由服务器(Routers) 配置服务器(Config Server) Shard1 Shard2 Shard3
192.168.13.5 27018 27001
192.168.13.6 27017 27018 27001
192.168.13.7 27018 27001
————————————————
客户端开启 24 线程同时写入.
数据达到亿级别,mongo 机器的 iowait 会越来越高,网络流量,磁盘,cpu的负载会掉下来,数据写入的速度也会慢下来,
看了一下客户端的资源占用,也相比正常写入要低很多。
目前没有找到原因,求大家帮忙看一下,感激不尽!!!
clown 已回答的问题
我如果把写入程序停一段时间,在原有的1亿多数据的基础上继续写入,写入的性能特别低,dirty <10%.
我遇到的这个问题是大多数人都遇到的问题吗?还是…,现在继续写入,因为之前脚本测过磁盘的读写,mongo 机器的磁盘的读写不高, 我现在也怀疑是索引的问题,可是不知道怎么去证明是索引的问题。
不懂的东西:
1.没太明白什么是脏数据;
2.写入数据索引分裂这块的原理不懂,也没找到相关的文章。