MongoDB 常见问题处理(二)
MongoDB数据库中,删除请求数超过阈值的处理方案?
数据删除发生在文档迁移过程中,MongoDB4.0以上版本均衡阈值很小,容易发生迁移,频繁的迁移数据导致delete数据较大,同时还会导致CPU负载过高。一般情况下,不是特别需求,不会删除数据。
MongoDB数据库中,写入、读取、更新次数超过阈值的排查办法?
正常情况下,MongoDB的性能参数在特定的配置以及资源限制条件下是不会超过预警值的,可以从以下几方面排查确定。
- 软件层面: 1.是否分配足够的oplog空间:在配置文件中增加参数: replication: oplogSizeMB:xxx 2.是否启用了Log Rotation日志切换: 在配置文件的systemLog:中,增加如下值: systemLog: logRotate: rename destination: file timeStampFormat: ctime
- 系统层面: 是否进行了MongoDB连接内存优化:增加每个连接数占用的内存: 在系统内,ulimit-a查看stack size;修改/etc/profile,添加ulimit -s 1024;或增大linux默认下的open files:ulimit -n 1048576.
- 其他层面: 或许是开发人员使用了管道模式,使系统每秒处理的请求增大,减少了延时,必要时联系运维人员修改阈值。
MongoDB中,集群连接数超过阈值的排查方案?
连接数的增加主要是由于连接池的配置以及运行的服务器实例过多产生的,可以从这两方面排查解决。
登录数据库,执行db.serverStatus().connections,查看当前实例的连接数
使用命令:netstat -anp | awk -F ':' '{print $2}' | grep 27017,列出连接来源
然后进行来源服务器排查,观察是否是同一个进程连接的mongo
ps aux | grep PID,分析确定该进程是一个什么服务,必要时联系开发人员
应用服务器实例过多,可统计每个实例建立的连接数,适当调低连接池参数。
MongoDB中,读写缓存使用量超过阈值的处理方法?
这主要是线程池配置的原因。应减少每个客户端连接池的大小,比如:原来默认连接池的配置是100个连接,乘数是5,即线程池存在500线程,现可更改为连接池为20,乘数50,即线程池存在1000个线程;或者增大系统资源配置。
接收/发送的网络流量超过预警的问题?
由于服务器的配置、网络的速率、业务代码、集合的数量等不同,都会影响mongodb的接收和发送的网络流量数值。一般情况下,可以减少集合的数量或只对需要的集合进行相应操作;同时查看是否有对数据库频繁的操作过程,建议副本节点上进行读取操作,减轻主节点的负载。
其他问题
MongoDB Secondary同步过慢的问题?
默认情况,Secondary采用16个replWriter线程来重放oplog,可以通过在启动时设置replWriterThreadCount来定制线程参数。解决办法:
在每个实例节点的配置文件中指定:
setParameter:
replWriterThreadCount:32
或
在启动mongo服务命令行加入如下参数:
mongod --setParameter replWriterThreadCount=32
不过,在实际执行中,需要兼顾线程与性能的得与失,因为增大线程,在资源有限的情况下,会导致性能下降。
非正常关闭服务或关机后mongod服务无法正常启动?
出现的问题:
[root@storm2 bin]# ./mongod -f ./master.conf
note: noprealloc may hurt performance in many applications about to fork child process, waiting until server is ready for connections. forked process: 37248 ERROR: child process failed, exited with error number 51
以往正常启动mongo现在无法启动某个节点,往往是由于mongo的非正常关闭引起的(例如断电)
解决办法:
删除指定数据库数据目录下的mongod.lock文件,然后重新启动该台主机上的mongo
查看该服务进程:ps aux| grep mongod
如果出现该mongo的进程,则成功;
如果不成功,就检查配置文件master.conf,检查文件日志和数据库路径是否正确