查看原文
其他

一个简单的问题 | 分布式副本一致性

大数据技术与架构点击右侧关注,大数据开发领域最强公众号!

暴走大数据点击右侧关注,暴走大数据!

当我们开发大数据应用时, 通常会接触到数据一致性,通常为了提高数据的高可用性,防止单点数据故障,我们会提供数据副本, 这时候冗余副本的数据库一致性问题就是需要考虑的问题。在此处整理了三种方式, 并展现了HDFS 与 ES使用的副本数据一致性的架构方案。


1.  首先我们这里提供一个比较简单粗暴的方式


将请求分发到多个节点,每个节点进行数据的写入, 写完进行回复, 当有指定个节点写入成功后即算一次写入成功。

这种情况下的优缺点:
优点:写入时间取决于最慢的那个节点的写入时间
缺点:网络IO大, 客户端要向每个节点发送数据。


2.  HDFS 副本写入一致性


HDFS副本写入一致性使用的是一种链式pipeline的形式。

这个流程是先写入第一个datanode中,然后读取namenode中其他datanode的位置,通过datanode类似pipeline形式一级一级往下写,然后一级一级向上返回,最终返回给客户端。
优点:能保证数据的强一致性
缺点:需要所有副本正常插入数据,才能算写成功, 效率不够高


3.  ES 副本写入一致性


这个写入流程是先通过写主节点, 当主节点写入成功后, 将数据请求同时向所有的副本节点发送, 副本节点进行处理然后应答主节点, 当主节点收到所有副本节点的应答之后就开始向客户端返回本次写入成功。
优点: 性能较好, 写入时间取决于主节点写入时间+max(副本节点写入时间)
缺点: 依赖主节点, 数据量大的时候网络IO有压力。


欢迎点赞+收藏+转发朋友圈素质三连


文章不错?点个【在看】吧! 👇

: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存