能否支持多机同时跑 | 一般不能,同一时刻只能单机跑。 |
存储数据源 | 一般是mysql或者其它传统数据库,并且是单表存储 |
频率 | 支持秒、分、时、天,一般不能太快 |
总上所述我们就知道了一般传统的定时任务存在以下缺点:
1、性能瓶颈。只有一台机在处理,在大体量数据面前力不从心!
2、实效性差。定时任务的频率不能太高,太高会业务数据库造成很大的压力!
3、单点故障。万一跑的那台机挂了,那整个业务不可用了-。- 这是一个很可怕的事情!
所以传统定时任务也不太适合这个业务。。。
那我们是不是就束手无策了呢?其实不是的! 我们只要对传统的定时任务做一个简单的改造!就可以把它变成可以同时多机跑,并且实效性可以精确到秒级,并且拒绝单点故障的定时任务集群!这其中就要借助我们的强大的redis了。
首先我们要定义定时任务集群要解决的三个问题!
1、实效性要高
2、吞吐量要大
3、服务要稳定,不能有单点故障
下面是整个定时任务集群的架构图。
架构很简单:我们把用户的订阅推送记录存储到redis集群的sortedSet队列里面,并且以提醒用户提醒时间戳作为score值,然后在我们个每业务server里面起一个定时器频率是秒级,我的设定就是1s,然后经过负载均衡之后从某个队列里面获取要推送的用户记录进行推送。下面我们分析以下这个架构
1、性能:除去带宽等其它因素,基本与机器数成线性相关。机器数量越多吞吐量越大,机器数量少时相对的吞吐量就减少。
2、实效性:提高到了秒级,效果还可以接受。
3、单点故障?不存在的!除非redis集群或者所有server全挂了。。。。
第一redis 可以作为一个高性能的存储db,性能要比MySQL好很多,并且支持持久化,稳定性好。
第二redisSortedSet队列天然支持以时间作为条件排序,完美满足我们选出要推送的记录。
ok~既然方案已经有了那如何在一天时间内把这个方案落地呢?是的我设计出这个方案到基本编码完成,时间就是一天。。。 因为时间太赶鸟。
首先我们以user_id作为key,然后mod队列数hash到redis SortedSet队列里面。为什么要这样呢,因为如果用户同时订阅了两张劵并且推送时间很近,这样的两条推送就可以合并成一条~,并且这样hash也相对均匀。下面是部分代码的截图:
然后要决定队列的数量,一般正常来说我们有多少台处理的服务器就定义多少条队列。因为队列太少,会造成队列竞争,太多可能会导致记录得不到及时处理。
然而最佳实践是队列数量应该是可动态配置化的,因为线上的集群机器数是会经常变的。大促的时候我们会加机器是不是,并且业务量增长了,机器数也是会增加是不是~。所以我是借用了淘宝的diamond进行队列数的动态配置。
我们每次从队列里面取多少条记录也是可以动态配置的
这样就可以随时根据实际的生产情况调整整个集群的吞吐量~。 所以我们的定时任务集群还是具有一个特性就是支持动态调整~。
最后一个关键组件就是负载均衡了。这个是非常重要的!因为这个做得不好就会可能导致多台机竞争同时处理一个队列,影响整个集群的效率!在时间很紧的情况下我就用了一个简单实用的利用redis一个自增key 然后 mod 队列数量算法。这样就很大程度上就保证不会有两台机器同时去竞争一条队列~.
最后我们算一下整个集群的吞吐量
10(机器数) * 2000(一次拉取数) = 20000。然后以MQ的形式把消息推送到消息中心,发MQ是异步的,算上其它处理0.5s。
其实发送20W的推送也就是10几s的事情。
ok~ 到这里我们整个定时任务集群就差不多基本落地好了。如果你问我后面还有什么可以完善的话那就是:
1、加监控, 集群怎么可以木有监控呢,万一出问题有任务堆积怎么办~
2、加上可视化界面。
3、最好有智能调度,增加任务优先级。优先级高的任务先运行嘛。
4、资源调度,万一机器数量不够,力不从心,优先保证重要任务执行。
目前项目已上前线,运行平稳~。
到此这篇关于浅谈我是如何用redis做实时订阅推送的的文章就介绍到这了,更多相关redis 实时订阅推送内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!