微立顶科技

新闻资讯

创新 服务 价值

  高并发扣减库存方案(秒杀扣减库存)

发布日期:2022/9/7 10:37:15      浏览量:

背景

我们在做电商的时候,经常遇到下单之后需要扣减库存的业务,那这个业务我们怎么来实现呢?


传统的做法是:

  1. 用户下单,执行下单服务;
  2. 同时,扣减库存;

如果是并发较高的场景,为了保证可用和性能,那么采用二阶段事务的方式,或者消息队列的方式,都可以实现。

但是,多个线程同时执行下单服务,库存服务,这样,会出现什么问题呢?

由于扣减服务中的逻辑并不是原子操作,必然会出现数据不一致的情况,比如,当前库存数量为 1,此时多个线程同时校验库存符合预期,但结果库存为 1 满足了多个线程,显然是不符合预期的,这样,就会导致库存不足的情况。

我们对扣减库存所需要关注的技术点如下:

  1. 当前剩余的数量大于等于当前需要扣减的数量,不允许超卖;
  2. 对于同一个数据的数量存在用户并发扣减,需要保证并发的一致性;
  3. 需要保证可用性和性能,性能至少是秒级;
  4. 一次的扣减包含多个目标数量;
  5. 当次扣减有多个数量时,其中一个扣减不成功即不成功,需要回滚;
  6. 必须有扣减才能有归还;
  7. 返还的数量必须要加回,不能丢失;
  8. 一次扣减可以有多次返还;
  9. 返还需要保证幂等性;
基于 MySQL 进行扣减

顾名思义,就是扣减业务完全依赖 MySQL 等数据库来完成。而不依赖一些其他的中间件或者缓存。纯数据库实现的好处就是逻辑简单,开发以及部署成本低。(适用于中小型电商)。

纯数据库的实现之所以能够满足扣减业务的各项功能要求,主要依赖两点:

  1. 基于数据库的乐观锁方式保证并发扣减的强一致性;
  2. 基于数据库的事务实现批量扣减失败进行回滚。

流程图如下:

 

有一句话说的非常好:一次完整的流程就是先进行数据校验,在其中做一些参数格式校验,这里做接口开发的时候,要保持一个原则就是不信任原则,一切数据都不要相信,都需要做校验判断。

1

update xxx set leavedAmount=leavedAmount-currentAmount where skuid=’xxx’ and leavedAmount>=currentAmount;

此 SQL 采用了类似乐观锁的方式实现了原子性。在 where 后面判断剩余数量大于等于需要的数量,才能成功,否则失败。

扣减完成之后,需要记录流水数据。每一次扣减的时候,都需要外部用户传入一个 uuid 作为流水编号,此编号是全局唯一的。用户在扣减时传入唯一的编号有两个作用:

  • 当用户归还数量时,需要带回此编码,用来标识此次返还属于历史上的哪次扣减
  • 进行幂等性控制。当用户调用扣减接口出现超时时,因为用户不知道是否成功,用户可以采用此编号进行重试或反查,在重试时,使用此编号进行标识防重;

库存校验这一步涉及到了读请求,那么必然增加了数据库的压力,所以需要做一些优化。

  1. 读写分离;

整体的升级策略采用读写分离的方式,另外主从复制直接使用 MySQL 等数据库已有的功能,改动上非常小,只要在扣减服务里配置两个数据源。当客户查询剩余库存,扣减服务中的前置校验时,读取从数据库即可。而真正的数据扣减还是使用主数据库。

读写分离之后,根据二八原则,80% 的均为读流量,主库的压力降低了 80%。但采用了读写分离也会导致读取的数据不准确的问题,不过库存数量本身就在实时变化,短暂的差异业务上是可以容忍的,最终的实际扣减会保证数据的准确性。

  1. 增加缓存;

在上面基础上,还可以升级,增加缓存:

缓存实现扣减

 

这和前面的扣减库存其实是一样的。但是此时扣减服务依赖的是 Redis 而不是数据库了。

这里针对 Redis 的 hash 结构不支持多个 key 的批量操作问题,我们可以采用Redis+lua 脚本来实现批量扣减单线程请求。

但,升级成纯 Redis 实现扣减也会有问题:

  • Redis 挂了:如果还没有执行到扣减 Redis 里面库存的操作挂了,只需要返回给客户端失败即可。如果已经执行到 Redis 扣减库存之后挂了,那这时候就需要有一个对账程序。通过对比 Redis 与数据库中的数据是否一致,并结合扣减服务的日志。当发现数据不一致同时日志记录扣减失败时,可以将数据库比 Redis 多的库存数据在Redis 进行加回
  • Redis 扣减完成,异步刷新数据库失败了。此时 Redis 里面的数据是准的,数据库的库存是多的。在结合扣减服务的日志确定是 Redis 扣减成功到但异步记录数据失败后,可以将数据库比 Redis 多的库存数据在数据库中进行扣减

虽然使用纯 Redis 方案可以提高并发量,但是因为 Redis 不具备事务特性,极端情况下会存在 Redis 的数据无法回滚,导致出现少卖的情况。也可能发生异步写库失败,导致多扣的数据再也无法找回的情况。

数据库+缓存

在此之前,先阐述一下顺序写的性能较好。

在向磁盘进行数据操作时,向文件末尾不断追加写入的性能要远大于随机修改的性能。因为对于传统的机械硬盘来说,每一次的随机更新都需要机械键盘的磁头在硬盘的盘面上进行寻址,再去更新目标数据,这种方式十分消耗性能。而向文件末尾追加写入,每一次的写入只需要磁头一次寻址,将磁头定位到文件末尾即可,后续的顺序写入不断追加即可。

对于固态硬盘来说,虽然避免了磁头移动,但依然存在一定的寻址过程。此外,对文件内容的随机更新和数据库的表更新比较类似,都存在加锁带来的性能消耗。

数据库同样是插入要比更新的性能好。对于数据库的更新,为了保证对同一条数据并发更新的一致性,会在更新时增加锁,但加锁是十分消耗性能的。此外,对于没有索引的更新条件,要想找到需要更新的那条数据,需要遍历整张表,时间复杂度为 O(N)。而插入只在末尾进行追加,性能非常好

上述的架构和纯缓存的架构区别在于,写入数据库不是异步写入,而是在扣减的时候同步写入。同步写入数据库使用的是 insert 操作,就是顺序写,而不是 update 做数据库数量的修改,所以,性能会更好。

insert 的数据库称为任务库,它只存储每次扣减的原始数据,而不做真实扣减(即不进行 update)。它的表结构大致如下:

1
2
3
4

create table task{
id bigint not null comment "任务顺序编号",
task_id bigint not null
}

任务表里存储的内容格式可以为 JSON、XML 等结构化的数据。以 JSON 为例,数据内容大致可以如下:

{
"扣减号":uuid,
"skuid1":"数量",
"skuid2":"数量",
"xxxx":"xxxx"
}

这里我们肯定是还有一个记录业务数据的库,这里存储的是真正的扣减名企和 SKU 的汇总数据。对于另一个库里面的数据,只需要通过这个表进行异步同步就好了。

扣减流程:

这里和纯缓存的区别在于增加了事务开启与回滚的步骤,以及同步的数据库写入流程。

任务库里存储的是纯文本的 JSON 数据,无法被直接使用。需要将其中的数据转储至实际的业务库里。业务库里会存储两类数据,一类是每次扣减的流水数据,它与任务表里的数据区别在于它是结构化,而不是 JSON 文本的大字段内容。另外一类是汇总数据,即每一个 SKU 当前总共有多少量,当前还剩余多少量(即从任务库同步时需要进行扣减的),表结构大致如下:

create table 流水表{
id bigint not null,
uuid bigint not null comment ’扣减编号’,
sku_id bigint not null comment ’商品编号’,
num int not null comment ’当次扣减的数量’
}comment ’扣减流水表’

商品的实时数据汇总表,结构如下:

create table 汇总表{
id bitint not null,
sku_id unsigned bigint not null comment ’商品编号’,
total_num unsigned int not null comment ’总数量’,
leaved_num unsigned int not null comment ’当前剩余的商品数量’
}comment ’记录表’

在整体的流程上,还是复用了上一讲纯缓存的架构流程。当新加入一个商品,或者对已有商品进行补货时,对应的新增商品数量都会通过 Binlog 同步至缓存里。在扣减时,依然以缓存中的数量为准:



  业务实施流程

需求调研 →

团队组建和动员 →

数据初始化 →

调试完善 →

解决方案和选型 →

硬件网络部署 →

系统部署试运行 →

系统正式上线 →

合作协议

系统开发/整合

制作文档和员工培训

售后服务

马上咨询: 如果您有业务方面的问题或者需求,欢迎您咨询!我们带来的不仅仅是技术,还有行业经验积累。
QQ: 39764417/308460098     Phone: 13 9800 1 9844 / 135 6887 9550     联系人:石先生/雷先生