当前位置:知识百科 > 正文

Redis高频40问_Redis夺命40

更新时间:2024-12-24 02:52 阅读量:62061

Redis是什么?

Redis(Remote Dictionary Server)是一个使用 C 语言编写的,高性能非关系型的键值对数据库.与传统数据库不同的是,Redis 的数据是存在内存中的,所以读写速度非常快,被广泛应用于缓存方向.Redis可以将数据写入磁盘中,保证了数据的安全不丢失,而且Redis的操作是原子性的.

Redis优缺点?

优点:

基于内存操作,内存读写速度快.

支持多种数据类型,包括String、Hash、List、Set、ZSet等.

支持持久化.Redis支持RDB和AOF两种持久化机制,持久化功能可以有效地避免数据丢失问题.

支持事务.Redis的所有操作都是原子性的,同时Redis还支持对几个操作合并后的原子性执行.

支持主从复制.主节点会自动将数据同步到从节点,可以进行读写分离.

缺点:

对结构化查询的支持比较差.

数据库容量受到物理内存的限制,不适合用作海量数据的高性能读写,所以呢Redis适合的场景主要局限在较小数据量的操作.

Redis 较难支持在线扩容,在集群容量达到上限时在线扩容会变得很复杂.

Redis为什么这么快?

基于内存:Redis是使用内存存储,没有磁盘IO上的开销.数据存在内存中,读写速度快.

IO多路复用模型:Redis 采用 IO 多路复用技术.Redis 使用单线程来轮询描述符,将数据库的操作都转换成了事件,不在网络I/O上浪费过多的时间.

高效的数据结构:Redis 每种数据类型底层都做了优化,目的就是为了追求更快的速度.

本文已经收录到Github仓库,该仓库包含计算机基础、Java基础、多线程、JVM、数据库、Redis、Spring、Mybatis、SpringMVC、SpringBoot、分布式、微服务、设计模式、架构、校招社招分享等核心知识点,欢迎star~

如果访问不了Github,可以访问gitee地址.

gitee地址:https://gitee.com/tysondai/Java-learning

既然Redis那么快,为什么不用它做主数据库,只用它做缓存?

虽然Redis非常快,但它也有一些局限性,不能完全替代主数据库.有以下原因:

事务处理:Redis只支持简单的事务处理,对于复杂的事务无能为力,比如跨多个键的事务处理.

数据持久化:Redis是内存数据库,数据存储在内存中,如果服务器崩溃或断电,数据可能丢失.虽然Redis提供了数据持久化机制,但有一些限制.

数据处理:Redis只支持一些简单的数据结构,比如字符串、列表、哈希表等.如果需要处理复杂的数据结构,比如关系型数据库中的表,那么Redis可能不是一个好的选择.

数据安全:Redis没有提供像主数据库那样的安全机制,比如用户认证、访问控制等等.

所以呢,虽然Redis非常快,但它还有一些限制,不能完全替代主数据库.所以,使用Redis作为缓存是一种很好的方式,可以提高应用程序的性能,并减少数据库的负载.

讲讲Redis的线程模型?

文件事件处理器使用I/O多路复用(multiplexing)程序来同时监听多个套接字, 并根据套接字目前执行的任务来为套接字关联不同的事件处理器.

当被监听的套接字准备好执行连接accept、read、write、close等操作时, 与操作相对应的文件事件就会产生, 这时文件事件处理器就会调用套接字之前关联好的事件处理器来处理这些事件.

虽然文件事件处理器以单线程方式运行, 但通过使用 I/O 多路复用程序来监听多个套接字, 文件事件处理器既实现了高性能的网络通信模型, 又可以很好地与 redis 服务器中其他同样以单线程方式运行的模块进行对接, 这保持了 Redis 内部单线程设计的简单性.

Redis应用场景有哪些?

缓存热点数据,缓解数据库的压力.

利用 Redis 原子性的自增操作,可以实现计数器的功能,比如统计用户点赞数、用户访问数等.

分布式锁.在分布式场景下,无法使用单机环境下的锁来对多个节点上的进程进行同步.可以使用 Redis 自带的 SETNX 命令实现分布式锁,除此之外,还可以使用官方提供的 RedLock 分布式锁实现.

简单的消息队列,可以使用Redis自身的发布/订阅模式或者List来实现简单的消息队列,实现异步操作.

好友关系,利用集合的一些命令,比如交集、并集、差集等,实现共同好友、共同爱好之类的功能.

最全面的Java面试网站

Memcached和Redis的区别?

MemCached 数据结构单一,仅用来缓存数据,而 Redis 支持多种数据类型.

MemCached 不支持数据持久化,重启后数据会消失.Redis 支持数据持久化.

Redis 的速度比 Memcached 快很多.

为什么要用 Redis 而不用 map/guava 做缓存?

使用自带的 map 或者 guava 实现的是本地缓存,最主要的特点是轻量以及快速,生命周期随着 jvm 的销毁而结束,并且在多实例的情况下,每个实例都需要各自保存一份缓存,缓存不具有一致性.

使用 redis 或 memcached 之类的称为分布式缓存,在多实例的情况下,各实例共用一份缓存数据,缓存具有一致性.

Redis 数据类型有哪些?

基本数据类型:

特殊的数据类型:

①.、Bitmap:位图,可以认为是一个以位为单位数组,数组中的每个单元只能存0或者1,数组的下标在 Bitmap 中叫做偏移量.Bitmap的长度与集合中元素个数无关,而是与基数的上限有关.

SortedSet和List异同点?

相同点:

都是有序的;

都可以获得某个范围内的元素.

不同点:

列表基于链表实现,获取两端元素速度快,访问中间元素速度慢;

有序集合基于散列表和跳跃表实现,访问中间元素时间复杂度是OlogN;

列表不能简单的调整某个元素的位置,有序列表可以(更改元素的分数);

有序集合更耗内存.

Redis的内存用完了会怎样?

如果达到设置的上限,Redis的写命令会返回错误信息(但是读命令还可以正常返回).

也可以配置内存淘汰机制,当Redis达到内存上限时会冲刷掉旧的内容.

Redis如何做内存优化?

可以好好利用Hash,list,sorted set,set等集合类型数据,因为通常情况下很多小的Key-Value可以用更紧凑的方式存放到一起.尽可能使用散列表(hashes),散列表(是说散列表里面存储的数少)使用的内存非常小,所以你应该尽可能的将你的数据模型抽象到一个散列表里面.比如你的web系统中有一个用户对象,不要为这个用户的名称,姓氏,邮箱,密码设置单独的key,而是应该把这个用户的所有信息存储到一张散列表里面.

keys命令存在的问题?

redis的单线程的.keys指令会导致线程阻塞一段时间,直到执行完毕,服务才能恢复.scan采用渐进式遍历的方式来解决keys命令可能带来的阻塞问题,每次scan命令的时间复杂度是O(1),但是要真正实现keys的功能,需要执行多次scan.

scan的缺点:在scan的过程中如果有键的变化(增加、删除、修改),遍历过程可能会有以下问题:新增的键可能没有遍历到,遍历出了重复的键等情况,也就是说scan并不能保证完整的遍历出来所有的键.

Redis事务

事务的原理是将一个事务范围内的若干命令发送给Redis,然后再让Redis依次执行这些命令.

事务的生命周期:

使用MULTI开启一个事务

在开启事务的时候,每次操作的命令将会被插入到一个队列中,同时这个命令并不会被真的执行

EXEC命令进行提交事务

Redis高频40问

一个事务范围内某个命令出错不会影响其他命令的执行,不保证原子性:

127.0.0.1:6379> multi
OK
127.0.0.1:6379> set a 1
QUEUED
127.0.0.1:6379> set b 1 2
QUEUED
127.0.0.1:6379> set c 3
QUEUED
127.0.0.1:6379> exec
1) OK
2) (error) ERR syntax error
3) OK

WATCH命令

WATCH命令可以监控一个或多个键,一旦其中有一个键被修改,之后的事务就不会执行(类似于乐观锁).执行EXEC命令之后,就会自动取消监控.

127.0.0.1:6379> watch name
OK
127.0.0.1:6379> set name 1
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set name 2
QUEUED
127.0.0.1:6379> set gender 1
QUEUED
127.0.0.1:6379> exec
(nil)
127.0.0.1:6379> get gender
(nil)

比如上面的代码中:

watch name开启了对name这个key的监控

修改name的值

开启事务a

在事务a中设置了name和gender的值

使用EXEC命令进提交事务

使用命令get gender发现不存在,即事务a没有执行

使用UNWATCH可以取消WATCH命令对key的监控,所有监控锁将会被取消.

Redis事务支持隔离性吗?

Redis 是单进程程序,并且它保证在执行事务时,不会对事务进行中断,事务可以运行直到执行完所有事务队列中的命令为止.所以呢,Redis 的事务是总是带有隔离性的.

Redis事务保证原子性吗,支持回滚吗?

Redis单条命令是原子性执行的,但事务不保证原子性,且没有回滚.事务中任意命令执行失败,其余的命令仍会被执行.

持久化机制

持久化就是把内存的数据写到磁盘中,防止服务宕机导致内存数据丢失.

Redis支持两种方式的持久化,一种是RDB的方式,一种是AOF的方式.前者会根据指定的规则定时将内存中的数据存储在硬盘上,而后者在每次执行完命令后将命令记录下来.一般将两者结合使用.

RDB方式

RDB是 Redis 默认的持久化方案.RDB持久化时会将内存中的数据写入到磁盘中,在指定目录下生成一个dump.rdb文件.Redis 重启会加载dump.rdb文件恢复数据.

bgsave是主流的触发 RDB 持久化的方式,执行过程如下:

Redis高频40问

执行BGSAVE命令

Redis 父进程判断当前是否存在正在执行的子进程,如果存在,BGSAVE命令直接返回.

父进程执行fork操作创建子进程,fork操作过程中父进程会阻塞.

当子进程写完所有数据后会用该临时文件替换旧的 RDB 文件.

Redis启动时会读取RDB快照文件,将数据从硬盘载入内存.通过 RDB 方式的持久化,一旦Redis异常退出,就会丢失最近一次持久化以后更改的数据.

触发 RDB 持久化的方式:

被动触发:

根据配置规则进行自动快照,如SAVE 100 10,100秒内至少有10个键被修改则进行快照.

如果从节点执行全量复制操作,主节点会自动执行BGSAVE生成 RDB 文件并发送给从节点.

默认情况下执行shutdown命令时,如果没有开启 AOF 持久化功能则自动执行-BGSAVE-.

Redis 加载 RDB 恢复数据远远快于 AOF 的方式.

使用单独子进程来进行持久化,主进程不会进行任何 IO 操作,保证了 Redis 的高性能.

RDB方式数据无法做到实时持久化.因为BGSAVE每次运行都要执行fork操作创建子进程,属于重量级操作,频繁执行成本比较高.

RDB 文件使用特定二进制格式保存,Redis 版本升级过程中有多个格式的 RDB 版本,存在老版本 Redis 无法兼容新版 RDB 格式的问题.

AOF方式

AOF(append only file)持久化:以独立日志的方式记录每次写命令,Redis重启时会重新执行AOF文件中的命令达到恢复数据的目的.AOF的主要作用是解决了数据持久化的实时性,AOF 是Redis持久化的主流方式.

默认情况下Redis没有开启AOF方式的持久化,可以通过appendonly参数启用:appendonly yes.开启AOF方式持久化后每执行一条写命令,Redis就会将该命令写进aof_buf缓冲区,AOF缓冲区根据对应的策略向硬盘做同步操作.

appendfsync always //每次写入aof文件都会执行同步,最安全最慢,不建议配置
appendfsync everysec  //既保证性能也保证安全,建议配置
appendfsync no //由操作系统决定何时进行同步操作

此时此刻呢看一下 AOF 持久化执行流程:

Redis高频40问

所有的写入命令会追加到 AOP 缓冲区中.

AOF 缓冲区根据对应的策略向硬盘同步.

随着 AOF 文件越来越大,需要定期对 AOF 文件进行重写,达到压缩文件体积的目的.AOF文件重写是把Redis进程内的数据转化为写命令同步到新AOF文件的过程.

当 Redis 服务器重启时,可以加载 AOF 文件进行数据恢复.

AOF可以更好的保护数据不丢失,可以配置 AOF 每秒执行一次fsync操作,如果Redis进程挂掉,最多丢失1秒的数据.

AOF以append-only的模式写入,所以没有磁盘寻址的开销,写入性能非常高.

对于同一份文件AOF文件比RDB数据快照要大.

数据恢复比较慢.

RDB和AOF如何选择?

通常来说,应该同时使用两种持久化方案,以保证数据安全.

如果数据不敏感,且可以从其他地方重新生成,可以关闭持久化.

如果数据比较重要,且能够承受几分钟的数据丢失,比如缓存等,只需要使用RDB即可.

如果是用做内存数据,要使用Redis的持久化,建议是RDB和AOF都开启.

如果只用AOF,优先使用everysec的配置选择,因为它在可靠性和性能之间取了一个平衡.

当RDB与AOF两种方式都开启时,Redis会优先使用AOF恢复数据,因为AOF保存的文件比RDB文件更完整.

Redis有哪些部署方案?

主从模式:一主多从,主负责写,并且将数据复制到其它的 slave 节点,从节点负责读.所有的读请求全部走从节点.这样也可以很轻松实现水平扩容,支撑读高并发.master 节点挂掉后,需要手动指定新的 master,可用性不高,基本不用.

哨兵模式:主从复制存在不能自动故障转移、达不到高可用的问题.哨兵模式解决了这些问题.通过哨兵机制可以自动切换主从节点.master 节点挂掉后,哨兵进程会主动选举新的 master,可用性高,但是每个节点存储的数据是一样的,浪费内存空间.数据量不是很多,集群规模不是很大,需要自动容错容灾的时候使用.

主从架构

单机的 redis,能够承载的 QPS 大概就在上万到几万不等.对于缓存来说,一般都是用来支撑读高并发的.所以呢架构做成主从(master-slave)架构,一主多从,主负责写,并且将数据复制到其它的 slave 节点,从节点负责读.所有的读请求全部走从节点.这样也可以很轻松实现水平扩容,支撑读高并发.

Redis的复制功能是支持多个数据库之间的数据同步.主数据库可以进行读写操作,当主数据库的数据发生变化时会自动将数据同步到从数据库.从数据库一般是只读的,它会接收主数据库同步过来的数据.一个主数据库可以有多个从数据库,而一个从数据库只能有一个主数据库.

主从复制的原理?

当启动一个从节点时,它会发送一个 PSYNC 命令给主节点;

如果是从节点初次连接到主节点,那么会触发一次全量复制.此时主节点会启动一个后台线程,开始生成一份 RDB 快照文件;

接着主节点会将内存中缓存的写命令发送到从节点,从节点同步这些数据;

如果从节点跟主节点之间网络出现故障,连接断开了,会自动重连,连接之后主节点仅会将部分缺失的数据同步给从节点.

哨兵Sentinel

主从复制存在不能自动故障转移、达不到高可用的问题.哨兵模式解决了这些问题.通过哨兵机制可以自动切换主从节点.

Redis高频40问

工作原理

每个Sentinel以每秒钟一次的频率向它所知道的Master,Slave以及其他 Sentinel 实例发送一个 PING命令.

如果一个实例距离最后一次有效回复 PING 命令的时间超过指定值, 则这个实例会被 Sentine 标记为主观下线.

如果一个Master被标记为主观下线,则正在监视这个Master的所有 Sentinel 要以每秒一次的频率确认Master是否真正进入主观下线状态.

当有足够数量的 Sentinel(大于等于配置文件指定值)在指定的时间范围内确认Master的确进入了主观下线状态, 则Master会被标记为客观下线 .若没有足够数量的 Sentinel 同意 Master 已经下线, Master 的客观下线状态就会被解除. 若 Master重新向 Sentinel 的 PING 命令返回有效回复, Master 的主观下线状态就会被移除.

哨兵节点会选举出哨兵 leader,负责故障转移的工作.

哨兵 leader 会推选出某个表现良好的从节点成为新的主节点,然后通知其他从节点更新主节点信息.

Redis cluster

哨兵模式解决了主从复制不能自动故障转移、达不到高可用的问题,但还是存在主节点的写能力、容量受限于单机配置的问题.而cluster模式实现了Redis的分布式存储,每个节点存储不同的内容,解决主节点的写能力、容量受限于单机配置的问题.

Redis高频40问

工作原理:

每份数据分片会存储在多个互为主从的多节点上

数据写入先写主节点,再同步到从节点(支持配置为阻塞同步)

同一分片多个节点间的数据不保持一致性

扩容时时需要需要把旧节点的数据迁移一部分到新节点

无中心架构,支持动态扩容;

数据按照slot存储分布在多个节点,节点间数据共享,可动态调整数据分布;

高可用性.部分节点不可用时,集群仍可用.集群模式能够实现自动故障转移(failover),节点之间通过gossip协议交换状态信息,用投票机制完成Slave到Master的角色转换.

不支持批量操作(pipeline).

数据通过异步复制,不保证数据的强一致性.

事务操作支持有限,只支持多key在同一节点上的事务操作,当多个key分布于不同的节点上时无法使用事务功能.

key作为数据分区的最小粒度,不能将一个很大的键值对象如hash、list等映射到不同的节点.

只能使用0号数据库.

哈希分区算法有哪些?

节点取余分区.使用特定的数据,如Redis的键或用户ID,对节点数量N取余:hash(key)%N计算出哈希值,用来决定数据映射到哪一个节点上.优点是简单性.扩容时通常采用翻倍扩容,避免数据映射全部被打乱导致全量迁移的情况.

过期键的删除策略?

①.、被动删除.在访问key时,如果发现key已经过期,那么会将key删除.

内存淘汰策略有哪些?

当Redis的内存超过最大允许的内存之后,Redis 会触发内存淘汰策略,删除一些不常用的数据,以保证Redis服务器正常运行.

volatile-lru:LRU(Least Recently Used),最近使用.利用LRU算法移除设置了过期时间的key

allkeys-lru:当内存不足以容纳新写入数据时,从数据集中移除最近最少使用的key

volatile-ttl:从已设置过期时间的数据集中挑选将要过期的数据淘汰

volatile-random:从已设置过期时间的数据集中任意选择数据淘汰

allkeys-random:从数据集中任意选择数据淘汰

no-eviction:禁止删除数据,当内存不足以容纳新写入数据时,新写入操作会报错

volatile-lfu:LFU,Least Frequently Used,最少使用,从已设置过期时间的数据集中挑选最不经常使用的数据淘汰.

allkeys-lfu:当内存不足以容纳新写入数据时,从数据集中移除最不经常使用的key.

内存淘汰策略可以通过配置文件来修改,相应的配置项是maxmemory-policy,默认配置是noeviction.

如何保证缓存与数据库双写时的数据一致性?

①.、先删除缓存再更新数据库

进行更新操作时,先删除缓存,然后更新数据库,后续的请求再次读取时,会从数据库读取后再将新数据更新到缓存.

存在的问题:删除缓存数据之后,更新数据库完成之前,这个时间段内如果有新的读请求过来,就会从数据库读取旧数据重新写到缓存中,再次造成不一致,并且后续读的都是旧数据.

进行更新操作时,先更新MySQL,成功之后,删除缓存,后续读取请求时再将新数据回写缓存.

存在的问题:更新MySQL和删除缓存这段时间内,请求读取的还是缓存的旧数据,不过等数据库更新完成,就会恢复一致,影响相对比较小.

数据库的更新操作完成后不直接操作缓存,而是把这个操作命令封装成消息扔到消息队列中,然后由Redis自己去消费更新数据,消息队列可以保证数据操作顺序一致性,确保缓存系统的数据正常.

以上几个方案都不完美,需要根据业务需求,评估哪种方案影响较小,然后选择相应的方案.

缓存常见问题

缓存穿透

缓存穿透是指查询一个不存在的数据,由于缓存是不命中时被动写的,如果从DB查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到DB去查询,失去了缓存的意义.在流量大时,可能DB就挂掉了.

怎么解决?

缓存空值,不会查数据库.

采用布隆过滤器,将所有可能存在的数据哈希到一个足够大的bitmap中,查询不存在的数据会被这个bitmap拦截掉,从而避免了对DB的查询压力.

布隆过滤器的原理:当一个元素被加入集合时,通过K个哈希函数将这个元素映射成一个位数组中的K个点,把它们置为1.查询时,将元素通过哈希函数映射之后会得到k个点,如果这些点有任何一个0,则被检元素一定不在,直接返回;如果都是1,则查询元素很可能存在,就会去查询Redis和数据库.

布隆过滤器一般用于在大数据量的集合中判定某元素是否存在.

缓存雪崩

缓存雪崩是指在我们设置缓存时采用了相同的过期时间,导致缓存在某一时刻同时失效,请求全部转发到DB,DB瞬时压力过重挂掉.

解决方法:

在原有的失效时间基础上增加一个随机值,使得过期时间分散一些.这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件.

加锁排队可以起到缓冲的作用,防止大量的请求同时操作数据库,但它的缺点是增加了系统的响应时间,降低了系统的吞吐量,牺牲了一部分用户体验.当缓存未查询到时,对要请求的 key 进行加锁,只允许一个线程去数据库中查,其他线程等候排队.

设置二级缓存.二级缓存指的是除了 Redis 本身的缓存,再设置一层缓存,当 Redis 失效之后,先去查询二级缓存.例如可以设置一个本地缓存,在 Redis 缓存失效的时候先去查询本地缓存而非查询数据库.

缓存击穿

缓存击穿:大量的请求同时查询一个 key 时,此时这个 key 正好失效了,就会导致大量的请求都落到数据库.缓存击穿是查询缓存中失效的 key,而缓存穿透是查询不存在的 key.

①.、加互斥锁.在并发的多个请求中,只有第一个请求线程能拿到锁并执行数据库查询操作,其他的线程拿不到锁就阻塞等着,等到第一个线程将数据写入缓存后,直接走缓存.可以使用Redis分布式锁实现,代码如下:

public String get(String key) {
String value = redis.get(key);
if (value == null) { //缓存值过期
    String unique_key = systemId + ":" + key;
    //设置30s的超时
    if (redis.set(unique_key, 1, 'NX', 'PX', 30000) == 1) {  //设置成功
        value = db.get(key);
        redis.set(key, value, expire_secs);
        redis.del(unique_key);
    } else {  //其他线程已经到数据库取值并回写到缓存了,可以重试获取缓存值
        sleep(50);
        get(key);  //重试
    }
} else {
    return value;
}
}

缓存预热

缓存预热就是系统上线后,将相关的缓存数据直接加载到缓存系统.这样就可以避免在用户请求的时候,先查询数据库,然后再将数据缓存的问题!用户直接查询事先被预热的缓存数据!

解决方案:

直接写个缓存刷新页面,上线时手工操作一下;

数据量不大,可以在项目启动的时候自动进行加载;

定时刷新缓存;

缓存降级

当访问量剧增、服务出现问题(如响应时间慢或不响应)或非核心服务影响到核心流程的性能时,仍然需要保证服务还是可用的,即使是有损服务.系统可以根据一些关键数据进行自动降级,也可以配置开关实现人工降级.

缓存降级的最终目的是保证核心服务可用,即使是有损的.而且有些服务是无法降级的(如加入购物车、结算).

在进行降级之前要对系统进行梳理,看看系统是不是可以丢卒保帅;从而梳理出哪些必须誓死保护,哪些可降级;比如可以参考日志级别设置预案:

一般:比如有些服务偶尔因为网络抖动或者服务正在上线而超时,可以自动降级;

严重错误:比如因为特殊原因数据错误了,此时需要紧急人工降级.

服务降级的目的,是为了防止Redis服务故障,导致数据库跟着一起发生雪崩问题.所以呢,对于不重要的缓存数据,可以采取服务降级策略,例如一个比较常见的做法就是,Redis出现问题,不去数据库查询,而是直接返回默认值给用户.

Redis 怎么实现消息队列?

使用list类型保存数据信息,rpush生产消息,lpop消费消息,当lpop没有消息时,可以sleep一段时间,然后再检查有没有信息,如果不想sleep的话,可以使用blpop, 在没有信息的时候,会一直阻塞,直到信息的到来.

BLPOP queue 0  //0表示不限制等待时间

BLPOP和LPOP命令相似,唯一的区别就是当列表没有元素时BLPOP命令会一直阻塞连接,直到有新元素加入.

redis可以通过pub/sub主题订阅模式实现一个生产者,多个消费者,当然也存在一定的缺点,当消费者下线时,生产的消息会丢失.

PUBLISH channel1 hi
SUBSCRIBE channel1
UNSUBSCRIBE channel1 //退订通过SUBSCRIBE命令订阅的频道.

PSUBSCRIBE channel?* 按照规则订阅.PUNSUBSCRIBE channel?* 退订通过PSUBSCRIBE命令按照某种规则订阅的频道.其中订阅规则要进行严格的字符串匹配,PUNSUBSCRIBE *无法退订channel?*规则.

Redis 怎么实现延时队列

使用sortedset,拿时间戳作为score,消息内容作为key,调用zadd来生产消息,消费者用zrangebyscore指令获取N秒之前的数据轮询进行处理.

pipeline的作用?

原生批命令(mset和mget)与pipeline对比:

原生批命令是原子性,pipeline是非原子性.pipeline命令中途异常退出,之前执行成功的命令不会回滚.

原生批命令只有一个命令,但pipeline支持多命令.

LUA脚本

Redis 通过 LUA 脚本创建具有原子性的命令: 当lua脚本命令正在运行的时候,不会有其他脚本或 Redis 命令被执行,实现组合命令的原子操作.

在Redis中执行Lua脚本有两种方法:eval和evalsha.eval命令使用内置的 Lua 解释器,对 Lua 脚本进行求值.

//第一个参数是lua脚本,第二个参数是键名参数个数,剩下的是键名参数和附加参数
> eval "return {KEYS[1],KEYS[2],ARGV[1],ARGV[2]}" 2 key1 key2 first second
1) "key1"
2) "key2"
3) "first"
4) "second"

lua脚本作用

①.、Lua脚本在Redis中是原子执行的,执行过程中间不会插入其他命令.

应用场景

举例:限制接口访问频率.

在Redis维护一个接口访问次数的键值对,key是接口名称,value是访问次数.每次访问接口时,会执行以下操作:

通过aop拦截接口的请求,对接口请求进行计数,每次进来一个请求,相应的接口访问次数count加1,存入redis.

如果是第一次请求,则会设置count=1,并设置过期时间.因为这里set()和expire()组合操作不是原子操作,所以引入lua脚本,实现原子操作,避免并发访问问题.

如果给定时间范围内超过最大访问次数,则会抛出异常.

private String buildLuaScript() {
return "local c" +
    "\nc = redis.call('get',KEYS[1])" +
    "\nif c and tonumber(c) > tonumber(ARGV[1]) then" +
    "\nreturn c;" +
    "\nend" +
    "\nc = redis.call('incr',KEYS[1])" +
    "\nif tonumber(c) == 1 then" +
    "\nredis.call('expire',KEYS[1],ARGV[2])" +
    "\nend" +
    "\nreturn c;";
}

String luaScript = buildLuaScript();
RedisScript redisScript = new DefaultRedisScript<>(luaScript, Number.class);
Number count = redisTemplate.execute(redisScript, keys, limit.count(), limit.period());

PS:这种接口限流的实现方式比较简单,问题也比较多,一般不会使用,接口限流用的比较多的是令牌桶算法和漏桶算法.

什么是RedLock?

Redis 官方站提出了一种权威的基于 Redis 实现分布式锁的方式名叫 Redlock,此种方式比原先的单节点的方法更安全.它可以保证以下特性:

安全特性:互斥访问,即永远只有一个 client 能拿到锁

避免死锁:最终 client 都可能拿到锁,不会出现死锁的情况,即使原本锁住某资源的 client 挂掉了

容错性:只要大部分 Redis 节点存活就可以正常提供服务

Redis大key怎么处理?

通常我们会将含有较大数据或含有大量成员、列表数的Key称之为大Key.

以下是对各个数据类型大key的描述:

value是ZSET、Hash、List、Set等集合类型时,它的成员数量超过1w个

上述的定义并不绝对,主要是根据value的成员数量和大小来确定,根据业务场景确定标准.

怎么处理:

当vaule是string时,可以使用序列化、压缩算法将key的大小控制在合理范围内,但是序列化和反序列化都会带来更多时间上的消耗.或者将key进行拆分,一个大key分为不同的部分,记录每个部分的key,使用multiget等操作实现事务读取.

当value是list/set等集合类型时,根据预估的数据规模来进行分片,不同的元素计算后分到不同的片.

Redis常见性能问题和解决方案?

Master最好不要做任何持久化工作,包括内存快照和AOF日志文件,特别是不要启用内存快照做持久化.

如果数据比较关键,某个Slave开启AOF备份数据,策略为每秒同步一次.

为了主从复制的速度和连接的稳定性,Slave和Master最好在同一个局域网内.

尽量避免在压力较大的主库上增加从库

Master调用BGREWRITEAOF重写AOF文件,AOF在重写的时候会占大量的CPU和内存资源,导致服务load过高,出现短暂服务暂停现象.

说说为什么Redis过期了为什么内存没释放?

第一种情况,可能是覆盖之前的key,导致key过期时间发生了改变.

当一个key在Redis中已经存在了,但是由于一些误操作使得key过期时间发生了改变,从而导致这个key在应该过期的时间内并没有过期,从而造成内存的占用.

第二种情况是,Redis过期key的处理策略导致内存没释放.

一般Redis对过期key的处理策略有两种:惰性删除和定时删除.

先说惰性删除的情况

当一个key已经确定设置了xx秒过期同时中间也没有修改它,xx秒之后它确实已经过期了,但是惰性删除的策略它并不会马上删除这个key,而是当再次读写这个key时它才会去检查是否过期,如果过期了就会删除这个key.也就是说,惰性删除策略下,就算key过期了,也不会立刻释放内容,要等到下一次读写这个key才会删除key.

而定时删除会在一定时间内主动淘汰一部分已经过期的数据,默认的时间是每100ms过期一次.因为定时删除策略每次只会淘汰一部分过期key,而不是所有的过期key,如果redis中数据比较多的话要是一次性全量删除对服务器的压力比较大,每一次只挑一批进行删除,所以很可能出现部分已经过期的key并没有及时的被清理掉,从而导致内存没有即时被释放.

Redis突然变慢,有哪些原因?

存在bigkey.如果Redis实例中存储了 bigkey,那么在淘汰删除 bigkey 释放内存时,也会耗时比较久.应该避免存储 bigkey,降低释放内存的耗时.

如果Redis 实例设置了内存上限 maxmemory,有可能导致 Redis 变慢.当 Redis 内存达到 maxmemory 后,每次写入新的数据之前,Redis 必须先从实例中踢出一部分数据,让整个实例的内存维持在 maxmemory 之下,然后才能把新数据写进来.

开启了内存大页.当 Redis 在执行后台 RDB 和 AOF rewrite 时,采用 fork 子进程的方式来处理.但主进程 fork 子进程后,此时的主进程依旧是可以接收写请求的,而进来的写请求,会采用 Copy On Write(写时复制)的方式操作内存数据.

什么是写时复制?

这样做的好处是,父进程有任何写操作,并不会影响子进程的数据持久化.

解决方案就是关闭内存大页机制.

使用了Swap.操作系统为了缓解内存不足对应用程序的影响,允许把一部分内存中的数据换到磁盘上,以达到应用程序对内存使用的缓冲,这些内存数据被换到磁盘上的区域,就是 Swap.当内存中的数据被换到磁盘上后,Redis 再访问这些数据时,就需要从磁盘上读取,访问磁盘的速度要比访问内存慢几百倍.尤其是针对 Redis 这种对性能要求极高、性能极其敏感的数据库来说,这个操作延时是无法接受的.解决方案就是增加机器的内存,让 Redis 有足够的内存可以使用.或者整理内存空间,释放出足够的内存供 Redis 使用

频繁短连接.频繁的短连接会导致 Redis 大量时间耗费在连接的建立和释放上,TCP 的三次握手和四次挥手同样也会增加访问延迟.应用应该使用长连接操作 Redis,避免频繁的短连接.

为什么 Redis 集群的最大槽数是 16384 个?

Redis每个节点之间会定期发送ping/pong消息(心跳包包含了其他节点的数据),用于交换数据信息.

Redis集群的节点会按照以下规则发ping消息:

心跳包的消息头里面有个myslots的char数组,是一个bitmap,每一个位代表一个槽,如果该位为1,表示这个槽是属于这个节点的.

Redis高频40问

Redis高频40问