Skip to content

Commit 5854bb9

Browse files
authored
Merge pull request Snailclimb#1252 from TommyMerlin/master
修正若干错别字
2 parents 0026f53 + 09e88e4 commit 5854bb9

File tree

4 files changed

+79
-86
lines changed

4 files changed

+79
-86
lines changed

docs/dataStructures-algorithms/data-structure/bloom-filter.md

Lines changed: 45 additions & 45 deletions
Original file line numberDiff line numberDiff line change
@@ -39,7 +39,7 @@
3939

4040
![布隆过滤器hash计算](https://my-blog-to-use.oss-cn-beijing.aliyuncs.com/2019-11/布隆过滤器-hash运算.png)
4141

42-
如图所示,当字符串存储要加入到布隆过滤器中时,该字符串首先由多个哈希函数生成不同的哈希值,然后在对应的位数组的下表的元素设置为 1(当位数组初始化时 ,所有位置均为0)。当第二次存储相同字符串时,因为先前的对应位置已设置为 1,所以很容易知道此值已经存在(去重非常方便)。
42+
如图所示,当字符串存储要加入到布隆过滤器中时,该字符串首先由多个哈希函数生成不同的哈希值,然后将对应的位数组的下标设置为 1(当位数组初始化时,所有位置均为0)。当第二次存储相同字符串时,因为先前的对应位置已设置为 1,所以很容易知道此值已经存在(去重非常方便)。
4343

4444
如果我们需要判断某个字符串是否在布隆过滤器中时,只需要对给定字符串再次进行相同的哈希计算,得到值之后判断位数组中的每个元素是否都为 1,如果值都为 1,那么说明这个值在布隆过滤器中,如果存在一个值不为 1,说明该元素不在布隆过滤器中。
4545

@@ -147,15 +147,15 @@ public class MyBloomFilter {
147147
测试:
148148

149149
```java
150-
String value1 = "https://javaguide.cn/";
151-
String value2 = "https://github.com/Snailclimb";
152-
MyBloomFilter filter = new MyBloomFilter();
153-
System.out.println(filter.contains(value1));
154-
System.out.println(filter.contains(value2));
155-
filter.add(value1);
156-
filter.add(value2);
157-
System.out.println(filter.contains(value1));
158-
System.out.println(filter.contains(value2));
150+
String value1 = "https://javaguide.cn/";
151+
String value2 = "https://github.com/Snailclimb";
152+
MyBloomFilter filter = new MyBloomFilter();
153+
System.out.println(filter.contains(value1));
154+
System.out.println(filter.contains(value2));
155+
filter.add(value1);
156+
filter.add(value2);
157+
System.out.println(filter.contains(value1));
158+
System.out.println(filter.contains(value2));
159159
```
160160

161161
Output:
@@ -170,15 +170,15 @@ true
170170
测试:
171171

172172
```java
173-
Integer value1 = 13423;
174-
Integer value2 = 22131;
175-
MyBloomFilter filter = new MyBloomFilter();
176-
System.out.println(filter.contains(value1));
177-
System.out.println(filter.contains(value2));
178-
filter.add(value1);
179-
filter.add(value2);
180-
System.out.println(filter.contains(value1));
181-
System.out.println(filter.contains(value2));
173+
Integer value1 = 13423;
174+
Integer value2 = 22131;
175+
MyBloomFilter filter = new MyBloomFilter();
176+
System.out.println(filter.contains(value1));
177+
System.out.println(filter.contains(value2));
178+
filter.add(value1);
179+
filter.add(value2);
180+
System.out.println(filter.contains(value1));
181+
System.out.println(filter.contains(value2));
182182
```
183183

184184
Output:
@@ -190,61 +190,61 @@ true
190190
true
191191
```
192192

193-
### 5.利用Google开源的 Guava中自带的布隆过滤器
193+
### 5.利用 Google 开源的 Guava 中自带的布隆过滤器
194194

195195
自己实现的目的主要是为了让自己搞懂布隆过滤器的原理,Guava 中布隆过滤器的实现算是比较权威的,所以实际项目中我们不需要手动实现一个布隆过滤器。
196196

197197
首先我们需要在项目中引入 Guava 的依赖:
198198

199199
```java
200-
<dependency>
201-
<groupId>com.google.guava</groupId>
202-
<artifactId>guava</artifactId>
203-
<version>28.0-jre</version>
204-
</dependency>
200+
<dependency>
201+
<groupId>com.google.guava</groupId>
202+
<artifactId>guava</artifactId>
203+
<version>28.0-jre</version>
204+
</dependency>
205205
```
206206

207207
实际使用如下:
208208

209209
我们创建了一个最多存放 最多 1500个整数的布隆过滤器,并且我们可以容忍误判的概率为百分之(0.01)
210210

211211
```java
212-
// 创建布隆过滤器对象
213-
BloomFilter<Integer> filter = BloomFilter.create(
214-
Funnels.integerFunnel(),
215-
1500,
216-
0.01);
217-
// 判断指定元素是否存在
218-
System.out.println(filter.mightContain(1));
219-
System.out.println(filter.mightContain(2));
220-
// 将元素添加进布隆过滤器
221-
filter.put(1);
222-
filter.put(2);
223-
System.out.println(filter.mightContain(1));
224-
System.out.println(filter.mightContain(2));
212+
// 创建布隆过滤器对象
213+
BloomFilter<Integer> filter = BloomFilter.create(
214+
Funnels.integerFunnel(),
215+
1500,
216+
0.01);
217+
// 判断指定元素是否存在
218+
System.out.println(filter.mightContain(1));
219+
System.out.println(filter.mightContain(2));
220+
// 将元素添加进布隆过滤器
221+
filter.put(1);
222+
filter.put(2);
223+
System.out.println(filter.mightContain(1));
224+
System.out.println(filter.mightContain(2));
225225
```
226226

227-
在我们的示例中,当`mightContain()` 方法返回*true*时,我们可以99%确定该元素在过滤器中,当过滤器返回*false*时,我们可以100%确定该元素不存在于过滤器中。
227+
在我们的示例中,当`mightContain()` 方法返回 *true* 时,我们可以99%确定该元素在过滤器中,当过滤器返回 *false* 时,我们可以100%确定该元素不存在于过滤器中。
228228

229229
**Guava 提供的布隆过滤器的实现还是很不错的(想要详细了解的可以看一下它的源码实现),但是它有一个重大的缺陷就是只能单机使用(另外,容量扩展也不容易),而现在互联网一般都是分布式的场景。为了解决这个问题,我们就需要用到 Redis 中的布隆过滤器了。**
230230

231231
### 6.Redis 中的布隆过滤器
232232

233-
#### 6.1介绍
233+
#### 6.1 介绍
234234

235235
Redis v4.0 之后有了 Module(模块/插件) 功能,Redis Modules 让 Redis 可以使用外部模块扩展其功能 。布隆过滤器就是其中的 Module。详情可以查看 Redis 官方对 Redis Modules 的介绍 :https://redis.io/modules
236236

237-
另外,官网推荐了一个 RedisBloom 作为 Redis 布隆过滤器的 Module,地址:https://github.com/RedisBloom/RedisBloom. 其他还有:
237+
另外,官网推荐了一个 RedisBloom 作为 Redis 布隆过滤器的 Module地址:https://github.com/RedisBloom/RedisBloom其他还有:
238238

239-
- redis-lua-scaling-bloom-filter (lua 脚本实现):https://github.com/erikdubbelboer/redis-lua-scaling-bloom-filter
239+
- redis-lua-scaling-bloom-filter(lua 脚本实现):https://github.com/erikdubbelboer/redis-lua-scaling-bloom-filter
240240
- pyreBloom(Python中的快速Redis 布隆过滤器) :https://github.com/seomoz/pyreBloom
241241
- ......
242242

243243
RedisBloom 提供了多种语言的客户端支持,包括:Python、Java、JavaScript 和 PHP。
244244

245-
#### 6.2使用Docker安装
245+
#### 6.2 使用Docker安装
246246

247-
如果我们需要体验 Redis 中的布隆过滤器非常简单,通过 Docker 就可以了!我们直接在 Google 搜索**docker redis bloomfilter** 然后在排除广告的第一条搜素结果就找到了我们想要的答案(这是我平常解决问题的一种方式,分享一下),具体地址:https://hub.docker.com/r/redislabs/rebloom/ (介绍的很详细 )。
247+
如果我们需要体验 Redis 中的布隆过滤器非常简单,通过 Docker 就可以了!我们直接在 Google 搜索 **docker redis bloomfilter** 然后在排除广告的第一条搜素结果就找到了我们想要的答案(这是我平常解决问题的一种方式,分享一下),具体地址:https://hub.docker.com/r/redislabs/rebloom/ (介绍的很详细 )。
248248

249249
**具体操作如下:**
250250

@@ -257,7 +257,7 @@ root@21396d02c252:/data# redis-cli
257257

258258
#### 6.3常用命令一览
259259

260-
> 注意: key:布隆过滤器的名称,item : 添加的元素。
260+
> 注意: key : 布隆过滤器的名称,item : 添加的元素。
261261
262262
1. **`BF.ADD `**:将元素添加到布隆过滤器中,如果该过滤器尚不存在,则创建该过滤器。格式:`BF.ADD {key} {item}`
263263
2. **`BF.MADD `** : 将一个或多个元素添加到“布隆过滤器”中,并创建一个尚不存在的过滤器。该命令的操作方式`BF.ADD`与之相同,只不过它允许多个输入并返回多个值。格式:`BF.MADD {key} {item} [item ...]`

docs/database/Redis/Redis持久化.md

Lines changed: 3 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -7,7 +7,7 @@
77

88
**很多时候我们需要持久化数据也就是将内存中的数据写入到硬盘里面,大部分原因是为了之后重用数据(比如重启机器、机器故障之后回复数据),或者是为了防止系统故障而将数据备份到一个远程位置。**
99

10-
Redis不同于Memcached的很重一点就是**Redis支持持久化**,而且支持两种不同的持久化操作。Redis的一种持久化方式叫**快照(snapshotting,RDB)**,另一种方式是**只追加文件(append-only file,AOF)**.这两种方法各有千秋,下面我会详细这两种持久化方法是什么,怎么用,如何选择适合自己的持久化方法。
10+
Redis不同于Memcached的很重要一点就是**Redis支持持久化**,而且支持两种不同的持久化操作。Redis的一种持久化方式叫**快照(snapshotting,RDB)**另一种方式是**只追加文件(append-only file,AOF)**这两种方法各有千秋,下面我会详细这两种持久化方法是什么,怎么用,如何选择适合自己的持久化方法。
1111

1212
## 快照(snapshotting)持久化
1313

@@ -16,8 +16,8 @@ Redis可以通过创建快照来获得存储在内存里面的数据在某个时
1616
![春夏秋冬又一春](https://user-gold-cdn.xitu.io/2018/6/13/163f97568281782a?w=600&h=329&f=jpeg&s=88616)
1717

1818
**快照持久化是Redis默认采用的持久化方式**,在redis.conf配置文件中默认有此下配置:
19-
```
2019

20+
```
2121
save 900 1 #在900秒(15分钟)之后,如果至少有1个key发生变化,Redis就会自动触发BGSAVE命令创建快照。
2222
2323
save 300 10 #在300秒(5分钟)之后,如果至少有10个key发生变化,Redis就会自动触发BGSAVE命令创建快照。
@@ -39,8 +39,6 @@ save 60 10000 #在60秒(1分钟)之后,如果至少有10000个key发生
3939

4040
如果系统真的发生崩溃,用户将丢失最近一次生成快照之后更改的所有数据。因此,快照持久化只适用于即使丢失一部分数据也不会造成一些大问题的应用程序。不能接受这个缺点的话,可以考虑AOF持久化。
4141

42-
43-
4442
## **AOF(append-only file)持久化**
4543
与快照持久化相比,AOF持久化 的实时性更好,因此已成为主流的持久化方案。默认情况下Redis没有开启AOF(append only file)方式的持久化,可以通过appendonly参数开启:
4644

@@ -55,7 +53,6 @@ appendonly yes
5553
**在Redis的配置文件中存在三种同步方式,它们分别是:**
5654

5755
```
58-
5956
appendfsync always #每次有数据修改发生时都会写入AOF文件,这样会严重降低Redis的速度
6057
appendfsync everysec #每秒钟同步一次,显示地将多个写命令同步到硬盘
6158
appendfsync no #让操作系统决定何时进行同步
@@ -65,7 +62,6 @@ appendfsync no #让操作系统决定何时进行同步
6562

6663
为了兼顾数据和写入性能,用户可以考虑 **appendfsync everysec选项** ,让Redis每秒同步一次AOF文件,Redis性能几乎没受到任何影响。而且这样即使出现系统崩溃,用户最多只会丢失一秒之内产生的数据。当硬盘忙于执行写入操作的时候,Redis还会优雅的放慢自己的速度以便适应硬盘的最大写入速度。
6764

68-
6965
**appendfsync no** 选项一般不推荐,这种方案会使Redis丢失不定量的数据而且如果用户的硬盘处理写入操作的速度不够的话,那么当缓冲区被等待写入的数据填满时,Redis的写入操作将被阻塞,这会导致Redis的请求速度变慢。
7066

7167
**虽然AOF持久化非常灵活地提供了多种不同的选项来满足不同应用程序对数据安全的不同要求,但AOF持久化也有缺陷——AOF文件的体积太大。**
@@ -100,7 +96,7 @@ auto-aof-rewrite-min-size 64mb
10096

10197
无论是AOF持久化还是快照持久化,将数据持久化到硬盘上都是非常有必要的,但除了进行持久化外,用户还必须对持久化得到的文件进行备份(最好是备份到不同的地方),这样才能尽量避免数据丢失事故发生。如果条件允许的话,最好能将快照文件和重新重写的AOF文件备份到不同的服务器上面。
10298

103-
随着负载量的上升,或者数据的完整性变得 越来越重要时,用户可能需要使用到复制特性。
99+
随着负载量的上升,或者数据的完整性变得越来越重要时,用户可能需要使用到复制特性。
104100

105101
## Redis 4.0 对于持久化机制的优化
106102
Redis 4.0 开始支持 RDB 和 AOF 的混合持久化(默认关闭,可以通过配置项 `aof-use-rdb-preamble` 开启)。
@@ -113,4 +109,3 @@ Redis 4.0 开始支持 RDB 和 AOF 的混合持久化(默认关闭,可以通
113109

114110
[深入学习Redis(2):持久化](https://www.cnblogs.com/kismetv/p/9137897.html)
115111

116-

0 commit comments

Comments
 (0)