使用倒排索引极速提高字符串搜索效率
在Python中,如果要判断一个字符串是否在另一个字符串里面,我们可以使用in
关键字,例如:
1 | >>> a = '你说我是买苹果电脑,还是买windows电脑呢?' |
如果有多个句子和多个关键字,那么可以使用for
循环来实现:
1 | sentences = ['你说我是买苹果电脑,还是买windows电脑呢?', |
运行效果如下图所示:
现在如果有100000000个句子,有1000个关键字,那么你需要对比1000亿次才能全部查询完成。这个时间代价太大了,如果Python一秒钟能运行500万次查询(实际上没有这么快),那么1000亿次查询需要20000秒,接近6小时。而且,由于in
关键字的时间复杂度为O(n)
,如果有大量长句子,查询时间会更长。
例如,我们要从下面的句子里面寻找CNM
。
1 | sentences = ['你说我是买苹果电脑,还是买windows电脑呢?', |
如果使用常规方法,那么我们的做法是:
CNM
在你说我是买苹果电脑,还是买windows电脑呢?
中吗?不在!CNM
在人生苦短我用Python
吗?不在!- ……
- ……
CNM
在我CNM你个大SB
吗?在!CNM
在各位同学,Good Morning!
吗?不在!CMN
在网络这个单词,它的英文为Network
吗?不在!CNM
在我不想听到有人说CNM!
吗?在!
于是就知道了,CNM
在sentences列表下标为4和7的这两个句子中。
下面,我们换一个看起来更笨的办法:
要找到CNM
在哪几句里面,可以变成:寻找C
、N
、M
这三个字母在哪几句里面。然后,再找到同时有这三个字母的句子:
C
在4, 7句N
在4,6,7句M
在2, 4,5,7句
所以,{4, 7} 与 {4, 6, 7} 与 {4, 5, 7}做交集,得到{4, 7}说明CNM
这个词很有可能是在第4句和第7句。
为什么说很可能呢?因为假如再添加一句话:今天我们学习三个单词:Cat, Network, Morning
。这一句也会被认为包含CNM
这个词,但实际上它只是同时包含了C
、N
、M
三个字母而已。
接下来,有人会问了:原来直接查询CNM
的时候,只需要查询8次就可以了。现在你分别查询C
N
M
要查询24次。你是修复了查询时间太短的bug吗?
回答这个问题之前,我们再来看另一个问题。
Python里面,当我要判断字母C
是不是在句子我不想听到有人说CNM!
里面时,Python是如何工作的?
实际上,它的工作原理可以写成:
1 | sentence = '我不想听到有人说CNM!' |
如果要判断C
、N
、M
是不是都在这个字符串我不想听到有人说CNM!
中,同一个字符串会被遍历3次。有没有办法减少这种看起来多余的遍历操作呢?
如果我们把我不想听到有人说CNM!
这个句子转成字典会怎么样:
1 | sentence = '我不想听到有人说CNM!' |
这样一来,只需要在生成字典的时候遍历句子一次,减少了2次冗余遍历。并且,判断一个元素是否在字典里面,时间复杂度为O(1)
,速度非常快。
我不想听到有人说CNM!
生成的字典为{'我': 1, '不': 1, '想': 1, '听': 1, '到': 1, '有': 1, '人': 1, '说': 1, 'C': 1, 'N': 1, 'M': 1, '!': 1}
。那么如果要把列表里面的所有句子都这样处理,又怎么存放呢?此时,字典的Key就是每一个字符,而Value可以是每一句话在原来列表中的索引:
1 | sentences = ['你说我是买苹果电脑,还是买windows电脑呢?', |
生成的字典为:
1 | {'B': {4}, |
生成的字典这么长,看起来非常可怕。但是别慌,毕竟不是你人肉寻找。对Python来说,字典里面无论有多少个Key,它的查询时间都是一样的。
现在,我们要寻找C
、N
、M
,于是代码可以写为:
1 | index_list = [] |
运行结果如下:
所以,对于一组需要被查询的关键字,也可以这样搜索:
1 | keywords = ['垃圾', 'CNM', 'SB', 'TM'] |
运行效果如下图所示:
看完这篇文章以后,你已经学会了倒排索引(Inverted-index)。这是Google搜索的核心算法之一。
可以看出,对于少量数据的搜索,倒排索引并不会比常规方法节约多少时间。但是当你有100000000条句子,1000个关键词的时候,用倒排索引实现搜索,所需要的时间只有常规方法的1/10甚至更少。
最后回到前面遇到的一个问题,当句子里面同时含有字母C
、N
、M
,虽然这三个字母并不是组合在一起的,也会被搜索出来。这就涉及到搜索引擎的另一个核心技术——分词
了。对于英文而言,使用空格来切分单词就好了。但是对于中文来说,不同的汉字组合在一起构成的词语,字数是不一样的。甚至有些专有名词,可能七八个字,但是也要作为整体来搜索。
分词的具体做法,又是另外一个故事了。