日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷(xiāo)解決方案
用Python實(shí)現(xiàn)一個(gè)大數(shù)據(jù)搜索引擎

搜索是大數(shù)據(jù)領(lǐng)域里常見(jiàn)的需求。Splunk和ELK分別是該領(lǐng)域在非開(kāi)源和開(kāi)源領(lǐng)域里的***。本文利用很少的Python代碼實(shí)現(xiàn)了一個(gè)基本的數(shù)據(jù)搜索功能,試圖讓大家理解大數(shù)據(jù)搜索的基本原理。

發(fā)展壯大離不開(kāi)廣大客戶長(zhǎng)期以來(lái)的信賴與支持,我們將始終秉承“誠(chéng)信為本、服務(wù)至上”的服務(wù)理念,堅(jiān)持“二合一”的優(yōu)良服務(wù)模式,真誠(chéng)服務(wù)每家企業(yè),認(rèn)真做好每個(gè)細(xì)節(jié),不斷完善自我,成就企業(yè),實(shí)現(xiàn)共贏。行業(yè)涉及成都不銹鋼雕塑等,在成都網(wǎng)站建設(shè)、成都全網(wǎng)營(yíng)銷(xiāo)推廣、WAP手機(jī)網(wǎng)站、VI設(shè)計(jì)、軟件開(kāi)發(fā)等項(xiàng)目上具有豐富的設(shè)計(jì)經(jīng)驗(yàn)。

布隆過(guò)濾器 (Bloom Filter)

***步我們先要實(shí)現(xiàn)一個(gè)布隆過(guò)濾器。

布隆過(guò)濾器是大數(shù)據(jù)領(lǐng)域的一個(gè)常見(jiàn)算法,它的目的是過(guò)濾掉那些不是目標(biāo)的元素。也就是說(shuō)如果一個(gè)要搜索的詞并不存在與我的數(shù)據(jù)中,那么它可以以很快的速度返回目標(biāo)不存在。

讓我們看看以下布隆過(guò)濾器的代碼:

 
 
 
 
  1. class Bloomfilter(object): 
  2.     """ 
  3.     A Bloom filter is a probabilistic data-structure that trades space for accuracy 
  4.     when determining if a value is in a set.  It can tell you if a value was possibly 
  5.     added, or if it was definitely not added, but it can't tell you for certain that 
  6.     it was added. 
  7.     """ 
  8.     def __init__(self, size): 
  9.         """Setup the BF with the appropriate size""" 
  10.         self.values = [False] * size 
  11.         self.size = size 
  12.   
  13.     def hash_value(self, value): 
  14.         """Hash the value provided and scale it to fit the BF size""" 
  15.         return hash(value) % self.size 
  16.   
  17.     def add_value(self, value): 
  18.         """Add a value to the BF""" 
  19.         h = self.hash_value(value) 
  20.         self.values[h] = True 
  21.   
  22.     def might_contain(self, value): 
  23.         """Check if the value might be in the BF""" 
  24.         h = self.hash_value(value) 
  25.         return self.values[h] 
  26.   
  27.     def print_contents(self): 
  28.         """Dump the contents of the BF for debugging purposes""" 
  29.         print self.values 
  • 基本的數(shù)據(jù)結(jié)構(gòu)是個(gè)數(shù)組(實(shí)際上是個(gè)位圖,用1/0來(lái)記錄數(shù)據(jù)是否存在),初始化是沒(méi)有任何內(nèi)容,所以全部置False。實(shí)際的使用當(dāng)中,該數(shù)組的長(zhǎng)度是非常大的,以保證效率。
  • 利用哈希算法來(lái)決定數(shù)據(jù)應(yīng)該存在哪一位,也就是數(shù)組的索引
  • 當(dāng)一個(gè)數(shù)據(jù)被加入到布隆過(guò)濾器的時(shí)候,計(jì)算它的哈希值然后把相應(yīng)的位置為T(mén)rue
  • 當(dāng)檢查一個(gè)數(shù)據(jù)是否已經(jīng)存在或者說(shuō)被索引過(guò)的時(shí)候,只要檢查對(duì)應(yīng)的哈希值所在的位的True/Fasle

看到這里,大家應(yīng)該可以看出,如果布隆過(guò)濾器返回False,那么數(shù)據(jù)一定是沒(méi)有索引過(guò)的,然而如果返回True,那也不能說(shuō)數(shù)據(jù)一定就已經(jīng)被索引過(guò)。在搜索過(guò)程中使用布隆過(guò)濾器可以使得很多沒(méi)有***的搜索提前返回來(lái)提高效率。

我們看看這段 code是如何運(yùn)行的:

 
 
 
 
  1. bf = Bloomfilter(10) 
  2. bf.add_value('dog') 
  3. bf.add_value('fish') 
  4. bf.add_value('cat') 
  5. bf.print_contents() 
  6. bf.add_value('bird') 
  7. bf.print_contents() 
  8. # Note: contents are unchanged after adding bird - it collides 
  9. for term in ['dog', 'fish', 'cat', 'bird', 'duck', 'emu']: 
  10.     print '{}: {} {}'.format(term, bf.hash_value(term), bf.might_contain(term)) 

結(jié)果:

 
 
 
 
  1. [False, False, False, False, True, True, False, False, False, True] 
  2. [False, False, False, False, True, True, False, False, False, True] 
  3. dog: 5 True 
  4. fish: 4 True 
  5. cat: 9 True 
  6. bird: 9 True 
  7. duck: 5 True 
  8. emu: 8 False 

首先創(chuàng)建了一個(gè)容量為10的的布隆過(guò)濾器

然后分別加入 ‘dog’,‘fish’,‘cat’三個(gè)對(duì)象,這時(shí)的布隆過(guò)濾器的內(nèi)容如下:

然后加入‘bird’對(duì)象,布隆過(guò)濾器的內(nèi)容并沒(méi)有改變,因?yàn)椤産ird’和‘fish’恰好擁有相同的哈希。

***我們檢查一堆對(duì)象(’dog’, ‘fish’, ‘cat’, ‘bird’, ‘duck’, ’emu’)是不是已經(jīng)被索引了。結(jié)果發(fā)現(xiàn)‘duck’返回True,2而‘emu’返回False。因?yàn)椤甦uck’的哈希恰好和‘dog’是一樣的。

分詞

下面一步我們要實(shí)現(xiàn)分詞。 分詞的目的是要把我們的文本數(shù)據(jù)分割成可搜索的最小單元,也就是詞。這里我們主要針對(duì)英語(yǔ),因?yàn)橹形牡姆衷~涉及到自然語(yǔ)言處理,比較復(fù)雜,而英文基本只要用標(biāo)點(diǎn)符號(hào)就好了。

下面我們看看分詞的代碼:

 
 
 
 
  1. def major_segments(s): 
  2.     """ 
  3.     Perform major segmenting on a string.  Split the string by all of the major 
  4.     breaks, and return the set of everything found.  The breaks in this implementation 
  5.     are single characters, but in Splunk proper they can be multiple characters. 
  6.     A set is used because ordering doesn't matter, and duplicates are bad. 
  7.     """ 
  8.     major_breaks = ' ' 
  9.     last = -1 
  10.     results = set() 
  11.   
  12.     # enumerate() will give us (0, s[0]), (1, s[1]), ... 
  13.     for idx, ch in enumerate(s): 
  14.         if ch in major_breaks: 
  15.             segment = s[last+1:idx] 
  16.             results.add(segment) 
  17.   
  18.             last = idx 
  19.   
  20.     # The last character may not be a break so always capture 
  21.     # the last segment (which may end up being "", but yolo)     
  22.     segment = s[last+1:] 
  23.     results.add(segment) 
  24.   
  25.     return results 

主要分割

主要分割使用空格來(lái)分詞,實(shí)際的分詞邏輯中,還會(huì)有其它的分隔符。例如Splunk的缺省分割符包括以下這些,用戶也可以定義自己的分割符。

] < >( ) { } | ! ; , ‘ ” * \n \r \s \t & ? + %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29

 
 
 
 
  1. def minor_segments(s): 
  2.     """ 
  3.     Perform minor segmenting on a string.  This is like major 
  4.     segmenting, except it also captures from the start of the 
  5.     input to each break. 
  6.     """ 
  7.     minor_breaks = '_.' 
  8.     last = -1 
  9.     results = set() 
  10.   
  11.     for idx, ch in enumerate(s): 
  12.         if ch in minor_breaks: 
  13.             segment = s[last+1:idx] 
  14.             results.add(segment) 
  15.   
  16.             segment = s[:idx] 
  17.             results.add(segment) 
  18.   
  19.             last = idx 
  20.   
  21.     segment = s[last+1:] 
  22.     results.add(segment) 
  23.     results.add(s) 
  24.   
  25.     return results 

次要分割

次要分割和主要分割的邏輯類(lèi)似,只是還會(huì)把從開(kāi)始部分到當(dāng)前分割的結(jié)果加入。例如“1.2.3.4”的次要分割會(huì)有1,2,3,4,1.2,1.2.3

 
 
 
 
  1. def segments(event): 
  2.     """Simple wrapper around major_segments / minor_segments""" 
  3.     results = set() 
  4.     for major in major_segments(event): 
  5.         for minor in minor_segments(major): 
  6.             results.add(minor) 
  7.     return results 

分詞的邏輯就是對(duì)文本先進(jìn)行主要分割,對(duì)每一個(gè)主要分割在進(jìn)行次要分割。然后把所有分出來(lái)的詞返回。

我們看看這段 code是如何運(yùn)行的:

 
 
 
 
  1. for term in segments('src_ip = 1.2.3.4'): 
  2.         print term 
 
 
 
 
  1. src 
  2. 1.2 
  3. 1.2.3.4 
  4. src_ip 
  5. 1.2.3 
  6. ip 

搜索

好了,有個(gè)分詞和布隆過(guò)濾器這兩個(gè)利器的支撐后,我們就可以來(lái)實(shí)現(xiàn)搜索的功能了。

上代碼:

 
 
 
 
  1. class Splunk(object): 
  2.     def __init__(self): 
  3.         self.bf = Bloomfilter(64) 
  4.         self.terms = {}  # Dictionary of term to set of events 
  5.         self.events = [] 
  6.      
  7.     def add_event(self, event): 
  8.         """Adds an event to this object""" 
  9.   
  10.         # Generate a unique ID for the event, and save it 
  11.         event_id = len(self.events) 
  12.         self.events.append(event) 
  13.   
  14.         # Add each term to the bloomfilter, and track the event by each term 
  15.         for term in segments(event): 
  16.             self.bf.add_value(term) 
  17.   
  18.             if term not in self.terms: 
  19.                 self.terms[term] = set() 
  20.             self.terms[term].add(event_id) 
  21.   
  22.     def search(self, term): 
  23.         """Search for a single term, and yield all the events that contain it""" 
  24.          
  25.         # In Splunk this runs in O(1), and is likely to be in filesystem cache (memory) 
  26.         if not self.bf.might_contain(term): 
  27.             return 
  28.   
  29.         # In Splunk this probably runs in O(log N) where N is the number of terms in the tsidx 
  30.         if term not in self.terms: 
  31.             return 
  32.   
  33.         for event_id in sorted(self.terms[term]): 
  34.             yield self.events[event_id] 
  • Splunk代表一個(gè)擁有搜索功能的索引集合
  • 每一個(gè)集合中包含一個(gè)布隆過(guò)濾器,一個(gè)倒排詞表(字典),和一個(gè)存儲(chǔ)所有事件的數(shù)組
  • 當(dāng)一個(gè)事件被加入到索引的時(shí)候,會(huì)做以下的邏輯
    • 為每一個(gè)事件生成一個(gè)unqie id,這里就是序號(hào)
    • 對(duì)事件進(jìn)行分詞,把每一個(gè)詞加入到倒排詞表,也就是每一個(gè)詞對(duì)應(yīng)的事件的id的映射結(jié)構(gòu),注意,一個(gè)詞可能對(duì)應(yīng)多個(gè)事件,所以倒排表的的值是一個(gè)Set。倒排表是絕大部分搜索引擎的核心功能。
  • 當(dāng)一個(gè)詞被搜索的時(shí)候,會(huì)做以下的邏輯
    • 檢查布隆過(guò)濾器,如果為假,直接返回
    • 檢查詞表,如果被搜索單詞不在詞表中,直接返回
    • 在倒排表中找到所有對(duì)應(yīng)的事件id,然后返回事件的內(nèi)容

我們運(yùn)行下看看把:

 
 
 
 
  1. s = Splunk() 
  2. s.add_event('src_ip = 1.2.3.4') 
  3. s.add_event('src_ip = 5.6.7.8') 
  4. s.add_event('dst_ip = 1.2.3.4') 
  5.   
  6. for event in s.search('1.2.3.4'): 
  7.     print event 
  8. print '-' 
  9. for event in s.search('src_ip'): 
  10.     print event 
  11. print '-' 
  12. for event in s.search('ip'): 
  13.     print event 
  14.  
  15. src_ip = 1.2.3.4 
  16. dst_ip = 1.2.3.4 
  17. src_ip = 1.2.3.4 
  18. src_ip = 5.6.7.8 
  19. src_ip = 1.2.3.4 
  20. src_ip = 5.6.7.8 
  21. dst_ip = 1.2.3.4 

是不是很贊!

更復(fù)雜的搜索

更進(jìn)一步,在搜索過(guò)程中,我們想用And和Or來(lái)實(shí)現(xiàn)更復(fù)雜的搜索邏輯。

上代碼:

 
 
 
 
  1. class SplunkM(object): 
  2.     def __init__(self): 
  3.         self.bf = Bloomfilter(64) 
  4.         self.terms = {}  # Dictionary of term to set of events 
  5.         self.events = [] 
  6.      
  7.     def add_event(self, event): 
  8.         """Adds an event to this object""" 
  9.   
  10.         # Generate a unique ID for the event, and save it 
  11.         event_id = len(self.events) 
  12.         self.events.append(event) 
  13.   
  14.         # Add each term to the bloomfilter, and track the event by each term 
  15.         for term in segments(event): 
  16.             self.bf.add_value(term) 
  17.             if term not in self.terms: 
  18.                 self.terms[term] = set() 
  19.              
  20.             self.terms[term].add(event_id) 
  21.   
  22.     def search_all(self, terms): 
  23.         """Search for an AND of all terms""" 
  24.   
  25.         # Start with the universe of all events... 
  26.         results = set(range(len(self.events))) 
  27.   
  28.         for term in terms: 
  29.             # If a term isn't present at all then we can stop looking 
  30.             if not self.bf.might_contain(term): 
  31.                 return 
  32.             if term not in self.terms: 
  33.                 return 
  34.   
  35.             # Drop events that don't match from our results 
  36.             results = results.intersection(self.terms[term]) 
  37.   
  38.         for event_id in sorted(results): 
  39.             yield self.events[event_id] 
  40.   
  41.   
  42.     def search_any(self, terms): 
  43.         """Search for an OR of all terms""" 
  44.         results = set() 
  45.   
  46.         for term in terms: 
  47.             # If a term isn't present, we skip it, but don't stop 
  48.             if not self.bf.might_contain(term): 
  49.                 continue 
  50.             if term not in self.terms: 
  51.                 continue 
  52.   
  53.             # Add these events to our results 
  54.             results = results.union(self.terms[term]) 
  55.   
  56.         for event_id in sorted(results): 
  57.             yield self.events[event_id] 

利用Python集合的intersection和union操作,可以很方便的支持And(求交集)和Or(求合集)的操作。

運(yùn)行結(jié)果如下:

 
 
 
 
  1. s = SplunkM() 
  2. s.add_event('src_ip = 1.2.3.4') 
  3. s.add_event('src_ip = 5.6.7.8') 
  4. s.add_event('dst_ip = 1.2.3.4') 
  5.   
  6. for event in s.search_all(['src_ip', '5.6']): 
  7.     print event 
  8. print '-' 
  9. for event in s.search_any(['src_ip', 'dst_ip']): 
  10.     print event 
  11.  
  12. src_ip = 5.6.7.8 
  13. src_ip = 1.2.3.4 
  14. src_ip = 5.6.7.8 
  15. dst_ip = 1.2.3.4 

本文名稱:用Python實(shí)現(xiàn)一個(gè)大數(shù)據(jù)搜索引擎
鏈接URL:http://m.5511xx.com/article/dpdijse.html