日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
用同事電腦登了一次百度賬號,搜索框就被他用Python監(jiān)控了

事情是這樣的,由于昨天上班忘帶筆記本了,就臨時(shí)用了一下同事王大國的筆記本電腦,中間偶然登了一下百度地圖開放平臺的賬號,沒想到他今天給我發(fā)來這個:

尷尬的想找個地縫鉆進(jìn)去

經(jīng)過一番詢問,他終于道出了實(shí)情,原來百度的賬號會自動同步。

例如,在登錄了網(wǎng)頁版的百度地圖、百度API等賬號后,瀏覽器會自動保持,你的所有百度賬號就自動登上了。

當(dāng)你使用已登錄百度賬號手機(jī)或電腦的百度搜索框時(shí),他那里就會自動彈出歷史搜索記錄,如下圖:

然后可以用python爬蟲定時(shí)獲取搜索記錄

首先抓包獲取數(shù)據(jù)接口:

然后寫個小爬蟲,因?yàn)橐匈~號信息,所以要帶上cookie:

 
 
 
  1. import requests 
  2. header={ 
  3.     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:82.0) Gecko/20100101 Firefox/82.0', 
  4.     "Cookie":'',     
  5. url='https://www.baidu.com/sugrec?prod=pc_his&from=pc_web&json=1' 
  6. response=requests.get(url,headers=header) 
  7. print(response.text) 
  8.  
  9. UnicodeEncodeError: 'latin-1' codec can't encode character '\u2026' in position 518: ordinal not in range(256) 

但是你可能會遇到上面這種情況,報(bào)編碼錯誤

我去網(wǎng)上查了一下,以為是編碼的問題,然后給cookie加了“utf-8”編碼方式,如下:

 
 
 
  1. import requests 
  2. header={ 
  3.     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:82.0) Gecko/20100101 Firefox/82.0', 
  4.     "Cookie":''.encode("utf-8"), 
  5. url='https://www.baidu.com/sugrec?prod=pc_his&from=pc_web&json=1' 
  6. response=requests.get(url,headers=header) 
  7. print(response.text) 
  8.  
  9. {"err_no":0,"errmsg":"","queryid":"0x21a1c8a90872b8"} 

又報(bào)錯了。。。。。

就在我認(rèn)為百度是不是有什么高端的反爬措施時(shí),突然發(fā)現(xiàn)cookie的“BDUSS”參數(shù)有點(diǎn)問題,如下:

 
 
 
  1. BDUSS=JkRjIyUFR2T01Yd3QxcTZ…AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAP4Gzl~-Bs5fZX 

中間多了省略號,這是因?yàn)樽址L了,被自動省略了,于是我趕緊把該參數(shù)補(bǔ)全,重新嘗試了一下:

 
 
 
  1. import requests 
  2. header={ 
  3.     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:82.0) Gecko/20100101 Firefox/82.0', 
  4.     "Cookie":'', 
  5. url='https://www.baidu.com/sugrec?prod=pc_his&from=pc_web&json=1' 
  6. response=requests.get(url,headers=header) 
  7. print(response.text) 

大功告成

最后加個循環(huán)程序:

 
 
 
  1. import requests 
  2. import json 
  3. import datetime,time 
  4. header={ 
  5.     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:82.0) Gecko/20100101 Firefox/82.0', 
  6.     "Cookie":'', 
  7. url='https://www.baidu.com/sugrec?prod=pc_his&from=pc_web&json=1' 
  8. result=[] 
  9. while True: 
  10.     dt = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S') #時(shí)間戳 
  11.     response=requests.get(url,headers=header) 
  12.     datas=json.loads(response.text)['g'] 
  13.     for data in datas: 
  14.         if data['q'] not in result: 
  15.             print(data['q']+'   '+dt) 
  16.             result.append(data['q']) 
  17.     time.sleep(60) 

以自己的親身經(jīng)歷告訴大家,千萬不要在被人電腦上亂登賬號,小則丟人、大則丟金,切記切記!


本文標(biāo)題:用同事電腦登了一次百度賬號,搜索框就被他用Python監(jiān)控了
路徑分享:http://m.5511xx.com/article/cdhogog.html