濮阳杆衣贸易有限公司

主頁 > 知識庫 > Python模擬登錄微博并爬取表情包

Python模擬登錄微博并爬取表情包

熱門標(biāo)簽:所得系統(tǒng)電梯怎樣主板設(shè)置外呼 佛山400電話辦理 北京電銷外呼系統(tǒng)加盟 地圖標(biāo)注面積 小蘇云呼電話機(jī)器人 朝陽手機(jī)外呼系統(tǒng) 儋州電話機(jī)器人 市場上的電銷機(jī)器人 北瀚ai電銷機(jī)器人官網(wǎng)手機(jī)版

一、開發(fā)工具

**Python****版本:**3.6.4

相關(guān)模塊:

DecryptLogin模塊;

argparse模塊;

requests模塊;

prettytable模塊;

tqdm模塊;

lxml模塊;

fake_useragent模塊;

以及一些Python自帶的模塊。

二、環(huán)境搭建

安裝Python并添加到環(huán)境變量,pip安裝需要的相關(guān)模塊即可。

三、原理簡介

本來這個爬蟲是想作為講python異步爬蟲的一個例子的,昨天代碼寫完測試了一下,結(jié)果是我微博賬號和ip都直接被封了(并發(fā)數(shù)設(shè)的500)。

然后我去谷歌搜了一下別人寫的異步爬蟲教程,測試用的都是些沒啥反爬措施的小網(wǎng)站。

于是今天改了下代碼,就先整個普普通通的微博小爬蟲算了。

言歸正傳,和之前的微博爬蟲類似,我們還是先利用DecryptLogin進(jìn)行微博賬戶的模擬登錄:

'''模擬登錄'''
@staticmethod
def login(username, password):
  lg = login.Login()
  _, session = lg.weibo(username, password, 'mobile')
  return session

然后讓使用者輸入目標(biāo)微博用戶的id:

user_id = input('請輸入目標(biāo)用戶ID(例如: 2168613091) ——> ')

微博用戶id在這可以看到:

根據(jù)用戶輸入的微博用戶id,我們訪問如下兩個鏈接:

url = f'https://weibo.cn/{user_id}'
url = f'https://weibo.cn/{user_id}/info'

然后利用xpath提取用戶的基本信息:

打印這些信息,讓使用者確認(rèn)自己輸入的微博用戶id是否無誤:

tb = prettytable.PrettyTable()
tb.field_names = ['用戶名', '關(guān)注數(shù)量', '被關(guān)注數(shù)量', '微博數(shù)量', '微博頁數(shù)']
tb.add_row([nickname, num_followings, num_followers, num_wbs, num_wb_pages])
print('獲取的用戶信息如下:')
print(tb)
is_download = input('是否爬取該微博用戶發(fā)的所有圖片?(y/n, 默認(rèn): y) ——> ')

如果無誤,就開始爬取該用戶發(fā)的所有微博里的圖片:

'''下載所有圖片'''
def __downloadImages(self, userinfos, savedir):
  # 一些必要的信息
  num_wbs = userinfos.get('num_wbs')
  user_id = userinfos.get('user_id')
  num_wb_pages = userinfos.get('num_wb_pages')
  # 提取圖片鏈接并下載圖片
  page_block_size = random.randint(1, 5)
  page_block_count = 0
  for page in tqdm(range(1, num_wb_pages+1)):
    # --提取圖片鏈接
    response = self.session.get(f'https://weibo.cn/{user_id}?page={page}', headers=self.headers)
    image_urls = self.__extractImageUrls(response)
    # --下載圖片
    for url in image_urls:
      try:
        res = requests.get(url, headers={'user-agent': self.ua.random}, stream=True)
        with open(os.path.join(savedir, url.split('/')[-1]), 'wb') as fp:
          for chunk in res.iter_content(chunk_size=32):
            fp.write(chunk)
        print('[INFO]: Download an image from: ', url)
      except:
        pass
    # --避免給服務(wù)器帶來過大壓力and避免被封, 每爬幾頁程序就休息一下
    page_block_count += 1
    if page_block_count % page_block_size == 0:
      time.sleep(random.randint(6, 12))
      page_block_size = random.randint(1, 5)
      page_block_count = 0

這里避免爬蟲被BAN的措施主要有以下幾點:

  • 每爬n頁數(shù)據(jù)就暫停x秒,其中n是隨機(jī)生成的,且n一直在變化,x也是隨機(jī)生成的,且x也一直在變化;
  • 下載圖片時,使用隨機(jī)的ua,并且不使用登錄后的session來請求圖片鏈接來下載該圖片。

從返回的微博頁內(nèi)容里提取圖片鏈接時,需要注意:

  • 對轉(zhuǎn)發(fā)微博的微博id和原創(chuàng)微博的微博id提取方式不同;
  • 只有單張圖片的微博和有多張圖片的微博提取圖片鏈接的方式是不同的;
  • 有時候圖片鏈接提取會出錯,http變成了ttp,所以需要對提取的圖片鏈接進(jìn)行后處理,然后再去請求這些鏈接來下載圖片。

大體的思路就是這樣,因為其實沒啥難點,就是用xpath來提取我們需要的信息就行了,所以就這么粗略地介紹一下吧。T_T

運行方式:

python weiboEmoji.py --username 用戶名 --password 密碼

到此這篇關(guān)于Python模擬登錄微博并爬取表情包的文章就介紹到這了,更多相關(guān)Python爬取微博表情包內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python基于百度AI實現(xiàn)抓取表情包
  • Python實現(xiàn)微信表情包炸群功能
  • Python基礎(chǔ)進(jìn)階之海量表情包多線程爬蟲功能的實現(xiàn)
  • Python自動生產(chǎn)表情包
  • python實戰(zhàn)之制作表情包游戲

標(biāo)簽:酒泉 江蘇 寧夏 定西 云南 金融催收 商丘 龍巖

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《Python模擬登錄微博并爬取表情包》,本文關(guān)鍵詞  Python,模擬,登錄,微博,并,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python模擬登錄微博并爬取表情包》相關(guān)的同類信息!
  • 本頁收集關(guān)于Python模擬登錄微博并爬取表情包的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    华安县| 安徽省| 安溪县| 科技| 隆回县| 张北县| 五台县| 鹤庆县| 措美县| 元阳县| 塘沽区| 河曲县| 琼结县| 扎鲁特旗| 章丘市| 汉寿县| 泰顺县| 漳平市| 姚安县| 昭苏县| 遂平县| 广汉市| 康马县| 阳城县| 汪清县| 建始县| 绵竹市| 大化| 盐津县| 剑川县| 阿图什市| 民勤县| 紫金县| 宾阳县| 八宿县| 全南县| 新巴尔虎右旗| 息烽县| 五常市| 九江市| 云南省|