您的位置:

详细阐述搜狗微信公众号

一、搜狗微信公众号爬虫

搜狗微信公众号爬虫是一种用于自动爬取搜狗微信公众号文章的工具,它能够自动登录搜狗微信公众号平台,爬取文章并进行数据分析。使用Python语言开发搜狗微信公众号爬虫,我们需要使用Selenium模拟人工登录和浏览器自动化操作。

from selenium import webdriver
from selenium.webdriver import ChromeOptions
import time

# selenium模拟登录
def login_wechat(browser):
    browser.get("https://mp.weixin.qq.com/")
    time.sleep(3) # 等待3秒钟
    browser.switch_to.frame("login_frame")
    browser.find_element_by_id("switcher_plogin").click()
    browser.find_element_by_id("u").send_keys("your username")
    browser.find_element_by_id("p").send_keys("your password")
    browser.find_element_by_id("login_button").click()

二、搜狗微信公众号文章搜索工具

搜狗微信公众号文章搜索工具是一种可以帮助用户快速搜索搜狗微信公众号中的文章的工具。用户可以通过输入关键词和筛选条件来进行文章搜索,可以根据阅读量、时间等多种条件进行文章排序。

import requests 
import re 

def search_article(keyword, page=1):
    url = "https://weixin.sogou.com/weixin" \
          "?query={}&type=2&page={}&ie=utf8".format(keyword, page)
    response = requests.get(url)
    response.encoding = "utf-8"
    html_content = response.text
    pattern = re.compile('(.*?)')
    items = re.findall(pattern, html_content)
    return items

三、搜狗微信搜索平台

搜狗微信搜索平台是搜狗推出的一款专注于微信公众号搜索的搜索引擎,用户可以在搜狗微信搜索平台中搜索微信公众号中的文章内容、公众号、历史消息等。

import requests
import json

def search_wechat(keyword):
    url = "http://weixin.sogou.com/weixin?type=1&s_from=input&query=" + keyword + "&ie=utf8&_sug_=n&_sug_type_="
    headers = {
        'User-Agent': 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)',
        'Referer': 'http://weixin.sogou.com'
    }
    resp = requests.get(url, headers=headers)
    response = resp.text
    s = json.loads(response.strip())
    return s

四、搜狗微信内容搜索入口

搜狗微信内容搜索入口是一种通过输入关键词来搜索搜狗微信公众号的工具。用户可以在搜狗微信内容搜索入口中输入关键词进行搜索,得到与关键词相关的公众号和文章。

import requests

def search_wechat_content(keyword, page=1):
    url = "https://weixin.sogou.com/weixin?type=2&query={}&ie=utf8&_sug_=n&_sug_type_=&page={}".format(keyword, page)
    headers = {
        'User-Agent': 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)',
        'Referer': 'http://weixin.sogou.com'
    }
    r = requests.get(url, headers=headers)
    return r.text

五、搜狗微信下载安装

搜狗微信是一款基于Windows系统开发的微信客户端工具,可以帮助用户快速查看微信公众号信息、阅读微信文章等。用户需要在搜狗官网下载并安装搜狗微信客户端,即可体验搜狗微信带来的便利。

六、搜狗微信公众号酵素

搜狗微信公众号酵素是一种能够帮助用户分析和优化微信公众号的工具,它可以对微信公众号的粉丝、阅读量、文章等数据进行分析,并提供相应的优化方案。

import requests 
import re 

def get_data(url):
    response = requests.get(url)
    response.encoding = "utf-8"
    html_content = response.text
    pattern = re.compile('<   class="profile account">(.*?)subscribe_num.*?(.*?)
   .*?msg_num.*?
   (.*?).*?izan_total.*?
    (.*?)', re.S)
    items = re.findall(pattern, html_content)
    return items

    
   
  

七、搜狗微信公众号文章搜索

搜狗微信公众号文章搜索是一种能够帮助用户快速搜索微信公众号文章的工具,用户可以在搜索栏中输入关键词并进行搜索,即可得到与关键词相关的微信公众号文章列表。

import requests 
import re 

def search_article(keyword, page=1):
    url = "https://weixin.sogou.com/weixin?query={}&_sug_type_=1&sut=0&lkt=1%2C1553459819689%2C1553459819689&s_from=input&_sug_=n&type=2&sst0=1553459819795&page={}&ie=utf8&p=40040108&dp=1&w=01015002&dr=1".format(keyword, page)
    response = requests.get(url)
    response.encoding = "utf-8"
    html_content = response.text
    pattern = re.compile('(.*)'.format(page), re.S)
    items = re.findall(pattern, html_content)
    return items

八、搜狗微信公众号搜索平台

搜狗微信公众号搜索平台是搜狗推出的一款专注于微信公众号搜索的搜索引擎平台,用户可以在搜狗微信公众号搜索平台中搜索公众号、文章、图文等内容。

九、搜狗微信公众号搜不到文章

搜狗微信公众号搜不到文章可能是由于很多原因引起的,例如:文章未被收录、文章被删除、文章被限制阅读等。用户如果无法在搜狗微信公众号中搜索到文章,可以尝试在其他平台进行搜索。

十、搜狗微信公众号文章采集选取

搜狗微信公众号文章采集选取是指在搜索到的文章列表中,选择并采集自己需要的文章。可以使用Python语言编写程序进行文章采集,采集的数据可以保存在本地数据库或者云平台上。

import requests 
import pymysql

def save_data(data):
    db = pymysql.connect(host="localhost", user="root", password="123456", db="wechat", charset="utf8")
    cursor = db.cursor()
    for item in data:
        sql = "INSERT INTO article(title, link, date) VALUES ('%s', '%s', '%s')" % (item[0], item[1], item[2])
        try:
            cursor.execute(sql)
            db.commit()
        except:
            db.rollback()
    db.close()

def scrape(keyword):
    data = []
    for page in range(1, 6):
        url = "https://weixin.sogou.com/weixin?query={}&_sug_type_=1&sut=0&lkt=1%2C1553459819689%2C1553459819689&s_from=input&_sug_=n&type=2&sst0=1553459819795&page={}&ie=utf8&p=40040108&dp=1&w=01015002&dr=1".format(keyword, page)
        response = requests.get(url)
        response.encoding = "utf-8"
        html_content = response.text
        pattern = re.compile('(.*)'.format(page), re.S)
        items = re.findall(pattern, html_content)
        for item in items:
            data.append((item[2], item[0], item[1]))
    save_data(data)