高考要来了,扒一扒历年高考录取分数来压压惊


一年一度的高考

就要来啦





虽然对于小帅b来说

高考是挺久远的事情了



但是

高三的那段日子

还是让小帅b有点感触




那个时候的我们

可谓

上知天文下知地理



而现在

感觉越来越弱鸡


比如





这样的化学题你做得出来吗





反正我只能这道题里

找到一点那时的回忆





这次就来

扒一扒历年高考录取分数

说不定对之后的考生有点帮助



那么接下来就是

学习 python 的正确姿势

python爬取微信上的联系人然后做一顿分析之后,我的眼泪掉下来


今天

小帅b来跟你玩玩

爬取微信好友

然后做一顿分析


其实

关于微信好友的爬取分析

挺早之前小帅b就分享过类似的了


但是那会

帅b我更多的是装逼

有些细节没跟你好好说说

导致有些 b 友有点懵逼



那么到现在

我想是个不错的时机了

到什么阶段就干什么事情



而且

前两篇也是写到和微信相关的

所以索性就再写一篇吧



这次

应该能让你更加容易

明白其中的道理



废话不多说

接下来就是


学习 python 的正确姿势

python爬取你喜欢的公众号的所有原创文章,然后搞成PDF慢慢看


我知道你有时候会遇到了

一个相见恨晚的公众号

比如小帅b的公众号哈哈


然后想去看看

这个公众号的历史文章


希望从第一篇开始看起

可是当你去微信里面查看的时候


会很蛋疼

因为

微信没有给文章一个时间排序





那么这时候你只能

从最近更新的文章开始

一直滑呀滑~滑呀滑~





好不容易看到了作者的第一篇文章了

结果一不小心

按了一下返回键


WTF!!!





只能重新滑呀滑~滑呀滑~

滑到外婆桥

桥里有个洞

洞里有个黑屁股





话说

能不能把公众号的文章全都爬取下来

然后制作成 PDF


这样

妈妈就再也不用担心

我无法看到作者的所有干货了


也不再担心

万一作者的突然脑抽把号给删了

文章全都消失


那岂不泪流满面





好了

那么

接下来就是


学习 python 的正确姿势



这次我们通过 fiddler 来抓取

手机上的请求


然后再把公众号的历史文章爬取下来

最后制作成 pdf 文件


小帅b来画个图吧

具体就是这样





ok

有了思路之后


我们就开干

先从数据抓包开始


将手机连好同个局域网的 WIFI

然后打开 fiddler

以小帅b的公众号为例


在手机上刷一下

学习python的正确姿势

这个公众号的历史文章





往下多滑几下

然后来看看 fiddler 抓到了什么数据


可以发现就是这个接口一直在请求




来看看其中一个具体数据请求



可以发现

微信在获取公众号历史文章的时候


有这么些参数是要携带的

小帅b看了下

比较重要的两个参数是

offsetis_ok

应该是用来加载更多文章的参数


其他的什么 token 参数

到时候我们直接复制到 python 中进行请求就好了


再来看看返回的数据长什么鸟样





返回了一个 json


这里有个 next_offset 字段

小帅b发现它就是用来下次请求的时候

用于 offset 这个字段的


can_msg_continue

就是用于下次请求的 is_ok 字段的





我们再来看看具体每次请求得到的

列表内容





数据很明显了

list 里面的每一个 item

都是小帅b发过的文章信息

标题、链接、作者、原文地址、封面图啥都有了


那如何区分文章是否原创的呢

小帅b公众号都是原创的文章


所以只能去抓一下其他公众号的文章

看了一会发现


copyright_stat = 11

就是原创





知道了请求规则

以及返回数据的格式


接下来就可以使用代码获取啦


先来把 header 和 cookies 定义一下

假装自己是在用手机请求数据




在请求的时候

需要携带参数

这里主要是控制一下 offset

用来加载更多数据






定义好了之后

就可以使用 requests 进行请求了



先来获取所有的原创文章

然后打印一下看看




主要就是将返回的数据

使用 json 进行解析


然后判断是否可以获取更多的数据

如果还有数据的话

我们就递归请求



ok

执行一波




公众号的所有原创文章

就被我们爬取下来啦




开心得像条狗



接下来

把文章转化为 pdf 文件


怎么弄

其实小帅b也不知道…



遇到事情不要慌

上 Google 搜索一下呗





装下b

用英文搜索


点进去第一个链接看看





woc!!


一行代码搞定??

赶紧安装试试看





安装完成之后

在代码使用一下


# 自己定义存储路径pdfkit.from_url(content_url, ‘/home/wistbean/wechat_article/‘+title+‘.pdf’)



执行





可以可以


帅b的所有原创文章

就被保存下来啦






ok

以上

本篇文章涉及的源代码已经上传

在公众号后台发送 公众号 获取


扫一扫

学习 Python 没烦恼



看了还想看

爸爸,他使坏,用动态的 Json 数据,我要怎么搞?

教你通过 Fiddler 进行手机抓包

python爬取 20w 表情包之后,从此你就成为了微信斗图届的高手



ps

一直写原创教程真 jb 累

希望你多多支持

这样我才有动力一直写…么么哒


peace



python爬取 20w 表情包之后,从此你就成为了微信斗图届的高手



常常有 b 友问我

“小帅b,你哪来那么多的表情包”





当然是爬取来的啊

不瞒你说

在我的电脑里面

除了一些老师的教程之外

还有满满当当的表情包





每一个表情包都是那么的

生动有趣

是它们拯救了我们人类的尴尬

是它们拯救了多少的直男

是它们…


好吧

编不下去了






答应你们

这次腾出点时间

就来说说

小帅b是怎么玩表情包的



如何实现的呢?

那么接下来就是

学习 python 的正确姿势



是这样的

有一次小帅b想要斗图

配图

就在网上搜索表情包


然后发现了一个表情巨多的网站

不小心动起了邪念

产生了兴趣



那就

把它们存下来吧


用 requests 请求了一下

发现这个网站没有做反爬


小帅b发现这里有 4k+ 的页面



简单的切换一下页面

可以发现

第一页的链接是这样的


https://fabiaoqing.com/biaoqing/lists/page/1.html


所以以此类推

构建一下所有url


_url = https://fabiaoqing.com/biaoqing/lists/page/{page}.html'urls = [_url.format(page=page) for page in range(1, 4328+1)


这样我们就可以得到所有表情包的链接了


我们来看一下页面里面的信息


在这里

我们只需要图片的地址和图片的名称即可


所以我们只要获取到每个页面的

所有 img 标签就可以了


可以使用 BeautifulSoup 根据类名获取


response = requests.get(url)soup = BeautifulSoup(response.content, ‘lxml’)img_list = soup.find_all(‘img’, class_=‘ui image lazy’)



拿到了页面里面的所有 img

那么就可以获取每个图片的地址和名称

从而下载到我们想要的位置


  for img in img_list:       image = img.get(‘data-original’)       title = img.get(‘title’)       # print(image)       with open(path + title + os.path.splitext(image)[-1], ‘wb’) as f:            img = requests.get(image).content            f.write(img)


至此

几行代码就搞定了


先来测试一下

下载一个页面的图片





可以发现

每张图片都获取到了

效果还行


不过

要下载那么多张表情包的话

这样写的代码有点慢了





还是开启多线程吧

对于这种 IO 操作

还是能加快不少下载时间的


 queue = Queue()    path = ‘/home/wistbean/biaoqingbao/‘
# 创建线程 for x in range(10): worker = DownloadBiaoqingbao(queue, path) worker.daemon = True worker.start()
# 加入队列 for url in urls: queue.put(url)
queue.join()



在这里创建了 DownloadBiaoqingbao 这个线程类

然后创建 10 个线程


把 url 添加到队列中

来运行一下





这时候文件夹就写入表情包啦





经过一段时间

小帅b的文件夹就存满了各种表情包了哈哈哈

谁敢跟我斗图

我就砸死他






不过呢

有个问题

文件夹里面的图片太多了


需要检索一下才行

比如我们要找到关于

小老弟

的表情包


那么我们可以使用

glob


import globfor name in glob.glob(‘/home/wistbean/biaoqingbao/小老弟.):    print(name)


通过 这个符号进行模糊匹配

运行一下可以得到所有含有“小老弟”的表情包




到这里

已经有了大量的表情包

也可以通过关键词检索到表情包了


那么如何进一步用到微信来呢

嘿嘿,我得意的笑



开下脑洞

我们使用微信的接口和 python 对接一下


比如

我发送给我的微信说

我要关于沙雕的表情包,发 6 张来


这个时候

python接收到指令

然后就去检索表情包

发送回我的微信



岂不美哉~



说干就干


可以使用 itchat 这个模块

使用网页版微信的方式登录


itchat.auto_login(hotReload=True)itchat.run()


运行这段代码可以得到二维码

扫一下就可以登录进去操作微信了


接着就可以根据小帅b发送过来的关键词

进行文件搜索


imgs = []
def searchImage(text): print(‘收到关键词: ‘, text) for name in glob.glob(‘/home/wistbean/biaoqingbao/+text+‘.jpg’): imgs.append(name)


然后就可以在回复微信的时候发送图片给自己了


在这里就给自己发前 6 张图片吧


@itchat.msg_register([PICTURE, TEXT])def text_reply(msg): searchImage(msg.text) for img in imgs[:6]: msg.user.send_image(img) time.sleep(0.3) print(‘开始发送表情:’, img) imgs.clear()


但这里有个问题

就是 itchat 在发送图片的时候

中文名的文件发了没有反应


后来小帅b发现是 requests 库的问题

修改它的 fields.py


    value = email.utils.encode_rfc2231(value, ‘utf-8’)    # value = ‘%s=%s’ % (name, value)    value = ‘%s=”%s”‘ % (name, value.encode(‘utf-8’))


也就是将

value = ‘%s=%s’ % (name, value)

改成

value = ‘%s=”%s”‘ % (name, value.encode(‘utf-8’))


ok


搞定

运行之后是这样的






ok

以上


当然还可以优化一下

比如每次加载更多同类型的表情包

将表情包发送给特定的人等等

自己去玩吧





本篇文章涉及到的源代码已上传

在公众号后台发送“表情包”即可获取


那么

我们下回见

peace


扫一扫

学习 Python 没烦恼



也许你想知道:

长江后浪推前浪,Requests 库把 urllib 库拍在沙滩上

有了 BeautifulSoup ,妈妈再也不用担心我的正则表达式了

就这么说吧,如果你不懂多线程和线程池,那就去河边摸鱼!



点个在看啊~~(破音)



title: 520了,如果你的另一半是个程序员,发这个给TA
toc: true
date:
thumbnail: https://fxxkpython.com/images/shuaib1.jpg
tags:
- python
- python爬虫
- Mysql
- pymysql
- python爬虫实战
- python爬虫系列教程
- python 爬虫入门教程
categories: python爬虫





马上 520 啦

小帅b祝有情人总成眷属

和我一样是单身狗的

那就继续单着吧..




接下来

小帅b传授你一点程序员

才能懂的骚话情话


相信 TA 看到会开心的






1.我在全世界找一个和你一样的人:


SELECT
FROM World
WHERE “Someone”
LIKE “%YOU%”


目前返回的结果是:Query OK, Empty set (0.00 sec)


但我坚信,有一天,会返回一条记录,那条记录无法delete。



2.你愿意用这公式画个图么:


sqrt(9-x^2),(sqrt(cos(x))cos(200x)+sqrt(abs(x))-0.7)(4-x*x)^0.01, -sqrt(9-x^2)


如果你觉得难的话,可以 Google 一下,如果你懒得话,我帮你:




3.如果你可以被创建


如果你可以被new,那么把我的心交给你,让我好好爱你。


MyGirlFriend myGrilFriend = new GirlFriend();
myGrilFriend.letMeLoveYou(Heart myHeart);



4.待我代码编成,娶你为妻可好?


我在循环里,一直等着你 say Yes 的那天,然后我们一直在一起,因为我爱你并且你也爱我。

while(propose.times < 99) {
you.listen(phodal.ask(“will”)(“you”)(“marry”)(“me”));
you.reply.propose ();
}
you.propose(“Yes”);
var ever = I.love(you) && you.love(me);
for(ever){;;;};



5.Bug


如果你是个 Bug,我愿意花一辈子的时间 Debug,不过我不希望你被修复,因为你有 Bug 的样子,很美。



6.当所有事情都准备好了,我却突然不知道该干什么了


$(document).ready(function(){

});



7. 如果可以把你导入到我的人生里


import You;

class MyLife(){

};


那么我的人生,也许有更多的乐趣。



8.假作真时真亦假,无为有处有还无。


if(FALSE == true) TRUE = false; 
if(NULL == exist) exist = NULL;



9.帅b老仙,法力无边~



peace


python爬虫30 | scrapy后续,把「糗事百科」的段子爬下来然后存到数据库中



上回我们说到

兄dei,进来装逼不?


今天


小帅b在付费社区里面

学编程不就是为了赚钱?



最近有朋友在后台私信我说,小帅b啊,

python爬虫29 | 使用scrapy爬取糗事百科的例子,告诉你它有多厉害!


是时候

python爬虫28 | 你爬下的数据不分析一波可就亏了啊,使用python进行数据可视化



通过这段时间

python爬虫27 | 当Python遇到MongoDB的时候,存储av女优的数据变得如此顺滑爽~



上次


我们知道了怎么操作 MySQL 数据库

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×