最近想在网上下载100-200张图片用于网站文章的配图,如果自己一张张去保存,那是有点麻烦,于是用python写了一个爬虫脚本。
主要三个作用:
1、批量将图片保存到本地
2、去除水印
3、裁剪到需要的尺寸
都比较好处理,这里简单记录一下。
这里兴举个例子,你就明白了
比如,你想将图片:保存到本地,代码可以像下面这样写:
import requests imgurl=’/media/uploads/2022/05/image-5.png’ with open('imgs/1111.jpg','wb') as f: r3=requests.get(imgurl).content f.write(r3)
requests请求,获得的对象,可以是text文本形式的,也可以用content二进制形式的,这里我们保存图片、视频通常使用二进制的方式。
上面的例子,就会将网络图片保存到本地并命名为1111.jpg
如果要进行裁剪,则需要导入PIL这个包
可以像下面这样写:
from PIL import Image im = Image.open('imgs/1111.jpg')#打开图片 newim = im.crop((10, 100, 625, 457))#裁剪 newim = newim.resize((307, 178))#缩放图片尺寸 newim.save('imgs/thumb.jpg') #将新图片重命令为thubm.jpg
这就是一个简单的例子。
如果需要大量下载图片,肯定是要先爬大量的图片地址,然后再来一个循环,就可以实现批量操作了。
标签: