今天这个小爬虫比昨天复杂一些,是实现网站图片下载。网站如下:

下载主页照片:

当然,只是单纯实现了功能,没有翻页。

最终的效果如图所示:是按照数字编号进行的命名,60张,大概1-2秒的时间,就全部下载好了。



好了接下来,看看实现的方法,需要注意的是,这个count 一定要提前设置好,否则每张图片将是一样的,或者数字1 的图片会循环替换。真的是很奇妙啊!


#请求过程 import requests from bs4 import BeautifulSoup url = "" headers = {"User-Agent": "Mozilla (Macintosh; Intel Mac OS X 10_14_6) AppleWebKi (KHTML, like Gecko) Chrome Safari;} res = reque(url,headers=headers) html = res.text soup = BeautifulSoup(html,"lxml") content_all = (class_="item") #爬取过程 count = 1 for content in content_all: imgContent = con(name="img") imgUrl = imgCon["data-src"] imgfinal = ""+imgUrl     response =reque(imgfinal)     img = re      #保存文件过程 with open(f"{count}.jpg","wb") as f:         f.write(img)     count = count +1 


整个过程用到的重要知识点:提取链接的url,.attrs["src"], 通过url获取图片的内容,然后就是保存了。

1.《一键下载网站60张图片,2秒完毕》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。

2.《一键下载网站60张图片,2秒完毕》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。

3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/gl/2978859.html