今天这个小爬虫比昨天复杂一些,是实现网站图片下载。网站如下:
下载主页照片:
当然,只是单纯实现了功能,没有翻页。
最终的效果如图所示:是按照数字编号进行的命名,60张,大概1-2秒的时间,就全部下载好了。
好了接下来,看看实现的方法,需要注意的是,这个count 一定要提前设置好,否则每张图片将是一样的,或者数字1 的图片会循环替换。真的是很奇妙啊!
#请求过程
import requests
from bs4 import BeautifulSoup
url = ""
headers = {"User-Agent": "Mozilla (Macintosh; Intel Mac OS X 10_14_6) AppleWebKi (KHTML, like Gecko) Chrome Safari;}
res = reque(url,headers=headers)
html = res.text
soup = BeautifulSoup(html,"lxml")
content_all = (class_="item")
#爬取过程
count = 1
for content in content_all:
imgContent = con(name="img")
imgUrl = imgCon["data-src"]
imgfinal = ""+imgUrl
response =reque(imgfinal)
img = re
#保存文件过程
with open(f"{count}.jpg","wb") as f:
f.write(img)
count = count +1
整个过程用到的重要知识点:提取链接的url,.attrs["src"], 通过url获取图片的内容,然后就是保存了。
1.《一键下载网站60张图片,2秒完毕》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《一键下载网站60张图片,2秒完毕》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/gl/2978859.html