经过这个尝试后,严禁复制网页内容的人似乎不再烦恼了。(莎士比亚)。
每个网页右键会出现一个查看网页源代码的选项,看看都有些什么,这对于理解下面的代码是有用处的。注意看类似这些行<a class="nav-link" href=;Community</a>。代码里的find字符"a"和get的"href"方法主要作用就在这里。
网页源代码
直接上代码吧:
import requests as rq
from bs4 import BeautifulSoup
url = input("Enter Link: ")
if ("https" or "http") in url:
data = rq.get(url)
else:
data = rq.get("https://" + url)
soup = BeautifulSou, ";)
saved = open("myLinks.txt", 'w')
for link in ("a"):
prin("href"))
("href"))
("\n")
运行示意和输出的文件
1.《网页下载怎么提取链接地址?终于找到答案了Python版的迷你程序——获取给定网页上的所有链接》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《网页下载怎么提取链接地址?终于找到答案了Python版的迷你程序——获取给定网页上的所有链接》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/gl/3053009.html