怎么用PYthon,循环下载美图

   
 学习资料:
本节学习代码
国家地理杂志爬取页面
学会爬虫, 关键在于练习, 见多识广, 见多了网页的构造, 才知道怎么爬. 今天我们就来一个小实战, 结合之前学习的 requests 访问和 下载功能, 还有 BeautifulSoup, 来下载一些国家地理杂志的美图. 



from bs4 import BeautifulSoup
import requests

URL = "http://www.nationalgeographic.com.cn/animals/"

html = requests.get(URL).text
soup = BeautifulSoup(html, 'lxml')
img_ul = soup.find_all('ul', {"class": "img_list"})

for ul in img_ul:
    imgs = ul.find_all('img')
    for img in imgs:
        url = img['src']
        response = requests.get(url)# 获取的文本实际上是图片的二进制文本
        img = response.content
        image_name = url.split('/')[-1]
        with open( 'C:/Users/Administrator/Desktop/表情  包/./%s.jpg' % image_name ,'wb' ) as f:
            f.write(img) 


问天道 

问天道 » 怎么用PYthon,循环下载美图

评论 0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址