简介:传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。本期的Python教程为大家介绍了python爬虫抓取百度首页的实现方法,下面就看看如何使用python来实现这样一个功能。
?
1 import urllib
2 def downURL(url,filename):
3 try:
4 fp=urllib.urlopen(url)
5 except:
6 print('download error')
7 return 0
8 op=open(filename,'wb')
9 while 1:
10 s=fp.read()
11 if not s:
12 break
13 op.write(s)
14 fp.close()
15 op.close()
16 return 1
17 downURL(“http://www.kokojia.com”,”C:url.txt”)
总结:如果是你初次接触学习Python这门语言,有时间不妨参考一些实例教程,花费少少的时间带你走入Python的大门,掌握更多地Python设计技巧,以上即是关于Python抓取百度首页的实现方法,大家可以参考学习,希望对大家学习Python程序设计有帮助,实现不同功能。更多的python视频教程或其他视频教程可以登录课课家官网查询。