51
Dev开发社区
首页
文章
问答
工具
搜索
登录
注册
#Python
Selenium2+python自动化-查看selenium API
前面都是点点滴滴的介绍selenium的一些api使用方法,那么selenium的api到底有多少呢?本篇就叫大家如何去查看seleniumapi,不求人,无需伸手找人要,在自己电脑就有。 pydoc是Python自带的模块,主要用于从python模块中自动生成文档,这些文档可以基于文...
代码星球
·
2020-04-04
Selenium2+python
自动化
查看
selenium
API
12.Python爬虫利器三之Xpath语法与lxml库的用法
LXML解析库使用的是Xpath语法:XPath是一门语言XPath可以在XML文档中查找信息XPath支持HTMLXPath通过元素和属性进行导航XPath可以用来提取信息XPath比正则表达式厉害XPath比正则表达式简单 lxml使用方法:fromlxmlimportetreetext='''<d...
代码星球
·
2020-04-04
12.Python
爬虫
利器
三之
Xpath
11.Python-第三方库requests详解(三)
Response对象使用requests方法后,会返回一个response对象,其存储了服务器响应的内容,如上实例中已经提到的r.text、r.status_code……获取文本方式的响应体实例:当你访问r.text之时,会使用其响应的文本编码进行解码,并且你可以修改其编码让r.text使用...
代码星球
·
2020-04-04
11.Python-
第三方
requests
详解
10.Python-第三方库requests详解(二)
Requests是用Python语言编写,基于urllib,采用Apache2Licensed开源协议的HTTP库。它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求。Requests的哲学是以PEP20的习语为中心开发的,所以它比urllib更加Pythoner。更重要的一点是它支持Pytho...
代码星球
·
2020-04-04
10.Python-
第三方
requests
详解
9.Python爬虫利器一之Requests库的用法(一)
requests官方文档:http://cn.python-requests.org/zh_CN/latest/user/quickstart.htmlrequest是一个第三方的HTTP库 1.发起请求发起GET请求非常简单,直接使用requests的get方法即可。比方说下面的代码获取百度首页的信息。1i...
代码星球
·
2020-04-04
9.Python
爬虫
利器
一之
Requests
8.Python爬虫实战一之爬取糗事百科段子
大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧。那么这次为大家带来,Python爬取糗事百科的小段子的例子。首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来。1.抓取糗事百科热门段子2.过滤带有图片的段子1#coding:utf-82imp...
代码星球
·
2020-04-04
8.Python
爬虫
实战
一之
爬取
6.Python爬虫入门六之Cookie的使用
大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下Cookie的使用。为什么要使用Cookie呢?Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那...
代码星球
·
2020-04-04
6.Python
爬虫
入门
六之
COOKIE
5.Python爬虫入门五之URLError异常处理
大家好,本节在这里主要说的是URLError还有HTTPError,以及对它们的一些处理。首先解释下URLError可能产生的原因:网络无连接,即本机无法上网连接不到特定的服务器服务器不存在在代码中,我们需要用try-except语句来包围并捕获相应的异常。下面是一个例子,先感受下它的风骚request=urllib2...
代码星球
·
2020-04-04
5.Python
爬虫
入门
五之
URLError
4.Python爬虫入门四之Urllib库的高级用法
有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers的属性。首先,打开我们的浏览器,调试浏览器F12,我用的是Chrome,打开网络监听,示意如下,比如知乎,点登录之后,我们会发现登陆之后界面都变化了,出现一个新的界面,实质上这...
代码星球
·
2020-04-04
4.Python
爬虫
入门
四之
Urllib
3.Python爬虫入门三之Urllib和Urllib2库的基本使用
怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加JS、CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服。所以最重要的部分是存在于HTML中的,下面我们就写个例子来扒...
代码星球
·
2020-04-04
3.Python
爬虫
入门
三之
Urllib
2.Python爬虫入门二之爬虫基础了解
爬虫,即网络爬虫,大家可以理解为在网络上爬行的一直蜘蛛,互联网就比作一张大网,而爬虫便是在这张网上爬来爬去的蜘蛛咯,如果它遇到资源,那么它就会抓取下来。想抓取什么?这个由你来控制它咯。比如它在抓取一个网页,在这个网中他发现了一条道路,其实就是指向网页的超链接,那么它就可以爬到另一张网上来获取数据。这样,整个连在一起的大...
代码星球
·
2020-04-04
爬虫
2.Python
入门
二之
基础
1.Python爬虫入门一之综述
要学习Python爬虫,我们要学习的共有以下几点:Python基础知识Python中urllib和urllib2库的用法Python正则表达式Python爬虫框架ScrapyPython爬虫更高级的功能首先,我们要用Python写爬虫,肯定要了解Python的基础吧,万丈高楼平地起,不能忘啦那地基,哈哈,那么我就分享一...
代码星球
·
2020-04-04
1.Python
爬虫
入门
一之
综述
wxpython 安装教程
wxpython在windows上的安装,需要在wxpython官网上下载对应的版本;Python分为32和64位系统不是系统的32位和64位所以可以先在IDE下输入Python看下当前是32还是64位。安装路径一定不能使用默认路径,要改成跟Python安装的路径一直;否则在导入的时候importwx会报找不到模块。解...
代码星球
·
2020-04-04
wxpython
安装
教程
Python 闭包
闭包(closure)是函数式编程的重要的语法结构。函数式编程是一种编程范式(而面向过程编程和面向对象编程也都是编程范式)。在面向过程编程中,我们见到过函数(function);在面向对象编程中,我们见过对象(object)。函数和对象的根本目的是以某种逻辑方式组织代码,并提高代码的可重复使用性(reusability...
代码星球
·
2020-04-04
Python
闭包
7.Python 正则表达式学习笔记
本文介绍了Python对于正则表达式的支持,包括正则表达式基础以及Python正则表达式标准库的完整介绍及使用示例。本文的内容不包括如何编写高效的正则表达式、如何优化正则表达式,这些主题请查看其他教程。注意:本文基于Python2.4完成;如果看到不明白的词汇请记得百度谷歌或维基,whatever。尊重作者的劳动,转载...
代码星球
·
2020-04-04
7.Python
正则
表达式
学习
笔记
首页
上一页
...
335
336
337
338
339
...
下一页
尾页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他