51
Dev开发社区
首页
文章
问答
工具
搜索
登录
注册
#Py
Python 自动发送邮件
简单邮件传输协议(SMTP)是一种协议,用于在邮件服务器之间发送电子邮件和路由电子邮件。Python提供smtplib模块,该模块定义了一个SMTP客户端会话对象,可用于使用SMTP或ESMTP侦听器守护程序向任何互联网机器发送邮件。SMTP通讯的基本流程可以概括为以下几点:1.连接SMTP服务器2.登陆用户名和密码3...
代码星球
·
2020-04-04
Python
自动
发送
邮件
pycharm的中文汉化
下载pycharm软件然后通过下面的网站进行激活:http://idea.lanyus.com/激活好后下载汉化包:链接:http://pan.baidu.com/s/1i5zaGgX 密码:g7wy 1、将安装目录下的lib目录下的resources_en.jar文件复制出来,并更名为resour...
代码星球
·
2020-04-04
pycharm
中文
汉化
python安装pip管理工具
(1)安装python2.7.5,这里我选择安装在C盘根目录下。(2)安装完毕后C盘会生成一个叫“python27”的文件夹。(3)打开python27,会发现该目录下存在一个叫Scripts的文件夹,点开Scripts,会发现里面有一系列和easy_install有关的文件。PIP依赖于set...
代码星球
·
2020-04-04
python
安装
pip
管理工具
python的安装和配置
第一步,我们先来安装Python,博主选择的版本是最新的3.4.2版本。windows下面的Python安装一般是通过软件安装包安装而不是命令行,所以我们首先要在Python的官方主页上面下载最新的Python安装包。下载地址是:https://www.python.org/downloads/在下载完成之后,一直点击...
代码星球
·
2020-04-04
python
安装
配置
Selenium2+python自动化-查看selenium API
前面都是点点滴滴的介绍selenium的一些api使用方法,那么selenium的api到底有多少呢?本篇就叫大家如何去查看seleniumapi,不求人,无需伸手找人要,在自己电脑就有。 pydoc是Python自带的模块,主要用于从python模块中自动生成文档,这些文档可以基于文...
代码星球
·
2020-04-04
Selenium2+python
自动化
查看
selenium
API
12.Python爬虫利器三之Xpath语法与lxml库的用法
LXML解析库使用的是Xpath语法:XPath是一门语言XPath可以在XML文档中查找信息XPath支持HTMLXPath通过元素和属性进行导航XPath可以用来提取信息XPath比正则表达式厉害XPath比正则表达式简单 lxml使用方法:fromlxmlimportetreetext='''<d...
代码星球
·
2020-04-04
12.Python
爬虫
利器
三之
Xpath
11.Python-第三方库requests详解(三)
Response对象使用requests方法后,会返回一个response对象,其存储了服务器响应的内容,如上实例中已经提到的r.text、r.status_code……获取文本方式的响应体实例:当你访问r.text之时,会使用其响应的文本编码进行解码,并且你可以修改其编码让r.text使用...
代码星球
·
2020-04-04
11.Python-
第三方
requests
详解
10.Python-第三方库requests详解(二)
Requests是用Python语言编写,基于urllib,采用Apache2Licensed开源协议的HTTP库。它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求。Requests的哲学是以PEP20的习语为中心开发的,所以它比urllib更加Pythoner。更重要的一点是它支持Pytho...
代码星球
·
2020-04-04
10.Python-
第三方
requests
详解
9.Python爬虫利器一之Requests库的用法(一)
requests官方文档:http://cn.python-requests.org/zh_CN/latest/user/quickstart.htmlrequest是一个第三方的HTTP库 1.发起请求发起GET请求非常简单,直接使用requests的get方法即可。比方说下面的代码获取百度首页的信息。1i...
代码星球
·
2020-04-04
9.Python
爬虫
利器
一之
Requests
8.Python爬虫实战一之爬取糗事百科段子
大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧。那么这次为大家带来,Python爬取糗事百科的小段子的例子。首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来。1.抓取糗事百科热门段子2.过滤带有图片的段子1#coding:utf-82imp...
代码星球
·
2020-04-04
8.Python
爬虫
实战
一之
爬取
6.Python爬虫入门六之Cookie的使用
大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下Cookie的使用。为什么要使用Cookie呢?Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那...
代码星球
·
2020-04-04
6.Python
爬虫
入门
六之
COOKIE
5.Python爬虫入门五之URLError异常处理
大家好,本节在这里主要说的是URLError还有HTTPError,以及对它们的一些处理。首先解释下URLError可能产生的原因:网络无连接,即本机无法上网连接不到特定的服务器服务器不存在在代码中,我们需要用try-except语句来包围并捕获相应的异常。下面是一个例子,先感受下它的风骚request=urllib2...
代码星球
·
2020-04-04
5.Python
爬虫
入门
五之
URLError
4.Python爬虫入门四之Urllib库的高级用法
有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers的属性。首先,打开我们的浏览器,调试浏览器F12,我用的是Chrome,打开网络监听,示意如下,比如知乎,点登录之后,我们会发现登陆之后界面都变化了,出现一个新的界面,实质上这...
代码星球
·
2020-04-04
4.Python
爬虫
入门
四之
Urllib
3.Python爬虫入门三之Urllib和Urllib2库的基本使用
怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加JS、CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服。所以最重要的部分是存在于HTML中的,下面我们就写个例子来扒...
代码星球
·
2020-04-04
3.Python
爬虫
入门
三之
Urllib
2.Python爬虫入门二之爬虫基础了解
爬虫,即网络爬虫,大家可以理解为在网络上爬行的一直蜘蛛,互联网就比作一张大网,而爬虫便是在这张网上爬来爬去的蜘蛛咯,如果它遇到资源,那么它就会抓取下来。想抓取什么?这个由你来控制它咯。比如它在抓取一个网页,在这个网中他发现了一条道路,其实就是指向网页的超链接,那么它就可以爬到另一张网上来获取数据。这样,整个连在一起的大...
代码星球
·
2020-04-04
爬虫
2.Python
入门
二之
基础
首页
上一页
...
388
389
390
391
392
...
下一页
尾页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他