#库的

MySQL数据库的热备份和冷备份

冷备份(off,慢,时间点上恢复)冷备份发生在数据库已经正常关闭的情况下,当正常关闭时会提供给我们一个完整的数据库。冷备份是将关键性文件拷贝到另外位置的一种说法。对于备份数据库信息而言,冷备份是最快和最安全的方法。冷备份的优点:1.是非常快速的备份方法(只需拷贝文件)2.容易归档(简单拷贝即可)3.容易恢复到某个时间点...
代码星球 ·2020-08-23

Apache-DBUtils包对数据库的操作

•API介绍:–org.apache.commons.dbutils.QueryRunner–org.apache.commons.dbutils.ResultSetHandler–工具类•org.apache.commons.dbutils.DbUtils。  •ArrayHandler:把结果集...
代码星球 ·2020-08-21

PHP连接局域网MYSQL数据库的简单实例

PHP连接局域网MYSQL数据库的简单实例[php] viewplaincopy<?PHP  /** * php连接mysql数据库 * by www.jbxue.com */    ...

PHP5中使用PDO连接数据库的方法

PDO(PHPDataObject)是PHP5中加入的东西,是PHP5新加入的一个重大功能,因为在PHP5以前的php4/php3都是一堆的数据库扩展来跟各个数据库的连接和处理,什么php_mysql.dll、php_pgsql.dll、php_mssql.dll、php_sqlite.dll等等。1.PDO简介&nb...

可以自动安装mysql数据库的一个shell脚本

发布:thatboy 来源:脚本学堂   【大 中 小】分享一例shell脚本,可以实现mysql数据库的自动安装,脚本写的不错,无论是用来学习,还是生产环境中应用,都是不错的,有需要的朋友参考下。本文转自:http://www.jbxue.com/artic...

php连接access数据库的三种方法

发布:thatboy 来源:脚本学堂   【大 中 小】本文分享下,php连接access数据库的三种方法,有需要的朋友参考下,希望对大家有所帮助。本节内容:php连接access数据库。 一种是利用php的pdo,一种是odbc,com接口来与ac...

PHP连接局域网MYSQL数据库的实例

PHP连接局域网MYSQL数据库的例子。代码: 1 <?php 2 /** 3 * php连接mysql的例子 4 * by www.jbxue.com 5 */ 6&nbs...

分布式爬虫搭建系列 之一------python安装及以及虚拟环境的配置及scrapy依赖库的安装

python及scrapy框架依赖库的安装步骤:第一步,python的安装在Windows上安装Python首先,根据你的Windows版本(64位还是32位)从Python的官方网站下载Python3.5对应的64位安装程序或32位安装程序(网速慢请移步国内镜像)或者通过输入网址https://www.python....

启用数据库的 Service Broker

--is_broker_enabled为0未启用,为1启用SELECTname,is_broker_enabledFROMsys.databasesWHEREname='DBNAME'ALTERDATABASEDbNameSETNEW_BROKERWITHROLLBACKIMMEDIATE;ALTERDATABASED...

wamp集成环境下mysql数据库的分开部署和远程访问

今天折腾了一天一个小问题,就是明明正确的php代码在访问数据库的时候总是提示DBERROR。后来才发现是填写数据库名的时候,写成了该数据库的ip地址(其实也是本机ip但是本机还是不能访问),而不是localhost。 归根到底这个问题的根源是mysql未开启远程访问,开启的具体方法为: D:wamp...

Python中msgpack库的使用

msgpack用起来像json,但是却比json快,并且序列化以后的数据长度更小,言外之意,使用msgpack不仅序列化和反序列化的速度快,数据传输量也比json格式小,msgpack同样支持多种语言。安装直接pip即可pipinstallmsgpack1使用importmsgpackvar={'a':'this','...
代码星球 ·2020-08-13

Python爬虫基础(四)Requests库的使用

requests文档首先需要安装:pipinstallrequestsget请求最基本的get:#-*-coding:utf-8-*-importrequestsresponse=requests.get("http://www.baidu.com/")添加headers及查询参数:#-*-coding:utf-8-*...

Python爬虫基础(三)urllib2库的高级使用

   opener是urllib2.OpenerDirector的实例,其中urlopen是模块默认构建的opener。但是基本的urlopen()方法不支持代理、cookie等其他的HTTP/HTTPS高级功能。如果要支持这些功能,可以使用相关的Handler处理器来创建特定功能的处理器...

Python爬虫基础(二)urllib2库的get与post方法

urllib2默认只支持HTTP/HTTPS的GET和POST方法一、Get方式      GET请求一般用于我们向服务器获取数据,比如说,我们用百度搜索,在百度搜索框中搜索“秦时明月”,拿到地址栏里有效url为:https://www...

Python爬虫基础(一)urllib2库的基本使用

       爬虫也就是所谓的网络数据采集,是一种通过多种手段收集网络数据的方式,不光是通过与API交互(或者直接与浏览器交互)的方式。最常用的方法是写一个自动化程序向网络服务器请求数据(通常是用HTML表单或其他网页文件),然后对数据进行解析,提取...
首页上一页...7891011...下一页尾页