MATLAB求解二重积分案例

凯鲁嘎吉-博客园http://www.cnblogs.com/kailugaji/  定积分解决的是一维连续量求和的问题,而解决多维连续量的求和问题就要用到重积分了。重积分是建立在定积分的基础上的,它的基本思想也是将重积分化为定积分来计算,其中关键是积分限的确定,这也是重积分的难点所在。正是因为重积分从计算上来说仍是使用的定积分的方法,MATLAB系统并没有提供专门的命令函数来处理重积分,因此在我们确定了积分限后仍是使用int()命令来处理重积分问题。有些积分区间形状比较复杂,为了方便表达积分的上下限常常把比较复杂的区间分割成若干个相对简单的区间,然后对不同的区间分别积分,最后把各个积分结果相加起来。计算其中,wrr.m:functiontt=wrr(r,v,c,b,y,w)symsutp=-(r/c)^v;g=exp(p);h=(b/y)*(t/y)^(b-1);hu=(b/y)*(u/y)^(b-1);f=int(g*hu,u,0,t);tt=int(t*g*h*exp(-f),t,0,w);tt=vpa(tt,10);//结果为:>>clear&g...

Lingo求解线性规划案例4——下料问题

凯鲁嘎吉-博客园http://www.cnblogs.com/kailugaji/ 造纸厂接到定单,所需卷纸的宽度和长度如表卷纸的宽度长度579100003000020000工厂生产1号(宽度10)和2号(宽度20)两种标准卷纸,其长度未加规定。现按定单要求对标准卷纸进行切割,切割后有限长度的卷纸可连接起来达到所需卷纸的长度。问如何安排切割计划以满足定单需求而使切割损失最小?解:为了满足定单要求和使切割损失最小,我们可以使用多种切割方法来进行组合。此时,我们不但要考虑对两种标准卷纸的宽度如何进行切割,而且还要确定按某一种方式切割时标准卷纸所耗用的长度。例如,可以把宽10的1号标准卷纸切割成宽5的卷纸2卷,根据定单要求,此时需1号标准卷纸5000单位长度,与此同时,把宽度20的2号标准卷纸切割成宽度7和宽度9的卷纸各1卷,此时为满足定单要求,需2号标准卷纸30000单位长度。按此切割方案,宽度9的卷纸多生产10000单位长度,因此,切割损失的面积为(20-7-9)×30000+9×10000。设xij为第i号标准卷纸按第j种方式切割时所耗用的长度。各种可...

Lingo求解线性规划案例3——混料问题

凯鲁嘎吉-博客园http://www.cnblogs.com/kailugaji/  某糖果厂用原料A、B和C按不向比率混合加工而成甲、乙、丙三种糖果(假设混合加工中不损耗原料)。原料A、B、C在糖果甲、乙、丙中的含量、原料成本、加工成本、原料限量及糖果售价如表所示。 问该厂对这三种糖果各生产多少公斤,使得到的利润最大? 含量(%)j号糖果原料供应量ai(公斤) 成本(元/公斤) 甲(1号) 乙(2号) 丙(3号)i号原料    A(1号) ≥60%  ≥15%      2000     2.50     B(2号)        2500    &...

Lingo求解线性规划案例2——多阶段投资问题

 凯鲁嘎吉-博客园http://www.cnblogs.com/kailugaji/某公司现有资金30万元可用于投资,5年内有下列方案可供采纳:  1号方案:在年初投资1元,2年后可收回1.3元;  2号方案;在年初投资1元,3年后可收回1.45元;  3号方案:仅在第1年年初有一次投资机会。每投资1元,4年后可收回1.65元; 4号方案:仅在第2年年初有一次投资机会。每投资1元,4年后可收回1.7元;  5号方案。在年初存入银行1元,下一年初可得1.1元。  每年年初投资所得收益及银行利息也可用作安排。问该公司在5年内怎样使用资金,才能在第6年年初拥有最多资金? 解:设xij为i号方案在第j年年初所使用的资金数。显然,对于3号及4号方案,仅有x31和x42。此外,不考虑x15,x24,x25,因为其相应投资方案回收期超过我们所讨论的期限。我们将各年的决策变量(表中虚线起点)及其相应效益(表中虚线终点)列表。    &...

Lingo求解线性规划案例1——生产计划问题

  凯鲁嘎吉-博客园http://www.cnblogs.com/kailugaji/说明:Lingo版本:               某工厂明年根据合同,每个季度末向销售公司提供产品,有关信息如下表。若当季生产的产品过多,季末有积余,则一个季度每积压一吨产品需支付存贮费O.2万元。现该厂考虑明年的最佳生产方案,使该厂在完成合同的情况下,全年的生产费用最低。试建立模型。季度j生产能力aj(吨)生产成本dj (万元/吨)需求量bj(吨)    1     30     15.O     20     2     40&nbs...

基于golang的爬虫实战

基于golang的爬虫实战前言爬虫本来是python的强项,前期研究过scrapy,也写过一些简单的爬虫小程序,但是后来突然对golang产生兴趣,决定写写爬虫练练手。由于本人golang萌新,有错误之处,欢迎指正。大致思路由于现在动态页面比较多,因此考虑通过WebDriver驱动Chrome等页面渲染完成再抓取数据。(刚开始是用Phantomjs,后来这货不维护了,而且效率不算高)一般爬虫程序运行在linux系统中,所以考虑Chrome的headless模式。数据抓取到之后保存到CSV文件中,然后通过邮件发送出去。不足之处因为需要渲染,所以速度会降低不少,即便是不渲染图片,速度也不是很理想。因为刚开始学习,所以多线程什么的也没加进去,怕内存会崩盘。没有将数据写入到数据库,放到文件里毕竟不是最终方案。需要的库github.com/tebeka/seleniumgolang版的selenium,能实现大部分功能。gopkg.in/gomail.v2发送邮件用到的库,很久不更新了,但够用。下载依赖包本打算用dep管理依赖,结果这货坑还挺多,未研究明白不敢误人,暂时放弃。通过goget下载依...
代码星球 代码星球·2020-10-02

Python爬虫笔记

本次学习的教学视频来自嵩天老师的网络爬虫教学,主要学习内容有requestsBeautifulSoupscrapye,目前除了scrapy其他刚好看完。并搬运实现了一些小项目如58同城租房信息爬取、淘宝搜索商品项目,现将从爬虫基本方法、实战和遇到的问题三个方面进行总结。  1.基本方法  首先就是requests库,是python最简易实用的HTTP库,是一个请求库。主要方法如下,其中requests.request()方法最常用,用于构造请求,是其他几种方法的总和。其余方法如get()获取HTML网页,head()获取网页head标签,post()pu()t用于提交对应请求,patch()进行局部修改,delete()提交删除请求。     着重介绍request.get()方法,requests.get(url,params=None,**kwargs)  其中url为页面链接,params为额外参数,字典格式,**kwargs包含了12个控制访问的参数。(paramsdatajsonheaderscookiesauthfilesimeoutproxiesallow_re...
代码星球 代码星球·2020-10-02

Python爬虫利器一之Requests库的用法

以下内容大多来自于官方文档,本文进行了一些修改和总结。要了解更多可以参考官方文档利用pip安装  1$pipinstallrequests或者利用easy_install  1$easy_installrequests通过以上两种方法均可以完成安装。首先我们引入一个小例子来感受一下     Python 12345678importrequests r=requests.get('http://cuiqingcai.com')printtype(r)printr.status_codeprintr.encoding#printr.textprintr.cookies以上代码我们请求了本站点的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容。运行结果如下  1234<class'requests.models.Response'>200UTF-8<RequestsCookieJar[]>怎样,是不是很方便。别急,...

人工智能深度学习入门练习之(38)深度学习 – tensorflow实例之keras的siamese(孪生网络)实现案例

一、keras的siamese(孪生网络)实现案例二、代码实现importkerasimportnumpyasnpimportmatplotlib.pyplotaspltimportrandomfromkeras.callbacksimportTensorBoardfromkeras.datasetsimportmnistfromkeras.modelsimportModelfromkeras.layersimportInput,Flatten,Dense,Dropout,Lambdafromkeras.optimizersimportRMSpropfromkerasimportbackendasKnum_classes=10epochs=20defeuclidean_distance(vects):x,y=vectssum_square=K.sum(K.square(x-y),axis=1,keepdims=True)returnK.sqrt(K.maximum(sum_square,K.epsilon()))defeucl_dist_output_shape(shapes):sha...

Python爬虫小白入门(十四)Python 爬虫 – 提取数据到Pandas DataFrame

Pandas是一个开放源码、BSD许可的库,为Python编程语言提供高性能、易于使用的数据结构和数据分析工具。把抓取到的数据存储到PandasDataFrame中,可以进一步对数据进行分析,是一种常见做法。本章例子,将从豆瓣网站上抓取北美电影排行榜,并放进DataFrame中。豆瓣网站上的北美电影排行榜网址,北美电影排行榜在右下边栏。importrequestsfrombs4importBeautifulSouppage=requests.get("https://movie.douban.com/chart")soup=BeautifulSoup(page.content,'html.parser')titles_tags=soup.select("ul#listCont1>lia")titles=[(pt.get_text()).strip()forptintitles_tags]print(titles)revenue_tags=soup.select("ul#listCont1>lispan")revenues=[(pt.get_text()).strip()fo...

Python爬虫小白入门(十三)Python 爬虫 – 使用CSS选择器

BeautifulSoup对象支持使用CSS选择器查找标签。这些选择器是CSS语言中使用的指定HTMLTag样式的方式。下面是一些例子:pa —在p标记中找到所有的a标签。bodypa —在body标记内的p标记内查找所有a标签。htmlbody —查找html标记内的body标签。p.outer-text —查找带有类是outer-text所有p标记。p#first —查找id为first的所有p标签。bodyp.outer-text —在body标记中查找类是outer-text的p标签。使用CSS选择器查找标签,可以使用select方法:importrequestsfrombs4importBeautifulSouppage=requests.get("https://kevinhwu.github.io/demo/python-scraping/simple2.html")soup=BeautifulSoup(page.content,'html....

Python爬虫小白入门(十二)Python 爬虫 – 根据id与class查找标签

本章介绍怎么根据id与class查找标签。假设有下面的HTML文档:<html><head><title>Asimpleexamplepage</title></head><body><div><pclass="inner-textfirst-item"id="first">Firstparagraph.</p><pclass="inner-text">Secondparagraph.</p></div><pclass="outer-textfirst-item"id="second"><b>Firstouterparagraph.</b></p><pclass="outer-text"><b>Secondouterparagraph.</b></p></body></html>可以通过URLhttps://kevinhwu....

Python爬虫小白入门(十一)Python 爬虫 – 根据类型查找标签

如要查找全部同类标签,可以使用find_all方法。importrequestsfrombs4importBeautifulSouppage=requests.get("https://kevinhwu.github.io/demo/python-scraping/simple.html")soup=BeautifulSoup(page.content,'html.parser')soup.find_all('p')输出[<p>Hereissomesimplecontentforthispage.</p>]find_all返回的是一个列表。可以使用列表索引获取某个标签:soup.find_all('p')[0].get_text()输出'Hereissomesimplecontentforthispage.'另外,还有find方法,返回同类标签的首个实例,返回结果是一个BeautifulSoup对象:soup.find('p')输出<p>Hereissomesimplecontentforthispage.</p> ...

Python爬虫小白入门(十)Python 爬虫 – BeautifulSoup分析页面

我们已经抓取了一个HTML页面,接下来,我们使用BeautifulSoup来分析页面。importrequestsfrombs4importBeautifulSouppage=requests.get("https://kevinhwu.github.io/demo/python-scraping/simple.html")soup=BeautifulSoup(page.content,'html.parser')导入BeautifulSoup库,创建页面解析对象soup。前面打印出的html页面格式很乱,如果想打印出美化格式的html页面,可以使用BeautifulSoup对象上的prettify方法:print(soup.prettify())输出<!DOCTYPEhtml><html><head><title>Asimpleexamplepage</title></head><body><p>Hereissomesimplecontentforthispage.</p>&l...

Python爬虫小白入门(九)Python 爬虫 – 使用requests抓取网页

Python中,requests库可用于向web服务器发出http请求,http请求有多种方式,例如,GET/POST/PUT/DELETE等等。这里将使用GET请求抓取页面:importrequestspage=requests.get("https://kevinhwu.github.io/demo/python-scraping/simple.html")page输出<Response[200]>发出请求之后,会返回一个响应对象。该对象包含一个status_code属性,表示页面访问是否成功:page.status_code输出200status_code为200,表示成功。关于http状态码,以2开头的状态代码通常表示成功,以4或5开头的代码表示错误,如需进一步了解,可参考相关资料。可以使用content属性,打印出页面的HTML内容:page.content输出b'<!DOCTYPEhtml><html><head><title>Asimpleexamplepage</title></head>...
首页上一页...910111213...下一页尾页