51
Dev开发社区
首页
文章
问答
工具
搜索
登录
注册
#GP
Google声明机器学习在自己定制的芯片比方普通的GPU和CPU快15到30倍
GOOGLE开发自己的加速机器学习的芯片已经不是什么秘密了,最先发布出来的是TPU(TensorProcessingUnits),在2016年5月I/O开发大会上发布的。可是没有发布相关的细节情况。仅仅是说TensorFlow框架在上面执行机器学习算法能够优化执行。今天。GOOGLE第一次把这些项目的细节和评判标准发布...
代码星球
·
2020-04-06
Google
声明
机器
学习
自己
【Ubuntu】查看GPU状态
watch-n10nvidia-smi TensorFlow指定GPUCUDA_DEVICE_ORDER="PCI_BUS_ID"CUDA_VISIBLE_DEVICES="0" Theano指定GPUTHEANO_FLAGS='floatX=float32,device=gpu1' ...
代码星球
·
2020-04-06
Ubuntu
查看
GPU
状态
浅谈CPU和GPU的区别
导读: CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。 “为什么现在更多需...
代码星球
·
2020-04-06
浅谈
CPU
GPU
区别
GPS定位处理
题目内容:NMEA-0183协议是为了在不同的GPS(全球定位系统)导航设备中建立统一的BTCM(海事无线电技术委员会)标准,由美国国家海洋电子协会(NMEA-TheNationalMarineElectronicsAssocia-tion)制定的一套通讯协议。GPS接收机根据NMEA-0183协议的标准规...
代码星球
·
2020-04-05
GPS
定位
处理
PHP系列 | 编译安装msgpack-php
Msgpack是一个PECL扩展,此扩展提供用于与MessagePack序列化通信的API。MessagePack 是一个基于二进制高效的对象序列化类库,可用于跨语言通信。它可以像JSON那样,在许多种语言之间交换结构对象;但是它比JSON更快速也更轻巧。下载wgethttps://github.com/ms...
代码星球
·
2020-04-03
PHP
系列
编译
安装
msgpack-php
【GPU加速系列】PyCUDA(一):上手简单操作
PyCUDA可以通过Python访问NVIDIA的CUDA并行计算API。具体介绍和安装可以参考 PyCUDA官网文档和 pycudaPyPI。本文涵盖的内容有:通过PyCUDA查询GPU信息。NumPyarray和gpuarray之间的相互转换。使用gpuarray进行基本的运算。使用Elemen...
代码星球
·
2020-04-02
GPU
加速
系列
PyCUDA
上手
WorkStealingPool
/***WorkStealingPool*工作窃取线程池**假设共有三个线程同时执行,A,B,C*当A,B线程池尚未处理任务结束,而C已经处理完毕,则C线程会从A或者B中窃取任务执行,这就叫工作窃取*假如A线程中的队列里面分配了5个任务,而B线程的队列中分配了1个任务,当B线程执行完任务后,它会主动的去A线...
代码星球
·
2020-04-02
WorkStealingPool
IAR FOR STM8 学习笔记 固件库 GPIO
经过一番挣扎,还是决定使用官方的固件库了。。从网上下一个STM8S的固件库,记得是FOR IAR的。找到里面的IAR模板就可以开始用了。 这些都是直接写好的库函数,可以直接调用,但首先得先读懂,先了解些必备知识。STM8的寄存器的地址 在STM8中,与某个外围设备有关的寄存器在...
代码星球
·
2020-04-02
IAR
FOR
STM8
学习
笔记
【CUDA学习】GPU硬件结构
GPU的硬件结构,也不是具体的硬件结构,就是与CUDA相关的几个概念:thread,block,grid,warp,sp,sm。sp:最基本的处理单元,streamingprocessor 最后具体的指令和任务都是在sp上处理的。GPU进行并行计算,也就是很多个sp同时做处理sm:多个sp加上其他的一些资源组...
代码星球
·
2020-03-29
CUDA
学习
GPU
硬件
结构
【OpenCV】OpenCV中GPU模块使用 (转)
CUDA基本使用方法在介绍OpenCV中GPU模块使用之前,先回顾下CUDA的一般使用方法,其基本步骤如下:1.主机代码执行;2.传输数据到GPU;3.确定grid,block大小;4.调用内核函数,GPU运行程序;5.传输结果到CPU;6.继续主机代码执行。下图是两个向量相加的简单示例程序和处理流图。注意的问题:cu...
代码星球
·
2020-03-29
OpenCV
GPU
模块
使用
【GPU编解码】GPU硬解码---CUVID
问题描述:项目中,需要对高清监控视频分析处理,经测试,其解码过程所占CPU资源较多,导致整个系统处理效率不高,解码成为系统的瓶颈。解决思路:利用GPU解码高清视频,降低解码所占用CPU资源,加速解码过程。一、OpenCV中的硬解码OpenCV2.4.6中,已实现利用GPU进行读取视频,由cv::gpu::VideoRe...
代码星球
·
2020-03-29
GPU
解码
---CUVID
【GPU编解码】GPU硬编码 (转)
一、OpenCV中的硬编码OpenCV2.4.6中,已实现利用GPU进行写视频,编码过程由cv::gpu::VideoWriter_GPU完成,其示例程序如下。1intmain(intargc,constchar*argv[])2{3if(argc!=2)4{5std::cerr<<"Usage:video...
代码星球
·
2020-03-29
GPU
解码
编码
【GPU编解码】GPU硬解码---DXVA (转)
前面介绍利用NVIDIA公司提供的CUVID库进行视频硬解码,下面将介绍利用DXVA进行硬解码。一、DXVA介绍 DXVA是微软公司专门定制的视频加速规范,是一种接口规范。DXVA规范制定硬件加速解码可分四级:VLD,控制BitStream;IDCT,反余弦变换;Mocomp,运动补偿,PixelPredic...
代码星球
·
2020-03-29
GPU
解码
---DXVA
【TensorFlow】多GPU训练:示例代码解析
使用多GPU有助于提升训练速度和调参效率。本文主要对tensorflow的示例代码进行注释解析:cifar10_multi_gpu_train.py1080Ti下加速效果如下(batch=128)单卡:两个GPU比单个GPU加速了近一倍:1.简介多GPU训练分为:数据并行和模型并行单机多卡和多机多卡2.示例代码解读官方...
IT猿
·
2020-03-27
TensorFlow
GPU
训练
示例
代码
【Python-GPU加速】基于Numba的GPU计算加速(一)基本
Numba是一个可以利用GPU/CPU和CUDA对python函数进行动态编译,大幅提高执行速度的加速工具包。利用修饰器@jit,@cuda.jit,@vectorize等对函数进行编译JIT:即时编译,提高执行速度基于特定数据类型集中于数值计算(高效编译math,cmath,sub-numpy)Numba是一个开源的...
IT猿
·
2020-03-27
加速
Python-GPU
基于
Numba
GPU
首页
上一页
...
10
11
12
13
14
下一页
尾页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他