为您找到搜索结果:1489个
OpenAL播放pcm或wav数据流-windows/ios/android(一)
OpenAL播放pcm或wav数据流-windows/iOS/Android(一) 最近在研究渲染问题,本文采用openal做pcm和wav数据流播放,并非本地文件,demo是windows的,ios通用。网上都是ios的,ios需要引用OpenAl.framework框架,Android平台需要做openal的jni,android的openal库可以参考http://blog.csdn.NET/matrix_laboratory/article/details/53319735这篇文章,各个平台需要做稍微处理。下面是代码://.h [cpp] viewplain copy /** Copyright (c/c++) <2016.11.22> <zwg/> * Function * OpenAL through the buffer queuing ...
Windows录音API学习笔记--转
Windows录音API学习笔记结构体和函数信息 结构体WAVEINCAPS该结构描述了一个波形音频输入设备的能力。typedefstruct{ WORD wMid;用于波形音频输入设备的设备驱动程序制造商标识符。 WORD wPid;声音输入设备的产品识别码。 MMVERSION vDriverVersion;用于波形音频输入设备的设备驱动程序的版本号。高位字节是主版本号,低字节是次版本号。 CHAR szPname[MAXPNAMELEN];设备名称 DWORD dwFormats;所支持的标准格式。可以是以下组合: &n...
Windows基础-实时录音程序(WaveXXX)
一开始是打算用这个老接口做讯飞语音识别的程序,在转移到UWP时发现,这玩意在WindowsRuntime中屏蔽(弃用)了,将来会更新使用WASAPI的程序 WaveRecorder类代码下载地址录音无非两种需求: 1.非实时获得音频,也就是停止录音了你才需要处理它; 2.实时获取音频,比如QQ电话这种这边讲话那边马上就听到的。 后者实现起来比较啰嗦,但也很定式。既然啰嗦那就乖乖地写成类吧,管别的大仙怎么说你low呢(͡°͜ʖ͡°)。 首先你要知道…WindowsAPI可用的实现方式用处WindowsMultimediaAPI(WaveXxxAPI)定式且啰嗦地实现音频流的实时获取。MediaControlInterface(MCI)让你简单地用字符...
Windows基础-使用XAudio2播放音频(本质是WASAPI)
对于常见的音频播放,使用XAudio2足够了。早在WindowsVista中,M$推出了新的音频架构UAA,其中的CoreAudio接替了DSound、WaveXxx、MediaFundation,通过CoreAudioAPIs,Windows的音频性能可以与MacOSX相媲美(手动偷笑)。CoreAudio属于UAA,只在用户层进行一系列音频处理,而系统内核只负责递交缓冲数据给音频驱动。 在UAA出现之前,程序跑起来是这样的: 现在程序在UAA跑起来是这样的: CoreAudioAPIs的明星:WASAPIWASAPI可以不进行SRC直接输出,还能提供极低的音频延迟。 为了降低音频延迟,更像AISO,WASAPI的使用方式分为两种:一种是push,组成缓冲区队列,常用于音频播放。一种是event(必须独占),由硬件时钟或音频API提供事件来驱动你提交音频数据(好复杂啊真心没用过,缓存欠载怎么办),这样就可以大幅降低音频延迟,好像连DMA都会跳过(未查证),适用于游戏、实时混音等对实时性要求比较苛刻的场合。 在保...
使用WindowsAPI实现播放PCM音频的方法
这篇文章主要介绍了使用WindowsAPI实现播放PCM音频的方法,很实用的一个功能,需要的朋友可以参考下本文介绍了使用WindowsAPI实现播放PCM音频的方法,同前面一篇使用WindowsAPI获取录音音频的方法原理具有相似之处,这里就不再详细介绍具体的函数与结构体的参数,相同的部分加以省略,只介绍主要的功能部分代码。如下所示:1.waveOutGetNumDevs2.waveOutGetDevCaps3.waveOutOpen回调函数:?1voidCALLBACKPlayCallback(HWAVEOUThwaveout,UINTuMsg,DWORDdwInstance,DWORDdwParam1,DWORDdwParam2);4.waveOutPrepareHeader5.waveOutWrite:执行后立即开始播放,当前缓冲区播放完成会调用回调函数这里需要注意:为了能够实现连续播放效果,在第4部需要准备两个或两个以上的播放数据。感兴趣的朋友可以对比前面的文章手动调试一下本文所述实例。...
使用WindowsAPI获取录音音频的方法
这篇文章主要介绍了使用WindowsAPI获取录音音频的方法,非常实用的功能,需要的朋友可以参考下本文实例介绍了使用winmm.h进行音频流的获取的方法,具体步骤如下:一、首先需要包含以下引用对象?123#include<Windows.h>#include"mmsystem.h"#pragmacomment(lib,"winmm.lib")二、音频的获取需要调用7个函数1.waveInGetNumDevs:返回系统中就绪的波形声音输入设备的数量?1UINTwaveInGetNumDevs(VOID);2.waveInGetDevCaps:检查指定波形输入设备的特性?1234567891011121314151617MMRESULTwaveInGetDevCaps( UINT_PTR uDeviceID, LPWAVEINCAPSpwic, UINT cbwic  ...
Windows PCM音频捕获与播放实现
在WINDOWS下,音频函数有多种类型,如MCI、多媒体OLE控制、高级音频等,使用方法都比较简单。但如果想编写一个功能较强大的音频处理程序,那就必须使用低级音频函数和多媒体文件I/O来控制音频设备的输入和输出。因为低级音频函数可直接与音频驱动程序交互,通过窗口消息或回调(CALLBACK)函数来管理音频数据块的记录和播放,控制非常灵活。重要的一点是,低级音频函数为我们提供了一个设备无关的接口。 WINDOWS下音频的采集,播放有三种模式:(1)通过高级音频函数、媒体控制接口MCI[1、2]设备驱动程序。(2)低级音频函数MIDIMapper、低级音频设备驱动(WaveXAPI)。(3)利用DirectX中的DirectSound。 使用MCI的方法极其简便,灵活性较差;使用低级音频函数的方法相对来说难一点,但是能够对音频数据进行灵活的操控;而采用DirectSound的方法,控制声音数据灵活,效果比前二者都好,但实现起来是三者中最难的。DirectSound是DirectXAudio的一个较底层的部件,提供了丰富的接口函数,实现.wav格式的波形声音数据的播放控制...
zlib、libzip、 libzippp 库编译(windows + cmake + vs2013)
"libzipp"这库是基于"libzip"之上封装的,而"libzip"又是基于"zlib"库封装的,所以要编译"libzipp"库就要先编译其他两个库。下载准备:"zlib-1.2.8.tar.gz""libzip-1.0.1.tar.gz""libzippp-master.zip"编译环境:cmake+vs2013, 安装好cmake和"VS2013x86本机工具命令提示"工具(安装vs2013的时候已经有)命令行环境使用的是[VS2013x86本机工具命令提示],“开始”->"VisualStudio2013"->"VisualStudioTools"->"VS2013x86本机工具命令提示"以下是本次编译过程,记录详细流程以备忘:一、编译zlib库1、将解压出来的"zlib-1.2.8"文件夹拷贝到"E:BuildWorkspace";2、命令行进入此路径,命令:[mkdirbuild](创建build文件夹);3、进入刚创建的"build"文件夹,命令:[cmake..-G"VisualStudio92008"-DCMAK...
在Windows下编译WebRTC
这篇文章的目的在于为你节省生命中宝贵的10小时(甚至更多),或者浪费你10分钟。作为Google更新频繁的大型跨平台基础库,WebRTC的编译一直被人称为噩梦。如果恰巧你偏要在Windows下编译WebRTC,那么你最好提前对自己的耐心做充分的评估。截止目前,我尝试过中文博客社区里几乎所有的文章,可以说全部失效了。我不知道这篇文章的有效期有多久,因为webrtc.org社区的家伙们更新实在太勤奋了!OS:MicrosoftWindows7Ultimate6.1.7601ServicePack1Build7601你只需要一台Win764机器即可,其他一概用WebRTC提供的就行。如果使用WebRTC自带的编译工具链的话,宿主机器已安装的Python和VS等等与WebRTC可以做到毫不相关,请不要被某些文章蒙蔽。原因你懂的。推荐挑一个快点的TW或JP节点,保持网络通畅。使用SVNcheckouthttp://src.chromium.org/svn/trunk/tools/depot_tools然后运行depot_toolsgclient.bat,这个脚本会触发检测逻辑,自动下载pytho...
开源项目:windows下使用MinGW+msys编译ffmpeg
本文参考了网络上的不少文章,但由于版本环境的问题参考文章并不能直接指导编译,本文吸收多方经验,并在自己多次编译实验的基础上写成,欢迎转载,请注名出处。 FFmpeg是在Linux平台下开发的,但它同样可以在其它操作系统环境中编译运行,本文介绍的就是在windows下编译FFmpeg。一编译准备 您最好新建一个目录专门用来保存以下下载的文件。1下载MinGW和MSYS MinGW(MinimalistGNUonWindows):一个可自由使用和自由发布的Windows特定头文件和使用GNU工具集导入库的集合,允许你生成本地的Windows程序而不需要第三方C运行时库。 到:http://sourceforge.net/projects/mingw/ 去下载即可 A点击“DownLoadmingw-get-inst-...exe” B切换到页面...
Linux和windows之间通过scp复制文件
Windows是不支持ssh协议的需要安装WinSSHD 安装以及设置过程如下:BvSshServer(原名winsshd)官方下载页在这里:https://www.bitvise.com/download-area下载完成BvSshServer-Inst.exe接下来我们安装首先会跳出一个黑框和一个窗口,黑框在安装过程中不用管它。点击“IagreetoacceptallthetermsofthisLicenseAgreement”(同意条款)点击Install安装接下来会跳出版本选择窗口,标准版(Standardedition)有30天试用期,个人版(Personedition)有功能限制,鉴于目前测试暂时用不到标准版功能,这里选个人版。稍后我们会在黑框看到安装进度,安装完成后会有提示,在提示框点击确定 在弹出的控制面板中选择“openeasysettings”接下来我们配置一个虚拟账户在服务器设定的防火墙设置中,选择对所有计算机开放端口(默认只对子网开放端口)切换到windows账户标签卡中,取消选中(不允许使用w...
Windows和linux通过命令互传文件
下载pscphttps://www.chiark.greenend.org.uk/~sgtatham/putty/latest.html放在Windows的c:windows/system32下pscp.exe-lroot-pw"KJdsnhjg"-r"c:est0327.txt" root@10.132.131.51:/usr/local/source/dist解释:将Windows中的c:est0327.txt文件,传输到10.132.131.51:/usr/local/source/dist路径下,-l指定用户名,-pw指定linux的密码 ...
jenkins:构建机器为windows,部署机器为linux
备份老的jar包d=`date+"%Y%m%d-%H%M%S"`cd/home/eccore/app/uatmvsteward-api-3.0.0-SNAPSHOT.jarsteward-api-3.0.0-SNAPSHOT-$d.jar从windows向linux传输文件cdC:WindowsSystem32pscp.exe-leccore-pw"!**密码**"-r"E:sonarworkspaceA网-客户管家项目-后台部署steward-apiargetsteward-api-3.0.0-SNAPSHOT.jar"eccore@10.130.37.64:/home/eccore/app/uat杀进程并启动cd/home/eccore/app/uatps-ef|grepjava|grep-vgrep|awk'{print$2}'|xargskill-9shstart.shstart.sh内容如下nohup/usr/local/java/jre/bin/java-jar/home/eccore/app/uat/steward-api-3.0.0-SNAPSHOT.jar--spri...
windows下使用Redis
https://blog.csdn.net/baidu_33465676/article/details/75530477...
windows通过命令方式解压zip文件
1、需要下载unzip地址:http://gnuwin32.sourceforge.net/packages/unzip.htm下载exe版本 2、安装后将bin目录下的unzip.exe文件放在C:Windows目录下 3、命令行执行unziptest.zip就能解压了 ...