引子
Android Framework的音频子系统中,每一个音频流对应着一个AudioTrack类的一个实例,每个AudioTrack会在创建时注册到AudioFlinger中,由AudioFlinger把所有的AudioTrack进行混合(Mixer),然后输送到AudioHardware中进行播放,目前Android的Froyo版本设定了同时最多可以创建32个音频流,也就是说,Mixer最多会同时处理32个AudioTrack的数据流。
如何使用AudioTrack
AudioTrack的主要代码位于 frameworks/base/media/libmedia/audiotrack.cpp中。现在先通过一个例子来了解一下如何使用AudioTrack,ToneGenerator是android中产生电话拨号音和其他音调波形的一个实现,我们就以它为例子:
ToneGenerator的初始化函数:
- boolToneGenerator::initAudioTrack(){
- mpAudioTrack=newAudioTrack();
- mpAudioTrack->set(mStreamType,
- 0,
- AudioSystem::PCM_16_BIT,
- AudioSystem::CHANNEL_OUT_MONO,
- 0,
- 0,
- audioCallback,
- this,
- 0,
- 0,
- mThreadCanCallJava);
- if(mpAudioTrack->initCheck()!=NO_ERROR){
- LOGE("AudioTrack->initCheckfailed");
- gotoinitAudioTrack_exit;
- }
- mpAudioTrack->setVolume(mVolume,mVolume);
- mState=TONE_INIT;
- ......
- }
可见,创建步骤很简单,先new一个AudioTrack的实例,然后调用set成员函数完成参数的设置并注册到AudioFlinger中,然后可以调用其他诸如设置音量等函数进一步设置音频参数。其中,一个重要的参数是audioCallback,audioCallback是一个回调函数,负责响应AudioTrack的通知,例如填充数据、循环播放、播放位置触发等等。回调函数的写法通常像这样:
- voidToneGenerator::audioCallback(intevent,void*user,void*info){
- if(event!=AudioTrack::EVENT_MORE_DATA)return;
- AudioTrack::Buffer*buffer=static_cast<AudioTrack::Buffer*>(info);
- ToneGenerator*lpToneGen=static_cast<ToneGenerator*>(user);
- short*lpOut=buffer->i16;
- unsignedintlNumSmp=buffer->size/sizeof(short);
- constToneDescriptor*lpToneDesc=lpToneGen->mpToneDesc;
- if(buffer->size==0)return;
- memset(lpOut,0,buffer->size);
- ......
- }
该函数首先判断事件的类型是否是EVENT_MORE_DATA,如果是,则后续的代码会填充相应的音频数据后返回,当然你可以处理其他事件,以下是可用的事件类型:
- enumevent_type{
- EVENT_MORE_DATA=0,
- EVENT_UNDERRUN=1,
- EVENT_LOOP_END=2,
- EVENT_MARKER=3,
- EVENT_NEW_POS=4,
- EVENT_BUFFER_END=5
- };
开始播放:
停止播放:
只要简单地调用成员函数start()和stop()即可。
AudioTrack和AudioFlinger的通信机制
通常,AudioTrack和AudioFlinger并不在同一个进程中,它们通过android中的binder机制建立联系。
AudioFlinger是android中的一个service,在android启动时就已经被加载。下面这张图展示了他们两个的关系:
图一 AudioTrack和AudioFlinger的关系
我们可以这样理解这张图的含义:
- audio_track_cblk_t实现了一个环形FIFO;
- AudioTrack是FIFO的数据生产者;
- AudioFlinger是FIFO的数据消费者。
建立联系的过程
下面的序列图展示了AudioTrack和AudioFlinger建立联系的过程:
图二 AudioTrack和AudioFlinger建立联系
解释一下过程:
- Framework或者Java层通过JNI,new AudioTrack();
- 根据StreamType等参数,通过一系列的调用getOutput();
- 如有必要,AudioFlinger根据StreamType打开不同硬件设备;
- AudioFlinger为该输出设备创建混音线程: MixerThread(),并把该线程的id作为getOutput()的返回值返回给AudioTrack;
- AudioTrack通过binder机制调用AudioFlinger的createTrack();
- AudioFlinger注册该AudioTrack到MixerThread中;
- AudioFlinger创建一个用于控制的TrackHandle,并以IAudioTrack这一接口作为createTrack()的返回值;
- AudioTrack通过IAudioTrack接口,得到在AudioFlinger中创建的FIFO(audio_track_cblk_t);
- AudioTrack创建自己的监控线程:AudioTrackThread;
自此,AudioTrack建立了和AudioFlinger的全部联系工作,接下来,AudioTrack可以:
- 通过IAudioTrack接口控制该音轨的状态,例如start,stop,pause等等;
- 通过对FIFO的写入,实现连续的音频播放;
- 监控线程监控事件的发生,并通过audioCallback回调函数与用户程序进行交互;
FIFO的管理
audio_track_cblk_t
audio_track_cblk_t这个结构是FIFO实现的关键,该结构是在createTrack的时候,由AudioFlinger申请相应的内存,然后通过IMemory接口返回AudioTrack的,这样AudioTrack和AudioFlinger管理着同一个audio_track_cblk_t,通过它实现了环形FIFO,AudioTrack向FIFO中写入音频数据,AudioFlinger从FIFO中读取音频数据,经Mixer后送给AudioHardware进行播放。
audio_track_cblk_t的主要数据成员:
user --AudioTrack当前的写位置的偏移
userBase -- AudioTrack写偏移的基准位置,结合user的值方可确定真实的FIFO地址指针
server --AudioFlinger当前的读位置的偏移
serverBase -- AudioFlinger读偏移的基准位置,结合server的值方可确定真实的FIFO地址指针
frameCount-- FIFO的大小,以音频数据的帧为单位,16bit的音频每帧的大小是2字节
buffers -- 指向FIFO的起始地址
out -- 音频流的方向,对于AudioTrack,out=1,对于AudioRecord,out=0
audio_track_cblk_t的主要成员函数:
framesAvailable_l()和framesAvailable()用于获取FIFO中可写的空闲空间的大小,只是加锁和不加锁的区别。
- uint32_taudio_track_cblk_t::framesAvailable_l()
- {
- uint32_tu=this->user;
- uint32_ts=this->server;
- if(out){
- uint32_tlimit=(s<loopStart)?s:loopStart;
- returnlimit+frameCount-u;
- }else{
- returnframeCount+u-s;
- }
- }
framesReady()用于获取FIFO中可读取的空间大小。
- uint32_taudio_track_cblk_t::framesReady()
- {
- uint32_tu=this->user;
- uint32_ts=this->server;
- if(out){
- if(u<loopEnd){
- returnu-s;
- }else{
- Mutex::Autolock_l(lock);
- if(loopCount>=0){
- return(loopEnd-loopStart)*loopCount+u-s;
- }else{
- returnUINT_MAX;
- }
- }
- }else{
- returns-u;
- }
- }
我们看看下面的示意图:
_____________________________________________
^ ^ ^ ^
buffer_start server(s) user(u) buffer_end
很明显,frameReady = u - s,frameAvalible = frameCount - frameReady = frameCount -u + s
可能有人会问,应为这是一个环形的buffer,一旦user越过了buffer_end以后,应该会发生下面的情况:
_____________________________________________
^^ ^ ^
buffer_startuser(u)server(s) buffer_end
这时候u在s的前面,用上面的公式计算就会错误,但是android使用了一些技巧,保证了上述公式一直成立。我们先看完下面三个函数的代码再分析:
- uint32_taudio_track_cblk_t::stepUser(uint32_tframeCount)
- {
- uint32_tu=this->user;
- u+=frameCount;
- ......
- if(u>=userBase+this->frameCount){
- userBase+=this->frameCount;
- }
- this->user=u;
- ......
- returnu;
- }
- boolaudio_track_cblk_t::stepServer(uint32_tframeCount)
- {
- status_terr;
- err=lock.tryLock();
- if(err==-EBUSY){
- usleep(1000);
- err=lock.tryLock();
- }
- if(err!=NO_ERROR){
- returnfalse;
- }
- uint32_ts=this->server;
- s+=frameCount;
- if(s>=serverBase+this->frameCount){
- serverBase+=this->frameCount;
- }
- this->server=s;
- cv.signal();
- lock.unlock();
- returntrue;
- }
- void*audio_track_cblk_t::buffer(uint32_toffset)const
- {
- return(int8_t*)this->buffers+(offset-userBase)*this->frameSize;
- }
stepUser()和stepServer的作用是调整当前偏移的位置,可以看到,他们仅仅是把成员变量user或server的值加上需要移动的数量,user和server的值并不考虑FIFO的边界问题,随着数据的不停写入和读出,user和server的值不断增加,只要处理得当,user总是出现在server的后面,因此frameAvalible()和frameReady()中的算法才会一直成立。根据这种算法,user和server的值都可能大于FIFO的大小:framCount,那么,如何确定真正的写指针的位置呢?这里需要用到userBase这一成员变量,在stepUser()中,每当user的值越过(userBase+frameCount),userBase就会增加frameCount,这样,映射到FIFO中的偏移总是可以通过(user-userBase)获得。因此,获得当前FIFO的写地址指针可以通过成员函数buffer()返回:
p = mClbk->buffer(mclbk->user);
在AudioTrack中,封装了两个函数:obtainBuffer()和releaseBuffer()操作FIFO,obtainBuffer()获得当前可写的数量和写指针的位置,releaseBuffer()则在写入数据后被调用,它其实就是简单地调用stepUser()来调整偏移的位置。
IMemory接口
在createTrack的过程中,AudioFlinger会根据传入的frameCount参数,申请一块内存,AudioTrack可以通过IAudioTrack接口的getCblk()函数获得指向该内存块的IMemory接口,然后AudioTrack通过该IMemory接口的pointer()函数获得指向该内存块的指针,这块内存的开始部分就是audio_track_cblk_t结构,紧接着是大小为frameSize的FIFO内存。
IMemory->pointer() ---->|_______________________________________________________
|__audio_track_cblk_t__|_______buffer of FIFO(size==frameCount)____|
看看AudioTrack的createTrack()的代码就明白了:
- sp<IAudioTrack>track=audioFlinger->createTrack(getpid(),
- streamType,
- sampleRate,
- format,
- channelCount,
- frameCount,
- ((uint16_t)flags)<<16,
- sharedBuffer,
- output,
- &status);
- sp<IMemory>cblk=track->getCblk();
- mAudioTrack.clear();
- mAudioTrack=track;
- mCblkMemory.clear();
- mCblkMemory=cblk;
- mCblk=static_cast<audio_track_cblk_t*>(cblk->pointer());
- mCblk->out=1;
- mFrameCount=mCblk->frameCount;
- if(sharedBuffer==0){
- mCblk->buffers=(char*)mCblk+sizeof(audio_track_cblk_t);
- }else{
- ..........
- }
引子
Android Framework的音频子系统中,每一个音频流对应着一个AudioTrack类的一个实例,每个AudioTrack会在创建时注册到AudioFlinger中,由AudioFlinger把所有的AudioTrack进行混合(Mixer),然后输送到AudioHardware中进行播放,目前Android的Froyo版本设定了同时最多可以创建32个音频流,也就是说,Mixer最多会同时处理32个AudioTrack的数据流。
如何使用AudioTrack
AudioTrack的主要代码位于 frameworks/base/media/libmedia/audiotrack.cpp中。现在先通过一个例子来了解一下如何使用AudioTrack,ToneGenerator是android中产生电话拨号音和其他音调波形的一个实现,我们就以它为例子:
ToneGenerator的初始化函数:
- boolToneGenerator::initAudioTrack(){
- mpAudioTrack=newAudioTrack();
- mpAudioTrack->set(mStreamType,
- 0,
- AudioSystem::PCM_16_BIT,
- AudioSystem::CHANNEL_OUT_MONO,
- 0,
- 0,
- audioCallback,
- this,
- 0,
- 0,
- mThreadCanCallJava);
- if(mpAudioTrack->initCheck()!=NO_ERROR){
- LOGE("AudioTrack->initCheckfailed");
- gotoinitAudioTrack_exit;
- }
- mpAudioTrack->setVolume(mVolume,mVolume);
- mState=TONE_INIT;
- ......
- }
可见,创建步骤很简单,先new一个AudioTrack的实例,然后调用set成员函数完成参数的设置并注册到AudioFlinger中,然后可以调用其他诸如设置音量等函数进一步设置音频参数。其中,一个重要的参数是audioCallback,audioCallback是一个回调函数,负责响应AudioTrack的通知,例如填充数据、循环播放、播放位置触发等等。回调函数的写法通常像这样:
- voidToneGenerator::audioCallback(intevent,void*user,void*info){
- if(event!=AudioTrack::EVENT_MORE_DATA)return;
- AudioTrack::Buffer*buffer=static_cast<AudioTrack::Buffer*>(info);
- ToneGenerator*lpToneGen=static_cast<ToneGenerator*>(user);
- short*lpOut=buffer->i16;
- unsignedintlNumSmp=buffer->size/sizeof(short);
- constToneDescriptor*lpToneDesc=lpToneGen->mpToneDesc;
- if(buffer->size==0)return;
- memset(lpOut,0,buffer->size);
- ......
- }
该函数首先判断事件的类型是否是EVENT_MORE_DATA,如果是,则后续的代码会填充相应的音频数据后返回,当然你可以处理其他事件,以下是可用的事件类型:
- enumevent_type{
- EVENT_MORE_DATA=0,
- EVENT_UNDERRUN=1,
- EVENT_LOOP_END=2,
- EVENT_MARKER=3,
- EVENT_NEW_POS=4,
- EVENT_BUFFER_END=5
- };
开始播放:
停止播放:
只要简单地调用成员函数start()和stop()即可。
AudioTrack和AudioFlinger的通信机制
通常,AudioTrack和AudioFlinger并不在同一个进程中,它们通过android中的binder机制建立联系。
AudioFlinger是android中的一个service,在android启动时就已经被加载。下面这张图展示了他们两个的关系:
图一 AudioTrack和AudioFlinger的关系
我们可以这样理解这张图的含义:
- audio_track_cblk_t实现了一个环形FIFO;
- AudioTrack是FIFO的数据生产者;
- AudioFlinger是FIFO的数据消费者。
建立联系的过程
下面的序列图展示了AudioTrack和AudioFlinger建立联系的过程:
图二 AudioTrack和AudioFlinger建立联系
解释一下过程:
- Framework或者Java层通过JNI,new AudioTrack();
- 根据StreamType等参数,通过一系列的调用getOutput();
- 如有必要,AudioFlinger根据StreamType打开不同硬件设备;
- AudioFlinger为该输出设备创建混音线程: MixerThread(),并把该线程的id作为getOutput()的返回值返回给AudioTrack;
- AudioTrack通过binder机制调用AudioFlinger的createTrack();
- AudioFlinger注册该AudioTrack到MixerThread中;
- AudioFlinger创建一个用于控制的TrackHandle,并以IAudioTrack这一接口作为createTrack()的返回值;
- AudioTrack通过IAudioTrack接口,得到在AudioFlinger中创建的FIFO(audio_track_cblk_t);
- AudioTrack创建自己的监控线程:AudioTrackThread;
自此,AudioTrack建立了和AudioFlinger的全部联系工作,接下来,AudioTrack可以:
- 通过IAudioTrack接口控制该音轨的状态,例如start,stop,pause等等;
- 通过对FIFO的写入,实现连续的音频播放;
- 监控线程监控事件的发生,并通过audioCallback回调函数与用户程序进行交互;
FIFO的管理
audio_track_cblk_t
audio_track_cblk_t这个结构是FIFO实现的关键,该结构是在createTrack的时候,由AudioFlinger申请相应的内存,然后通过IMemory接口返回AudioTrack的,这样AudioTrack和AudioFlinger管理着同一个audio_track_cblk_t,通过它实现了环形FIFO,AudioTrack向FIFO中写入音频数据,AudioFlinger从FIFO中读取音频数据,经Mixer后送给AudioHardware进行播放。
audio_track_cblk_t的主要数据成员:
user --AudioTrack当前的写位置的偏移
userBase -- AudioTrack写偏移的基准位置,结合user的值方可确定真实的FIFO地址指针
server --AudioFlinger当前的读位置的偏移
serverBase -- AudioFlinger读偏移的基准位置,结合server的值方可确定真实的FIFO地址指针
frameCount-- FIFO的大小,以音频数据的帧为单位,16bit的音频每帧的大小是2字节
buffers -- 指向FIFO的起始地址
out -- 音频流的方向,对于AudioTrack,out=1,对于AudioRecord,out=0
audio_track_cblk_t的主要成员函数:
framesAvailable_l()和framesAvailable()用于获取FIFO中可写的空闲空间的大小,只是加锁和不加锁的区别。
- uint32_taudio_track_cblk_t::framesAvailable_l()
- {
- uint32_tu=this->user;
- uint32_ts=this->server;
- if(out){
- uint32_tlimit=(s<loopStart)?s:loopStart;
- returnlimit+frameCount-u;
- }else{
- returnframeCount+u-s;
- }
- }
framesReady()用于获取FIFO中可读取的空间大小。
- uint32_taudio_track_cblk_t::framesReady()
- {
- uint32_tu=this->user;
- uint32_ts=this->server;
- if(out){
- if(u<loopEnd){
- returnu-s;
- }else{
- Mutex::Autolock_l(lock);
- if(loopCount>=0){
- return(loopEnd-loopStart)*loopCount+u-s;
- }else{
- returnUINT_MAX;
- }
- }
- }else{
- returns-u;
- }
- }
我们看看下面的示意图:
_____________________________________________
^ ^ ^ ^
buffer_start server(s) user(u) buffer_end
很明显,frameReady = u - s,frameAvalible = frameCount - frameReady = frameCount -u + s
可能有人会问,应为这是一个环形的buffer,一旦user越过了buffer_end以后,应该会发生下面的情况:
_____________________________________________
^^ ^ ^
buffer_startuser(u)server(s) buffer_end
这时候u在s的前面,用上面的公式计算就会错误,但是android使用了一些技巧,保证了上述公式一直成立。我们先看完下面三个函数的代码再分析:
- uint32_taudio_track_cblk_t::stepUser(uint32_tframeCount)
- {
- uint32_tu=this->user;
- u+=frameCount;
- ......
- if(u>=userBase+this->frameCount){
- userBase+=this->frameCount;
- }
- this->user=u;
- ......
- returnu;
- }
- boolaudio_track_cblk_t::stepServer(uint32_tframeCount)
- {
- status_terr;
- err=lock.tryLock();
- if(err==-EBUSY){
- usleep(1000);
- err=lock.tryLock();
- }
- if(err!=NO_ERROR){
- returnfalse;
- }
- uint32_ts=this->server;
- s+=frameCount;
- if(s>=serverBase+this->frameCount){
- serverBase+=this->frameCount;
- }
- this->server=s;
- cv.signal();
- lock.unlock();
- returntrue;
- }
- void*audio_track_cblk_t::buffer(uint32_toffset)const
- {
- return(int8_t*)this->buffers+(offset-userBase)*this->frameSize;
- }
stepUser()和stepServer的作用是调整当前偏移的位置,可以看到,他们仅仅是把成员变量user或server的值加上需要移动的数量,user和server的值并不考虑FIFO的边界问题,随着数据的不停写入和读出,user和server的值不断增加,只要处理得当,user总是出现在server的后面,因此frameAvalible()和frameReady()中的算法才会一直成立。根据这种算法,user和server的值都可能大于FIFO的大小:framCount,那么,如何确定真正的写指针的位置呢?这里需要用到userBase这一成员变量,在stepUser()中,每当user的值越过(userBase+frameCount),userBase就会增加frameCount,这样,映射到FIFO中的偏移总是可以通过(user-userBase)获得。因此,获得当前FIFO的写地址指针可以通过成员函数buffer()返回:
p = mClbk->buffer(mclbk->user);
在AudioTrack中,封装了两个函数:obtainBuffer()和releaseBuffer()操作FIFO,obtainBuffer()获得当前可写的数量和写指针的位置,releaseBuffer()则在写入数据后被调用,它其实就是简单地调用stepUser()来调整偏移的位置。
IMemory接口
在createTrack的过程中,AudioFlinger会根据传入的frameCount参数,申请一块内存,AudioTrack可以通过IAudioTrack接口的getCblk()函数获得指向该内存块的IMemory接口,然后AudioTrack通过该IMemory接口的pointer()函数获得指向该内存块的指针,这块内存的开始部分就是audio_track_cblk_t结构,紧接着是大小为frameSize的FIFO内存。
IMemory->pointer() ---->|_______________________________________________________
|__audio_track_cblk_t__|_______buffer of FIFO(size==frameCount)____|
看看AudioTrack的createTrack()的代码就明白了:
- sp<IAudioTrack>track=audioFlinger->createTrack(getpid(),
- streamType,
- sampleRate,
- format,
- channelCount,
- frameCount,
- ((uint16_t)flags)<<16,
- sharedBuffer,
- output,
- &status);
- sp<IMemory>cblk=track->getCblk();
- mAudioTrack.clear();
- mAudioTrack=track;
- mCblkMemory.clear();
- mCblkMemory=cblk;
- mCblk=static_cast<audio_track_cblk_t*>(cblk->pointer());
- mCblk->out=1;
- mFrameCount=mCblk->frameCount;
- if(sharedBuffer==0){
- mCblk->buffers=(char*)mCblk+sizeof(audio_track_cblk_t);
- }else{
- ..........
- }
分享到:
相关推荐
Android 使用 AudioRecord 和 AudioTrack 完成音频PCM数据的采集和播放,并读写音频wav文件。 封装好的Java代码,可同时录制PCM和WAV文件。自己定义存储位置。 Android提供了AudioRecord和MediaRecord。MediaRecord...
android使用audioRecord和audioTrack实现语音录音播放与即时播放
android AudioRecord AudioTrack实现录音并播放 并支持参数选择(频率、编码格式、声道) 更多信息可参考http://blog.sina.com.cn/u/1788464665
本Demo使用MediaCodec解码AAC音频数据,解码之后直接使用AudioTrack播放PCM音频数据
上一篇介绍了AudioFlinger的初始化,接下来对音频路由进行介绍。注意,本文主要介绍动态路由,即汽车音频路由的常规方式。针对Android原生路由策略不做深入分析。 什么是音频路由?如何实现音频路由?如何定制音频...
用AudioRecord获取音频源数据流存储后,再用AudioTrack读取存储文件,播放录音。能够录音后,即时播放。
Android局域网音频通信程序,利用AudioRecord采集,AudioTrack播放。程序通过无线局域网和2个android平板的测试,效果良好
Audio Demo 为 Android 平台 AudioRecord 类和 AudioTrack 类的使用例程。
android基于AudioTrack播放PCM音频文件的源码实例,播放扩展名为rm格式的文件,不使用android 内置的Audio和video来播放PCM音频数据,通过通过解码得到PCM数据源,使用AudioTrack类实现音频文件的播放,本源码就是...
RT,一个使用audiotrack播放PCM音频数据的DEMO,上传的代码工程中有个音频数据文件夹,包含了用于测试的PCM数据文件,详情请看readme.txt;另外代码附详细说明,走过路过的都不要错过了,喜欢就顶下吧
介绍AudioTrack的一份好文档,是开发Audio必备资料
主要为大家详细介绍了Android音频系统AudioTrack的使用方法,如何使用AudioTrack进行音频播放,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
一个使用audiotrack播放PCM音频数据的DEMO,上传的代码工程中有个音频数据文件夹,包含了用于测试的PCM数据文件,详情请看readme.txt;另外代码附详细说明,走过路过的都不要错过了,喜欢就顶下吧
Android深入浅出之AudioTrack.
NULL博文链接:https://innost.iteye.com/blog/875432
android使用AudioTrack低延迟播放音频文件.rar,太多无法一一验证是否可用,程序如果跑不起来需要自调,部分代码功能进行参考学习。
一个关于AudioRecord和AudioTrack的简单事例 通过录制得到PCM格式的音频,然后通过再用AudioTrack播放该文件
Android实现使用AudioTrack实现正弦波音频播放,不固定频率可任意切换频率。20Hz~2KHz之间进行无缝切换。
这个文档是我整理别人博客的,写的非常的不错,通俗易懂,相对来说还是比较全面,讲了linux下的声卡,Android音频 , AudioPolicyService, AudioFlinger, AudioTrack这些都有详细的讲解,然后我也做了书签,方便...
可以多个音频顺序播放,可以重复播放音频 博文地址:http://blog.csdn.net/w1027296673/article/details/50441709