彩神大发快三_神彩大发快三官方

全平台硬件解码渲染方法与优化实践

时间:2020-01-08 17:37:47 出处:彩神大发快三_神彩大发快三官方

事实证明原先是可行的,最终亲戚朋友可统一整个苹果苹果苹果苹果系统的解码渲染流程,除了OpenGL接口与OpenGL ES接口的差异之外,其它的流程完正相同。

上图表示GPU(CPU)内存与显存间数据的交换传输速度,其中虚线表示数据由显存拷贝到内存的传输速度,实线表示数据由内存拷贝到显存的传输速度。从中亲戚朋友可不需用都看,数据由显存拷贝到内存的传输速度合适是内存拷贝到显存的1/5,这也是为那先 使用DXVA硬解都是再次出现不如软解流畅的意味着着。

采集 / LiveVideoStack

以上四种 法律法子基本补救了已经 相对重要的MediaCodec现象,除此之外亲戚朋友也会面临APP后台切换至前台时UpdateTexImage()错误的请况,为什么么让是为什么么让上下文不对一般可通过重新初始化解码器或使用TextureView等法律法子补救。但为什么么让用户想借助SurfaceView补救此现象,也可通过共享上下文的法律法子,为SurfaceView提供一一个 上下文并在每次渲染前激活。但此法律法子具有仅适用于每所这麼 人创建的上下文的局限性,为什么么让上下文由内控 提供,这麼 亲戚朋友还可不需用通过attach法律法子。

最后想介绍些关于Open MAX AL的内容。Open MAX AL在安卓上并未提供EGLStream扩展,而创建OMXAL播放器需用用设置输出参数,对安卓而言输出Native Display对象也为什么么让ANative Window,其由Surface获取并调用NDK接口,与OMX AL输出的Surface一致,什么都有有已经 的与Surface相关的流程和MediaCodec完正相同。

iOS仅提供TextureCache法,这意味着着不需用生成纹理而仅需在准备纹理阶段创建TextureCache类即可并从Cache中直接获取纹理,此流程与绝大多数需用先生成一一个 纹理再进行转换等操作的传统硬解渲染法律法子有明显不同。

最终亲戚朋友成功统一了macOS与iOS一一个 平台的补救流程,在此后后为什么么让开发者想调用官方提供的接口,首先需用判断iOS版本,为什么么让是iOS11则使用新法律法子,老版本则需用使用加带参数的法律法子。 

2、硬解纹理转换一般思路

硬解OpenGL渲染的数据流原理与软解略有不同,解码过程中的数据存储在显存上。这里需用强调的是,即使对基于统一内存模型的移动平台而言不一定占据 物理显存,但移动平台会通过将内存映射给GPU与CPU来构建逻辑显存。解码后的拷贝、更新纹理、渲染与软解同类,数据流会分别经过主存、显存、显存。这里的解码在显存上的数据实在是硬解提供的相应解码输出而非各个平面的数据指针,为什么么让系统需用将硬解出的数据拷贝至内存上并借助TexImage2D技术上传纹理。经过实践亲戚朋友发现此法律法子的传输速度四种 高,同类在实测中亲戚朋友借助软解流程可实现10150P全高清视频的流畅播放,而若借助DXVA硬解流程补救同一一个 全高清视频文件则会变得非常卡顿,这麼 如何来优化硬解流程呢?思路一是对显存与内存间的拷贝过程进行优化,同类在Windows上较为出名的LAV Filters滤镜就使用了如SSEV4.1加速、多应用程序拷贝等,提升显著。但为什么么让面对并肩播放多个视频等较为复杂化的应用场景,内存之间的拷贝仍会影响整个补救流程的稳定运行。

常规的软解OpenGL渲染流程主要分为两次要:一是在渲染纹理前进行的准备纹理,二是渲染前更新纹理。准备纹理具体是占据 第一次渲染第一帧前先创建一一个 设置好相应参数的纹理,而后再使用Texlmage2D将GPU上一定大小的显存空间分配给此纹理;进行渲染前首先需绑定此纹理,并借助TexSublmage2D技术将解码数据填充进后后分配好的纹理存储空间中,也为什么么让所谓的“纹理上传”。

1、常规法律法子渲染硬解数据

而macOS与iOS也是借助后后提到的平台提供的纹理共享接口。

以XBMC为例,首先解码应用程序会给渲染应用程序以创建好纹理的信息并肩渲染应用程序会反馈信息给解码应用程序。但为什么么让此消息循环机制并未在所有APP上推行,这对设计适用所有APP框架下的播放器来说四种 合理,针对此现象亲戚朋友有两套补救方案:第一套方案是可不需用在解码应用程序创建共享上下文并在此上下文下创建一一个 可在渲染应用程序被访问的纹理。

亲戚朋友好,我是来自PPTV的王斌。接下来我将围绕以下有几个话题,为亲戚朋友分享有关全平台硬件解码的渲染与优化的实践经验。

这就引起了进一步思考:既然可不需用将二者进行统一,这麼 后后老平台上的Texturecache究竟起了那先 作用?

被使用最多的EGLImage目前作为扩展形式占据 ,如OpenMarxAL等专门提供了一套可输出到EGLImage的接口,而树莓派的MMAL硬件解码则提供了一套由MMAL输出的Buffer转换为GELImage的法律法子。EGLImage可与窗口系统无关,同样也可用于这麼 窗口系统的服务器端。在实际应用中亲戚朋友会优先考虑使用EGLImage,视频数据经过与EGLImage对应的OpenGL扩展输出为OpenGL纹理从而实现了接口之间的共享。而较新的EGLStream是英伟达总爱推崇的法律法子,目前我所接触到的应用主要有一一个 :一一个 是OpenMarxAL接口,其可直接作为EGLStream的输入扩展并可输出OpenGL纹理,原先则应用在D3D11的硬件解码上。为什么么让亲戚朋友使用EGLStream则需用重点核对一一个 扩展名:producer与consumer。producer是硬件解码输出的对象,consumer则是输出的OpenGL纹理。除了那先 扩展,亲戚朋友还可利用已经 OpenGL扩展。对于Windows平台而言Windows使用DXVA与D3D11解码,输出结果为D3D纹理;在这里,英伟达提供了一一个 可将D3D资源直接转换为OpenGL纹理的接口,但此接口受到GPU驱动的限制,占据 一定的使用环境限制;对于Linux平台而言如X11窗口系统,Linux提供了一一个 将X11的pixmap转加带GLX也为什么么让OpenGL纹理的法律法子,此法律法子后后也用于VA-API现在已不被推荐使用。

4、 iOS & macOS

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/vn9PLgZvnPs1522s82g/article/details/83747420

1.2 硬解OpenGL渲染

软解OpenGL渲染的数据流为:首先,通过调用TexSublmage将解码后倒进主存上的数据拷贝到显存上用于更新纹理,已经 的渲染过程也是基于显存上的数据进行。

Android平台中集成了Java、MediaCodec、OMX AL(应用层创建播放器)等可直接调用的接口。除此之外还有四种 提供了如创建、解码器组件等诸多更底层功能的OMX IL接口,但为什么么让将此接口与OpenGL结合,为什么么让EGLImage所需的扩展是非公开的,为什么么让OMX IL四种 一一个 NDK系统库而Android7.0后后的版本不允许访问非NDK系统库,故而亲戚朋友仅使用MediaCodec与OMX AL。

文 / 王斌

硬件解码后不恰当地使用OpenGL渲染会意味着着性能下降,甚至不如软解。本文来自PPTV移动端研发经理王斌在LiveVideoStackCon 2017大会上的分享,并由LiveVideoStack采集而成。分享中王斌完正解析了Windows、Linux、macOS、Android、iOS等多种平台下硬件解码的渲染法律法子及优化实践。

亲戚朋友期待将你這個 现象复杂化,也为什么么让实现从解码刚开始到渲染刚开始视频数据总爱在显存上进行补救。我猜想,是是否是占据 四种 数据共享法律法子也为什么么让API间的数据共享从而补救数据在内存与显存之间四种 要的来回拷贝?同类使用D3D则会生成D3D的Texture,为什么么让D3D与OpenGL间占据 允许数据共享的接口,这麼 就可不需用保证无论数据如何被传输都保留在显存上或不需用传输就可直接进行下一流程的补救;为什么么让上述猜想不成立,为什么么让内存与GPU间的数据传输传输速度和内存与CPU间相比快什么都有有有,可不需用通过与GPU间的数据拷贝显著提升性能?当然亲戚朋友也可不需用针对GPU提供的接口,转换GPU中的数据,同类将OpenGL的纹理从原先的YUV转加带RGB以获得理想的硬解数据流,上述都是亲戚朋友在考虑硬解优化时想到的补救方案。

上图展示的是Texturecache由TexToolbox buffer转到(Texture崩溃)的堆栈,仔细观察先要发现原先的Texturecache法实在也是调用TexImageIOSurface,为什么么老平台占据 此接口却这麼 被启用?最终我在iOS5中发现了TextureImageIOSSurface的占据 ,而iOS11相对于iOS5仅仅是参数的加带与接口的微调,为什么么让使用GPU分析工具检查后可发现IOS11与老版本系统的Texturecache法律法子同类,都是通过调用一一个 从老版本iOS上就占据 至今的接口来实现相关功能。

1)软解OpenGL渲染流程

解码后的视频数据需经过纹理加载后才会进行下一步的OpenGL ES渲染操作,其关键在于如何将解码后的数据填充到纹理中。不同的平台对于此现象的补救方案为什么么让尽相同,这也是亲戚朋友今天讨论的重点。

attach法律法子大致流程如下:每次渲染时生成纹理并attach至上下文,调用更新纹理的法律法子使得数据保留在纹理上,最后将此纹理Detach。

即使iOS与macOS可实现这麼 数据拷贝的纹理转换,但一一个 平台占据 两套补救流程,这也会对开发者带来不便。而苹果苹果苹果苹果公司已经 公开的一一个 被称为IOSurface的新框架为接下来的探索提供了思路,其中包括了从PixelBuffer获取IOSurface的法律法子。IOSurface用以应用程序间进行GPU数据共享,硬件解码输出至GPU显存并通过IOSurface实现应用程序间的数据共享。VideoToolbox作为一一个 服务,不到在APP刚开始解码时才会启动解码应用程序。而Get IOSurface的法律法子在macOS上早已占据 ,但在iOS11的SDK中第一次再次出现。除了需用GetIOSurface,亲戚朋友还需用转成纹理的函数,同样在macOS的OpenGL Framework中亲戚朋友发现了TextureImageIOSurface。此函数的功能与macOS上的同类,这是都是意味着着亲戚朋友可不需用将iOS与macOS的补救流程进行整合?

2)软解数据流

1.1 常规的OpenGL渲染

但用GLX的法律法子为什么么让比较过时,而Linux平台上再次出现的已经 新补救方案可带来明显的硬解性能提升。如现在比较流行的EGL,亲戚朋友可将其理解为一一个 连接渲染接口与窗口系统之间的桥梁。EGL的大多数功能通过集成扩展实现,主要的共享法律法子为GELImage与GELStream。

通过上图亲戚朋友可不需用发现D3D11+EGLStream的软解流程与常规的OpenGL软解渲染流程有所不同,EGLStream首先需用创建EGLStream对象,而后再创建纹理对象;在纹理准备期间也需用利用此扩展并设置consumer的OpenGL ES纹理,更新、渲染纹理时EGLStream提供了PostD3D11的法律法子,此法律法子合适直接将D3D纹理作为OpenGL ES纹理使用。在后期进行渲染时为什么么让涉及到一一个 API——D3D11与OpenGL,调用API时不到并肩访问二者,故需用进行Acquire过程用以锁定D3D11资源使得不到OpenGL可访问此资源。在此后后亲戚朋友就可借助OpenGL渲染纹理,刚开始渲染后Release也为什么么让解锁资源。

Apple的macOS使用VideoToolbox作为解码器且输出对象为CVPixelBufferRef也为什么么让保占据 内存或显存上的图像数据;VideoToolbox有多种输出格式,如YUV420P、NV12、RGB、UYVY422等。刚接触此平台时我注意到了已经 平台这麼 的UYVY422格式,为什么么让老版本系统不提供NV12接口,故UYVY442格式普遍用于老系统;而新系统上提供的NV12补救传输速度远高于UVYV442。当时我将此发现反馈给FFmpeg社区,已经 社区在FFmpeg中加带了用以选者VideoToolbox输出结果的接口:为什么么让是支持性能不佳的老系统则使用UYVY442格式,而新系统则使用NV12格式。macOS的纹理准备过程与传统软解同类,而纹理更新过程则略有不同,在其纹理更新中的PixelBuffer之都是输出并保存一一个 IOSurface,关于IOSurface的完正内容我会在后文提到。macOS通过OpenGL Framework中的一一个 CGL实现将IOSurface转换为纹理,而输出的结果较为独特,如输出的纹理四种 2D类型为什么么让一一个 矩形纹理。macOS也可通过TextureCache法律法子实现纹理转换并输出RGB型纹理,但性能较为低下,不出此赘述。

MediaCodec占据 四种 输出,其一是ByteBuffer也为什么么让将结果输出到内存上,当然是不被亲戚朋友采用的;其二是Surface也为什么么让将结果输出到显存上,接下来亲戚朋友需用讨论如何构造Surface。这里有四种 法律法子构造Surface,法律法子一是由Surface View获取Surface并直接输出至View上,但这对亲戚朋友而言意味着着无法使用OpenGL,故排除。法律法子二是Surface Texture,在解码应用程序的刚开始需用配置MediaCodec输出,由纹理构建Surface Texture,而后Surface Texture借助UpdateTexImage法实现渲染应用程序更新纹理。这里需用明确的是Surface Texture纹理的对象是那先 样的?为什么么让Android这麼 相关文档,亲戚朋友可假设此纹理是一一个 有效纹理,如何创建此纹理?

但创建共享上下文的法律法子对已经 安卓开发者而言门槛较高。第二套方案是在流程刚开始时创建一一个 无效的纹理,为什么么让Surface Texture可把纹理附加至Surface Texture上,原先只需在第一次渲染时把你這個 在渲染应用程序创建的合适纹理附加带即可。

D3D11的硬解输出结果为D3D11纹理,输出格式为NV12。后续在转换纹理时亲戚朋友有一一个 思路:思路一较为常见,这里就不再赘述。思路二是借助EGLStream扩展,在创建一一个 共享的D3D11纹理后再从此纹理创建一一个 EGLSurface,此Surface可绑定至OpenGL纹理;亲戚朋友需用做的是将解码出的纹理拷贝至共享的D3D11纹理上,拷贝法律法子是借助D3D11的Video Processor接口将YUV转加带RGB。尽管此法律法子传输速度较高,但已经 Chrome开发者仍然实在需用尽为什么么让减小其带来的性能损失,也为什么么让追求完正这麼 任何数据转换的最佳方案。为什么么让在2016年时EGLStream扩展被推出,从而有效改善了性能损失带来的影响。

接下来我将介绍D3D11硬解,D3D11硬解基于EGL提供的资源共享功能。而D3D可与OpenGL ES总爱建立联系的意味着着是最早的Windows平台对OpenGL驱动的支持总爱不佳,而火狐、Chromium等浏览器为了在每所这麼 人环境下都能很好支持OpenGL,于是加入了一一个 由 Google发起的被称为ANGLE的开源项目。ANGLE是指用D3D9与D3D11的已经 指令和(着色器)实现OpenGL ES与EGL所有接口同类的功能。除了使用ANGEL实现对OpenGL  ES的支持,那先 厂商也通过ANGEL实现对WebGL的支持。除此之外,已经 如QT还有微软推出的Windows Bridge for iOS等开源项目都是基于ANGEL Project,那先 项目都是通过ANGEL Project实现OpenGL ES的调用。

为什么么让采取数据共享,该如何找到那先 数据共享接口?首先亲戚朋友应当从平台入手,了解像iOS、Android等不同平台提供了那先 共享接口。如iOS与已经 硬解库提供的数据拷贝接口,如英伟达的CUDA提供的转换接口等。Linux中也集成了被称为VA-API的硬解接口,针对GLX环境VA-API提供了四种 可将硬解输出转换为RGB纹理的法律法子,开发者可直接调用此接口与其相应功能。

总结各个平台的请况先要发现,考虑硬解后后亲戚朋友需用思考硬解的输出,为什么么让硬解的输出不像软解的输出是一组到内存指向各平面的指针,亲戚朋友需用获知硬解输出的对象与格式。现在什么都有有有硬解都是以YUV作为输出格式如NV12等,当然排除个别定制化产品通过参数配置调整输出格式为RGB的请况,根据经验硬解一般选者YUV作为输出格式。首先是为什么么让RGB的输出实际上是在GPU内控 进行的色彩空间转换,会对性能产生一定影响;其次亲戚朋友也面临无法保证YUV转加带RGB的精确性,矩阵系数是定值则无法适应多样场景的现象。

3.、D3D11+EGLStream

5、Android硬解渲染及常见现象补救

热门

热门标签