开启辅助访问
 找回密码
 立即注册

iOS 系统中,H.264 视频流可以硬件解码吗? 具体如何实现?

landiaozi 回答数17 浏览数350081
iOS 系统中,H.264 视频流可以硬件解码吗? 具体如何实现?
冰水泪雨 | 未知
这个问题都问了两年多了,没有很好的回答,我最近正好搞定了iOS的硬解码 H.264,借这个问题来分享下经验。

其实至少从iPhone4开始,苹果就是支持硬件解码了,但是硬解码API一直是私有API,不开放给开发者使用,只有越狱才能使用,正常的App如果想提交到AppStore是不允许使用私有API的。

从iOS8开始,可能是苹果想通了,开放了硬解码和硬编码API,就是名为 VideoToolbox.framework的API,需要用iOS 8以后才能使用,iOS 7.x上还不行。

这套硬解码API是几个纯C函数,在任何OC或者 C++代码里都可以使用。

首先要把 VideoToolbox.framework 添加到工程里,并且包含以下头文件。
#include <VideoToolbox/VideoToolbox.h>

解码主要需要以下三个函数
VTDecompressionSessionCreate 创建解码 session
VTDecompressionSessionDecodeFrame 解码一个frame
VTDecompressionSessionInvalidate 销毁解码 session

首先要创建 decode session,方法如下:

其中 decoderFormatDescription 是 CMVideoFormatDescriptionRef 类型的视频格式描述,这个需要用H.264的 sps 和 pps数据来创建,调用以下函数创建 decoderFormatDescription
CMVideoFormatDescriptionCreateFromH264ParameterSets
需要注意的是,这里用的 sps和pps数据是不包含“00 00 00 01”的start code的。

attr是传递给decode session的属性词典
其中重要的属性就一个,kCVPixelBufferPixelFormatTypeKey,指定解码后的图像格式,必须指定成NV12,苹果的硬解码器只支持NV12。

callBackRecord 是用来指定回调函数的,解码器支持异步模式,解码后会调用这里的回调函数。

如果 decoderSession创建成功就可以开始解码了。
其中 flags 用0 表示使用同步解码,这样比较简单。
其中 sampleBuffer是输入的H.264视频数据,每次输入一个frame。
先用CMBlockBufferCreateWithMemoryBlock 从H.264数据创建一个CMBlockBufferRef实例。
然后用 CMSampleBufferCreateReady创建CMSampleBufferRef实例。
这里要注意的是,传入的H.264数据需要Mp4风格的,就是开始的四个字节是数据的长度而不是“00 00 00 01”的start code,四个字节的长度是big-endian的。
一般来说从 视频里读出的数据都是 “00 00 00 01”开头的,这里需要自己转换下。

解码成功之后,outputPixelBuffer里就是一帧 NV12格式的YUV图像了。
如果想获取YUV的数据可以通过
获得图像数据的指针,需要说明baseAddress并不是指向YUV数据,而是指向一个CVPlanarPixelBufferInfo_YCbCrBiPlanar结构体,结构体里记录了两个plane的offset和pitch。

但是如果想把视频播放出来是不需要去读取YUV数据的,因为CVPixelBufferRef是可以直接转换成OpenGL的Texture或者UIImage的。
调用CVOpenGLESTextureCacheCreateTextureFromImage,可以直接创建OpenGL Texture

从 CVPixelBufferRef 创建 UIImage

解码完成后销毁 decoder session
VTDecompressionSessionInvalidate(deocderSession)

硬解码的基本流程就是这样了,如果需要成功解码播放视频还需要一些H.264视频格式,YUV图像格式,OpenGL等基础知识。

还是有很多小细节要处理的,无法在这里一一说明了,有人有问题可以在评论里讨论。
从解码到播放,大约1000行代码左右,主要是OpenGL渲染的代码比较多。

苹果官方的示例代码:
WWDC - Apple Developer

苹果的例子下载链接实效了,我也找不到那个例子,我自己写了一个。
stevenyao/iOSHardwareDecoder · GitHub
用Deepseek满血版问问看
回复
使用道具 举报
soapy | 来自山东
姚大的demo是基于文件的。实际场景大多是基于流。基于此,我写了个demo。
H264实时硬件编解码demo
回复
使用道具 举报
kuchiu2001 | 未知
iOS 支持 H.264 視頻流硬解碼:

HTTP Live Streaming Overview: Frequently Asked Questions | http://developer.apple.com/library/ios/#documentation/networkinginternet/conceptual/streamingmediaguide/FrequentlyAskedQuestions/FrequentlyAskedQuestions.html

The protocol specification does not limit the encoder selection. However, the current Apple implementation should interoperate with encoders that produce MPEG-2 Transport Streams containing H.264 video and AAC audio (HE-AAC or AAC-LC). Encoders that are capable of broadcasting the output stream over UDP should also be compatible with the current implementation of the Apple provided segmenter software.

具體實現過程請完整閱讀以上文檔,和其它相關文檔:

HTTP Live Streaming Overview: HTTP Streaming Architecture | http://developer.apple.com/library/ios/#documentation/networkinginternet/conceptual/streamingmediaguide/HTTPStreamingArchitecture/HTTPStreamingArchitecture.html#//apple_ref/doc/uid/TP40008332-CH101-SW3
回复
使用道具 举报
sdflc8 | 来自上海
请问下,我正常解码I帧没有什么问题,但是我这边会来一种视频流,里面没有I帧,全是sei数据的,之前对于06类型的sei数据没有进行处理。这种sei数据流,我们是用来显示无视频信号的,但是我解不出来,就是黑屏状态。这种楼主有什么可以指导的吗?
回复
使用道具 举报
jarrychen | 来自山东
GitHub - newOcean/HDLiveStreamingSdk: ios live hardware encoder and decoder
发现一个偷懒的sdk,iOS视频推流,播放,录制,拍照,demo。
回复
使用道具 举报
yuhangit01 | 未知
你好,我想请问一下,如果我要做视频直播类型的,如何直接解码传过来了的H264流而不是解码文件呢?
回复
使用道具 举报
woaoyou | 未知
使用函数CMVideoFormatDescriptionCreate( ),不可以创建decoderFormatDescription吗?如果其他codec类型,CMVideoFormatDescriptionCreateFromH264ParameterSets( )就不能用了。
回复
使用道具 举报
gewell | 未知
可以发一份完整代码吗?正在学习相关内容,谢谢啦。allenchan0311@qq.com
回复
使用道具 举报
aiwudi | 未知
看到你的文章,像找到了新大陆一样。我也正在学习这方面,如果可以的话,能给我发一份code吗,谢谢!cx0928@126.com
回复
使用道具 举报
12下一页
快速回复
您需要登录后才可以回帖 登录 | 立即注册

当贝投影