博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
使用 GPUImage 实现一个简单相机
阅读量:5965 次
发布时间:2019-06-19

本文共 12658 字,大约阅读时间需要 42 分钟。

本文介绍了如何使用 GPUImage 来实现一个简单的相机。具体功能包括拍照、录制视频、多段视频合成、实时美颜、自定义滤镜实现等。

前言

AVFoundation 是苹果提供的用于处理基于时间的媒体数据的一个框架。我们想要实现一个相机,需要从手机摄像头采集数据,离不开这个框架的支持。GPUImage 对 AVFoundation 做了一些封装,使我们的采集工作变得十分简单。

另外,GPUImage 的核心魅力还在于,它封装了一个链路结构的图像数据处理流程,简称滤镜链。滤镜链的结构使得多层滤镜的叠加功能变得很容易实现。

在下面介绍的功能中,有一些和 GPUImage 本身的关系并不大,我们是直接调用 AVFoundation 的 API 来实现的。但是,这些功能也是一个相机应用必不可少的一部分。所以,我们也会简单讲一下每个功能的实现方式和注意事项。

滤镜链简介

在 GPUImage 中,对图像数据的处理都是通过建立滤镜链来实现的。

这里就涉及到了一个类 GPUImageOutput 和一个协议 GPUImageInput 。对于继承了 GPUImageOutput 的类,可以理解为具备输出图像数据的能力;对于实现了 GPUImageInput 协议的类,可以理解为具备接收图像数据输入的能力。

顾名思义,滤镜链作为一个链路,具有起点和终点。根据前面的描述,滤镜链的起点应该只继承了 GPUImageOutput 类,滤镜链的终点应该只实现了 GPUImageInput 协议,而对于中间的结点应该同时继承了 GPUImageOutput 类并实现了 GPUImageInput 协议,这样才具备承上启下的作用。

一、滤镜链起点

在 GPUImage 中,只继承了 GPUImageOutput,而没有实现 GPUImageInput 协议的类有六个,也就是说有六种类型的输入源:

1、GPUImagePicture

GPUImagePicture 通过图片来初始化,本质上是先将图片转化为 CGImageRef,然后将 CGImageRef 转化为纹理。

2、GPUImageRawDataInput

GPUImageRawDataInput 通过二进制数据初始化,然后将二进制数据转化为纹理,在初始化的时候需要指明数据的格式(GPUPixelFormat)。

3、GPUImageTextureInput

GPUImageTextureInput 通过已经存在的纹理来初始化。既然纹理已经存在,在初始化的时候就不会重新去生成,只是将纹理的索引保存下来。

4、GPUImageUIElement

GPUImageUIElement 可以通过 UIView 或者 CALayer 来初始化,最后都是调用 CALayerrenderInContext: 方法,将当前显示的内容绘制到 CoreGraphics 的上下文中,从而获取图像数据。然后将数据转化为纹理。简单来说就是截屏,截取当前控件的内容。

这个类可以用来实现在视频上添加文字水印的功能。因为在 OpenGL 中不能直接进行文本的绘制,所以如果我们想把一个 UILabel 的内容添加到滤镜链里面去,使用 GPUImageUIElement 来实现是很合适的。

5、GPUImageMovie

GPUImageMovie 通过本地的视频来初始化。首先通过 AVAssetReader 来逐帧读取视频,然后将帧数据转化为纹理,具体的流程大概是:AVAssetReaderOutput -> CMSampleBufferRef -> CVImageBufferRef -> CVOpenGLESTextureRef -> Texture

6、GPUImageVideoCamera

GPUImageVideoCamera 通过相机参数来初始化,通过屏幕比例相机位置(前后置) 来初始化相机。这里主要使用 AVCaptureVideoDataOutput 来获取持续的视频流数据输出,在代理方法 captureOutput:didOutputSampleBuffer:fromConnection: 中可以拿到 CMSampleBufferRef ,将其转化为纹理的过程与 GPUImageMovie 类似。

然而,我们在项目中使用的是它的子类 GPUImageStillCameraGPUImageStillCamera 在原来的基础上多了一个 AVCaptureStillImageOutput,它是我们实现拍照功能的关键,在 captureStillImageAsynchronouslyFromConnection:completionHandler: 方法的回调中,同样能拿到我们熟悉 CMSampleBufferRef

简单来说,GPUImageVideoCamera 只能录制视频,GPUImageStillCamera 还可以拍照, 因此我们使用 GPUImageStillCamera

二、滤镜

滤镜链的关键角色是 GPUImageFilter,它同时继承了 GPUImageOutput 类并实现了 GPUImageInput 协议。GPUImageFilter 实现承上启下功能的基础是「渲染到纹理」,这个操作我们在 一文中已经介绍过了,简单来说就是将结果渲染到纹理而不是屏幕上

这样,每一个滤镜都能把输出的纹理作为下一个滤镜的输入,实现多层滤镜效果的叠加。

三、滤镜链终点

在 GPUImage 中,实现了 GPUImageInput 协议,而没有继承 GPUImageOutput 的类有四个:

1、GPUImageMovieWriter

GPUImageMovieWriter 封装了 AVAssetWriter,可以逐帧从帧缓存的渲染结果中读取数据,最后通过 AVAssetWriter 将视频文件保存到指定的路径。

2、GPUImageRawDataOutput

GPUImageRawDataOutput 通过 rawBytesForImage 属性,可以获取到当前输入纹理的二进制数据。

假设我们的滤镜链在输入源和终点之间,连接了三个滤镜,而我们需要拿到第二个滤镜渲染后的数据,用来做人脸识别。那我们可以在第二个滤镜后面再添加一个 GPUImageRawDataOutput 作为输出,则可以拿到对应的二进制数据,且不会影响原来的渲染流程。

3、GPUImageTextureOutput

这个类的实现十分简单,提供协议方法 newFrameReadyFromTextureOutput:,在每一帧渲染结束后,将自身返回,通过 texture 属性就可以拿到输入纹理的索引。

4、GPUImageView

GPUImageView 继承自 UIView,通过输入的纹理,执行一遍渲染流程。这次的渲染目标不是新的纹理,而是自身的 layer

这个类是我们实现相机功能的重要组成部分,我们所有的滤镜效果,都要依靠它来呈现。

功能实现

一、拍照

拍照功能只需调用一个接口就能搞定,在回调方法中可以直接拿到 UIImage。代码如下:

- (void)takePhotoWtihCompletion:(TakePhotoResult)completion {    GPUImageFilter *lastFilter = self.currentFilterHandler.lastFilter;    [self.camera capturePhotoAsImageProcessedUpToFilter:lastFilter withCompletionHandler:^(UIImage *processedImage, NSError *error) {        if (error && completion) {            completion(nil, error);            return;        }        if (completion) {            completion(processedImage, nil);        }    }];}复制代码

值得注意的是,相机的预览页面由 GPUImageView 承载,显示的是整个滤镜链作用的结果。而我们的拍照接口,可以传入这个链路上的任意一个滤镜,甚至可以在后面多加一个滤镜,然后拍照接口会返回对应滤镜的渲染结果。即我们的拍照结果不一定要和我们的预览一致

示意图如下:

二、录制视频

1、单段录制

录制视频首先要创建一个 GPUImageMovieWriter 作为链路的输出,与上面的拍照接口类似,这里录制的视频不一定和我们的预览一样。

整个过程比较简单,当我们调用停止录制的接口并回调之后,视频就被保存到我们指定的路径了。

- (void)setupMovieWriter {    NSString *videoPath = [SCFileHelper randomFilePathInTmpWithSuffix:@".m4v"];    NSURL *videoURL = [NSURL fileURLWithPath:videoPath];    CGSize videoSize = self.videoSize;        self.movieWriter = [[GPUImageMovieWriter alloc] initWithMovieURL:videoURL                                                                size:videoSize];        GPUImageFilter *lastFilter = self.currentFilterHandler.lastFilter;    [lastFilter addTarget:self.movieWriter];    self.camera.audioEncodingTarget = self.movieWriter;    self.movieWriter.shouldPassthroughAudio = YES;        self.currentTmpVideoPath = videoPath;}复制代码
- (void)recordVideo {    [self setupMovieWriter];    [self.movieWriter startRecording];}复制代码
- (void)stopRecordVideoWithCompletion:(RecordVideoResult)completion {    @weakify(self);    [self.movieWriter finishRecordingWithCompletionHandler:^{        @strongify(self);        [self removeMovieWriter];        if (completion) {            completion(self.currentTmpVideoPath);        }    }];}复制代码

2、多段录制

GPUImage 中并没有提供多段录制的功能,需要我们自己去实现。

首先,我们要重复单段视频的录制过程,这样我们就有了多段视频的文件路径。然后主要实现两个功能,一个是 AVPlayer 的多段视频循环播放;另一个是通过 AVComposition 来合并多段视频,并用 AVAssetExportSession 来导出新的视频。

整个过程逻辑并不复杂,出于篇幅的考虑,代码就不贴了,请到项目中查看。

三、保存

在拍照或者录视频结束后,通过 PhotoKit 保存到相册里。

1、保存图片

- (void)writeImageToSavedPhotosAlbum:(UIImage *)image                          completion:(void (^)(BOOL success))completion {    [[PHPhotoLibrary sharedPhotoLibrary] performChanges:^{        [PHAssetChangeRequest creationRequestForAssetFromImage:image];    } completionHandler:^(BOOL success, NSError * _Nullable error) {        if (completion) {            completion(success);        }    }];}复制代码

2、保存视频

- (void)saveVideo:(NSString *)path completion:(void (^)(BOOL success))completion {    NSURL *url = [NSURL fileURLWithPath:path];    [[PHPhotoLibrary sharedPhotoLibrary] performChanges:^{        [PHAssetChangeRequest creationRequestForAssetFromVideoAtFileURL:url];    } completionHandler:^(BOOL success, NSError * _Nullable error) {        dispatch_async(dispatch_get_main_queue(), ^{            if (completion) {                completion(success);            }        });    }];}复制代码

四、闪光灯

系统的闪光灯类型通过 AVCaptureDeviceflashMode 属性来控制,其实只有三种,分别是:

  • AVCaptureFlashModeOff 关闭
  • AVCaptureFlashModeOn 开启(在拍照的时候会闪一下)
  • AVCaptureFlashModeAuto 自动(系统会自动判断当前的环境是否需要闪光灯)

但是市面上的相机应用,一般还有一种常亮类型,这种类型在夜间的时候会比较适用。这个功能需要通过 torchMode 属性来实现,它其实是指手电筒。

我们对这个两个属性做一下封装,允许这四种类型来回切换,下面是根据封装的类型来同步系统类型的代码:

- (void)syncFlashState {    AVCaptureDevice *device = self.camera.inputCamera;    if (![device hasFlash] || self.camera.cameraPosition == AVCaptureDevicePositionFront) {        [self closeFlashIfNeed];        return;    }        [device lockForConfiguration:nil];        switch (self.flashMode) {        case SCCameraFlashModeOff:            device.torchMode = AVCaptureTorchModeOff;            device.flashMode = AVCaptureFlashModeOff;            break;        case SCCameraFlashModeOn:            device.torchMode = AVCaptureTorchModeOff;            device.flashMode = AVCaptureFlashModeOn;            break;        case SCCameraFlashModeAuto:            device.torchMode = AVCaptureTorchModeOff;            device.flashMode = AVCaptureFlashModeAuto;            break;        case SCCameraFlashModeTorch:            device.torchMode = AVCaptureTorchModeOn;            device.flashMode = AVCaptureFlashModeOff;            break;        default:            break;    }        [device unlockForConfiguration];}复制代码

五、画幅比例

相机的比例通过设置 AVCaptureSessionsessionPreset 属性来实现。这个属性并不只意味着比例,也意味着分辨率。

由于不是所有的设备都支持高分辨率,所以这里只使用 AVCaptureSessionPreset640x480AVCaptureSessionPreset1280x720 这两个分辨率,分别用来作为 3:49:16 的输出。

市面上的相机除了上面的两个比例外,一般还支持 1:1Full (iPhoneX 系列的全屏)比例,但是系统并没有提供对应比例的 AVCaptureSessionPreset

这里可以通过 GPUImageCropFilter 来实现,这是 GPUImage 的一个内置滤镜,可以对输入的纹理进行裁剪。使用时通过 cropRegion 属性来传入一个归一化的裁剪区域。

切换比例的关键代码如下:

- (void)setRatio:(SCCameraRatio)ratio {    _ratio = ratio;        CGRect rect = CGRectMake(0, 0, 1, 1);    if (ratio == SCCameraRatio1v1) {        self.camera.captureSessionPreset = AVCaptureSessionPreset640x480;        CGFloat space = (4 - 3) / 4.0; // 竖直方向应该裁剪掉的空间        rect = CGRectMake(0, space / 2, 1, 1 - space);    } else if (ratio == SCCameraRatio4v3) {        self.camera.captureSessionPreset = AVCaptureSessionPreset640x480;    } else if (ratio == SCCameraRatio16v9) {        self.camera.captureSessionPreset = AVCaptureSessionPreset1280x720;    } else if (ratio == SCCameraRatioFull) {        self.camera.captureSessionPreset = AVCaptureSessionPreset1280x720;        CGFloat currentRatio = SCREEN_HEIGHT / SCREEN_WIDTH;        if (currentRatio > 16.0 / 9.0) { // 需要在水平方向裁剪            CGFloat resultWidth = 16.0 / currentRatio;            CGFloat space = (9.0 - resultWidth) / 9.0;            rect = CGRectMake(space / 2, 0, 1 - space, 1);        } else { // 需要在竖直方向裁剪            CGFloat resultHeight = 9.0 * currentRatio;            CGFloat space = (16.0 - resultHeight) / 16.0;            rect = CGRectMake(0, space / 2, 1, 1 - space);        }    }    [self.currentFilterHandler setCropRect:rect];    self.videoSize = [self videoSizeWithRatio:ratio];}复制代码

六、前后置切换

通过调用 GPUImageVideoCamerarotateCamera 方法来实现。

另外,由于前置摄像头不支持闪光灯,如果在前置的时候去切换闪光灯,只能修改我们封装的类型。所以在切换到后置的时候,需要去同步一下系统的闪光灯类型:

- (void)rotateCamera {    [self.camera rotateCamera];    // 切换摄像头,同步一下闪光灯    [self syncFlashState];}复制代码

七、对焦

AVCaptureDevicefocusMode 用来设置聚焦模式,focusPointOfInterest 用来设置聚焦点;exposureMode 用来设置曝光模式,exposurePointOfInterest 用来设置曝光点。

前置摄像头只支持设置曝光,后置摄像头支持设置曝光和聚焦,所以在设置之前要先判断是否支持。

需要注意的是,相机默认输出的图像是横向的,图像向右偏转。而前置摄像头又是镜像,所以图像是向左偏转。我们从 UIView 获得的触摸点,要经过相应的转化,才是正确的坐标。关键代码如下:

- (void)setFocusPoint:(CGPoint)focusPoint {    _focusPoint = focusPoint;        AVCaptureDevice *device = self.camera.inputCamera;        // 坐标转换    CGPoint currentPoint = CGPointMake(focusPoint.y / self.outputView.bounds.size.height, 1 - focusPoint.x / self.outputView.bounds.size.width);    if (self.camera.cameraPosition == AVCaptureDevicePositionFront) {        currentPoint = CGPointMake(currentPoint.x, 1 - currentPoint.y);    }        [device lockForConfiguration:nil];        if ([device isFocusPointOfInterestSupported] &&        [device isFocusModeSupported:AVCaptureFocusModeAutoFocus]) {        [device setFocusPointOfInterest:currentPoint];        [device setFocusMode:AVCaptureFocusModeAutoFocus];    }    if ([device isExposurePointOfInterestSupported] &&        [device isExposureModeSupported:AVCaptureExposureModeAutoExpose]) {        [device setExposurePointOfInterest:currentPoint];        [device setExposureMode:AVCaptureExposureModeAutoExpose];    }     [device unlockForConfiguration];}复制代码

八、改变焦距

改变焦距简单来说就是画面的放大缩小,通过设置 AVCaptureDevicevideoZoomFactor 属性实现。

值得注意的是,这个属性有最大值和最小值,设置之前需要做好判断,否则会直接崩溃。代码如下:

- (void)setVideoScale:(CGFloat)videoScale {    _videoScale = videoScale;        videoScale = [self availableVideoScaleWithScale:videoScale];        AVCaptureDevice *device = self.camera.inputCamera;    [device lockForConfiguration:nil];    device.videoZoomFactor = videoScale;    [device unlockForConfiguration];}复制代码
- (CGFloat)availableVideoScaleWithScale:(CGFloat)scale {    AVCaptureDevice *device = self.camera.inputCamera;        CGFloat maxScale = kMaxVideoScale;    CGFloat minScale = kMinVideoScale;    if (@available(iOS 11.0, *)) {        maxScale = device.maxAvailableVideoZoomFactor;    }        scale = MAX(scale, minScale);    scale = MIN(scale, maxScale);        return scale;}复制代码

九、滤镜

1、滤镜的使用

当我们想使用一个滤镜的时候,只需要把它加到滤镜链里去,通过 addTarget: 方法实现。来看一下这个方法的定义:

- (void)addTarget:(id
)newTarget;复制代码

可以看到,只要实现了 GPUImageInput 协议,就可以成为滤镜链的下一个结点。

2、美颜滤镜

目前美颜效果已经成为相机应用的标配,我们也来给自己的相机加上美颜的效果。

美颜效果本质上是对图片做模糊,想要达到比较好的效果,需要结合人脸识别,只对人脸的部分进行模糊处理。这里并不去探究美颜算法的实现,直接找开源的美颜滤镜来用。

目前找到的实现效果比较好的是 ,虽然它的效果肯定比不上现在市面上的美颜类 APP,但是作为学习级别的 Demo 已经足够了。

效果展示:

3、自定义滤镜

打开 GPUImageFilter 的头文件,可以看到有下面这个方法:

- (id)initWithVertexShaderFromString:(NSString *)vertexShaderString             fragmentShaderFromString:(NSString *)fragmentShaderString;复制代码

很容易理解,通过一个顶点着色器和一个片段着色器来初始化,并且可以看到是字符串类型。

另外,GPUImageFilter 中还内置了简单的顶点着色器和片段着色器,顶点着色器代码如下:

NSString *const kGPUImageVertexShaderString = SHADER_STRING( attribute vec4 position; attribute vec4 inputTextureCoordinate;  varying vec2 textureCoordinate;  void main() {     gl_Position = position;     textureCoordinate = inputTextureCoordinate.xy; });复制代码

这里用到了 SHADER_STRING 宏,看一下它的定义:

#define STRINGIZE(x) #x#define STRINGIZE2(x) STRINGIZE(x)#define SHADER_STRING(text) @ STRINGIZE2(text)复制代码

#define 中的 # 是「字符串化」的意思,返回 C 语言风格字符串,而 SHADER_STRING 在字符串前面加了一个 @ 符号,则 SHADER_STRING 的定义就是将括号中的内容转化为 OC 风格的字符串。

我们之前都是为着色器代码单独创建两个文件,而在 GPUImageFilter 中直接以字符串的形式,写死在代码中,两种方式本质上没什么区别。

当我们想自定义一个滤镜的时候,只需要继承 GPUImageFilter 来定义一个子类,然后用相同的方式来定义两个保存着色器代码的字符串,并且用这两个字符串来初始化子类就可以了。

作为示例,我把之前实现的 也添加到这个工程里,来看一下效果:

总结

通过上面的步骤,我们实现了一个具备基础功能的相机。之后会在这个相机的基础上,继续做一些有趣的尝试,欢迎持续关注~

源码

请到 上查看完整代码。

参考

获取更佳的阅读体验,请访问原文地址

转载于:https://juejin.im/post/5d07c7c46fb9a07f0052dbfd

你可能感兴趣的文章
优化应用的电池寿命(笔记)-1
查看>>
SSH Secure Shell Client
查看>>
JFinal源码分析------初始化那些事儿
查看>>
使用Jquery 加载页面时调用JS
查看>>
css+div+jquery弹出层
查看>>
求职相关(链接,不定期更新)
查看>>
pdo 连接数据库 报错 could not find driver 解决方法
查看>>
设计模式之策略模式
查看>>
maya pyside 多个窗口实例 报错 解决
查看>>
Nginx错误日志(error_log)配置及信息详解
查看>>
我的友情链接
查看>>
通知中心
查看>>
我的友情链接
查看>>
MVC中的三个模块
查看>>
Line: 220 - com/opensymphony/xwork2/spring/SpringObjectFactory.java:220:-1
查看>>
oracle 常用命令大汇总
查看>>
2012年春运火车票电话和网上订票技巧、攻略
查看>>
根据request获取请求路径
查看>>
mysql 并行复制
查看>>
傲不可长,欲不可纵,乐不可极,志不可满——提高个人修养
查看>>