你是怎样录制 OpenGL ES 的渲染结果?

我们使用OpenGL ES将摄像头数据绘制至手机屏幕。如果我们需要对图像数据进行了美颜等处 理,这些处理都是在着色器中完成的,那么我们如何从着色器拿到数据然后进行编码生成视频呢?

也就是说一般而言,我们使用软编码库或者MediaCodec来进行编码,如果给我们图像的 byte[] 数组按照 之前的课程,把这个数据进行编码即可。但是现在我们的图像是在着色器处理的,没有 byte[] ,

分析下怎么 将我们处理后的图像(美颜)变成一个MP4文件

默认情况下,我们在 GLSurfaceView 中绘制的结果是显示到屏幕上,然而实际中有很多情况并不需要渲染到屏幕上。

你是怎样录制 OpenGL ES 的渲染结果?

我们之前封装的ScreenFilter 功能是 将摄像头数据预览出来 。将 着色器文件读取出来,在画布画画。 
ScreenFilter尴尬场景:

  1. 开启(美颜)效果: 使用 sampler2D ;
  2. 未开启效果: 使用 samplerExternalOES。

首先我们要明确,OpenGL 是面向过程开发的,是一个状态机。

注意事项:我们创建的相应的资源,最后需要手动释放。

FBO

Frame Buffer Object 帧缓冲对象,离屏渲染。  
通过使用FBO,OpenGL 可以重定向渲染输出,让它输出到FBO而不是GLSurfaceView窗口的 framebuffer.

  1. CameraFilter使用samplerExernalOES输出FBO;
  2. 后续处理使用sampler2D输出FBO;
  3. ScreenFilter使用sampler2D输出显示窗口;
你是怎样录制 OpenGL ES 的渲染结果?

还是要回顾下 MediaCodec

在解决上面的问题之前,我们再来回顾下之前我们课程中使用过的 MediaCodec 。MediaCodec 是 Android SDK中为我们提供的编解码Java API。

MediaCodec内部会有两个缓存队列,分别是:输入缓存队列与输出缓存队列。我们只需要使用 queueInputBuffer 将需要编码的 byte 数据提交到输入队列,使用 equeueOutputBuffer 从输出队列  
取出编码完成后的数据即编码后的数据。

你是怎样录制 OpenGL ES 的渲染结果?

开头处的描述,我们没法得到图像原始的 byte 数组,怎么办?

Surface surface = mMediaCodec.createInputSurface();

我们使用了上面的方法得到一个 Surface 。这 个 Surface 由编码器创建,如果我们向这个 Surface 画画,那么画在上面的图像就会自动进行编码。所以现在问题变成了,我们怎么将OpenGL处理之后的图像再画到这个 中去?  
答案就是——->借助EGL

EGL环境搭建

如果说OpenGL ES是画笔,那Android的Surface就是画布。我们是可以使用OpenGL ES将图像画到 Surface中去的。但是OpenGL并不能直接在Android的Surface中画画,需要借助 EGLSurface 来将 Android的Surface关联起来。  

EGLSurface 官网描述:https://source.android.google.cn/docs/core/graphics/arch-egl-opengl?hl=zh-cn

在GLSurfaceView中为我们创建了EGL上下文,也包括了 。但是这个 绑定了 GLSurfaceView用于显示的Surface,负责显示到真实的手机屏幕中去。

我们需要使用OpenGL ES把图 像画到与 mMediaCodec.createInputSurface() 关联的 EGLSurface 中。他们应该是这样的:

你是怎样录制 OpenGL ES 的渲染结果?

EGLSurface 可以是由 EGL 分配的离屏缓冲区,也可以是由操作系统分配的窗口。能够与Surface绑定,让OpenGL 在EGLSurface绘制,相当于在Surface绘制。

需要在一个单独的线程中搭建一个EGL环境,创建EGLSurface与MediaCodec的Surface绑定,来绘制图像到需要编码的Surface中去。

看下GLSuerfaceView 源码:

图片

nativeWindow 就是Surface

我们要自己在一个单独的线程中搭建一个EGL环境,来绘制图像到需要编码的Surface中去。要完成整个 过程需要进行:

//創建OpenGL 的 環境
        HandlerThread handlerThread = new HandlerThread("codec-gl");
        handlerThread.start();
        mHandler = new Handler(handlerThread.getLooper());

        mHandler.post(new Runnable() {
            @Override
            public void run() {
                // 创建EGL环境
                eglEnv = new EGLEnv(mContext,mGlContext, mSurface,mWidth, mHeight);
                isStart = true;
            }
        });

可以参考GLSurfaceView 源码

1.创建Display

// 获得显示窗口,作为OpenGL的绘制目标
        mEglDisplay = EGL14.eglGetDisplay(EGL14.EGL_DEFAULT_DISPLAY);
        if (mEglDisplay == EGL14.EGL_NO_DISPLAY) {
            throw new RuntimeException("eglGetDisplay failed");
        }

        // 初始化顯示窗口
        int[] version = new int[2];
        if(!EGL14.eglInitialize(mEglDisplay, version,0,version,1)) {
            throw new RuntimeException("eglInitialize failed");
        }
  1. 配置Display
// 配置 属性选项
        int[] configAttribs = {
                EGL14.EGL_RED_SIZE, 8, //颜色缓冲区中红色位数
                EGL14.EGL_GREEN_SIZE, 8,//颜色缓冲区中绿色位数
                EGL14.EGL_BLUE_SIZE, 8, //
                EGL14.EGL_ALPHA_SIZE, 8,//
                EGL14.EGL_RENDERABLE_TYPE, EGL14.EGL_OPENGL_ES2_BIT, //opengl es 2.0
                EGL14.EGL_NONE
        };
        int[] numConfigs = new int[1];
        EGLConfig[] configs = new EGLConfig[1];
        //EGL 根据属性选择一个配置
        if (!EGL14.eglChooseConfig(mEglDisplay, configAttribs, 0, configs, 0, configs.length,
                numConfigs, 0)) {
            throw new RuntimeException("EGL error " + EGL14.eglGetError());
        }

        mEglConfig = configs[0];
  1. 创建EGL上下文
 /**
         * EGL上下文
         */
        int[] context_attrib_list = {
                EGL14.EGL_CONTEXT_CLIENT_VERSION,2,
                EGL14.EGL_NONE
        };
        //與 GLSurfaceView中的EGLContext 共享數據,只有這樣才能拿到處理完之後顯示的图像纹理。
        mEglContext= EGL14.eglCreateContext(mEglDisplay,mEglConfig,mGlContext ,context_attrib_list,0);

        if (mEglContext == EGL14.EGL_NO_CONTEXT){
            throw new RuntimeException("EGL error " + EGL14.eglGetError());
        }
  1. 创建EGLSurface(与Surface关联)
 /**
         * 创建EGLSurface
         */
        int[] surface_attrib_list = {
                EGL14.EGL_NONE
        };
        mEglSurface = EGL14.eglCreateWindowSurface(mEglDisplay, mEglConfig, surface, surface_attrib_list, 0);
        // mEglSurface == null
        if (mEglSurface == null){
            throw new RuntimeException("EGL error " + EGL14.eglGetError());
        }

        /**
         * 绑定当前线程的显示器display
         */
       if (!EGL14.eglMakeCurrent(mEglDisplay,mEglSurface,mEglSurface,mEglContext)){
           throw new RuntimeException("EGL error " + EGL14.eglGetError());
       }
  1. 绘制
 public void draw(int textureId, long timestamp) {
        recordFilter.onDraw(textureId);
        EGLExt.eglPresentationTimeANDROID(mEglDisplay,mEglSurface,timestamp);
        //EGLSurface是双缓冲模式
        EGL14.eglSwapBuffers(mEglDisplay,mEglSurface);

    }

只要画到这个EGLSurface中,因为它与MediaCodec的Surface关联着,MediaCodec就能对画上 去的图像进行编码了。 

但是编码完成之后,还要生成mp4文件,所以还要来进行编码数据的封装。

你是怎样录制 OpenGL ES 的渲染结果?

双缓冲机制,通俗的说就是两个画布,1,2号画布,1号画布显示同时,2号在绘制,然后交换,2号显示,1号后台绘制,不断重复。

录制具体参考源码https://github.com/zcwfeng/zcw_android_demo/releases/tag/opengl_1.1

原文链接: https://www.jianshu.com/p/09563669d1c3

进技术交流群,扫码添加我的微信:Byte-Flow

字节流动

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。

(0)

相关推荐

发表回复

登录后才能评论