大家好,
正在做一个视频记录的项目,想请教一下关于IPUv3 Framebuffer图像存储的问题。
我是将camera图像叠加基于Qt的 fsl-image-gui App上。Qt gui显示在fb0上,camera视频是通过fsl-gstreamer-plugin通过tvsrc、pipeline、mfw_v4vsink显示在fb1上,对fb0需要显示视频的区域进行了Alpha和Color Key设置实现透明化处理,设置fb1对fb0的overlay.fb0和fb1从HDMI输出到显示器上。我需要存储输出的显示器包含Qt gui和Camera Video的每帧画面。
fb0参数 name=DISP3 BG
fsl_disp_dev_property=hdmi
fsl_disp_property=2-layer_fb_bg
fb1参数 name=DISP3 FG
fsl_disp_dev_property=overlay
fsl_disp_property=2-layer_fb_fg
我知道fb0使用MEM_BG_SYNC通道,在IPUv3里的DP模块会与fb1使用的MEM_FG_SYNC通道进行合成,再送DC和DI0输出,也就是
fb0->DP(full plane)->DC->DI0
fb1->DP(paritial plane)->DC->DI0
想请教下,有没有什么办法可以存储fb0和fb1合成后的图像,或者如何得到IPUv3里的DP合成后的framebuffer?
祝好
|