CN115393238A - 一种基于虚拟现实技术的图像合成系统及方法 - Google Patents

一种基于虚拟现实技术的图像合成系统及方法 Download PDF

Info

Publication number
CN115393238A
CN115393238A CN202211012594.9A CN202211012594A CN115393238A CN 115393238 A CN115393238 A CN 115393238A CN 202211012594 A CN202211012594 A CN 202211012594A CN 115393238 A CN115393238 A CN 115393238A
Authority
CN
China
Prior art keywords
shooting
virtual
virtual scene
picture
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211012594.9A
Other languages
English (en)
Inventor
郑森龙
陈镇生
谭景畅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Baibai Technology Co ltd
Original Assignee
Guangzhou Baibai Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Baibai Technology Co ltd filed Critical Guangzhou Baibai Technology Co ltd
Priority to CN202211012594.9A priority Critical patent/CN115393238A/zh
Publication of CN115393238A publication Critical patent/CN115393238A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Circuits (AREA)

Abstract

本发明公开了一种基于虚拟现实技术的图像合成方法,获取相机实景拍摄绿幕背景的当前图像帧,并从所述当前图像帧中进行绿幕抠图,得到前景画面和背景画面;将所述前景画面与所述背景画面进行分离,得到待合成画面,并在所述待合成画面中对所述前景画面进行跟踪;将所述前景画面与预先生成的虚拟场景通过Aximmetry软件进行视频合成,得到合成视频;每个前景画面通过Aximmetry软件能够实现与多个虚拟场景的合成,本发明的虚拟场景具有复用性以及差异性,复用性在于虚拟场景制作完可以对应多个前景画面使用,差异性在于单个虚拟场景可以通过改动场景内摆放的物品或灯光颜色形成新的场景,相较于传统方案单条视频成本显著降低。

Description

一种基于虚拟现实技术的图像合成系统及方法
技术领域
本发明涉及图像合成技术领域,具体涉及一种基于虚拟现实技术的图像合成系统及方法。
背景技术
抠像技术是一种广泛应用于电影、广播电视、视频内容制作等领域,将图像数据或者视频画面中的人物与其背景分离的一种图像信号处理技术;分离出的人物图像数据可应用于视频后期处理如电影特效处理,虚拟背景叠加,三维场景合成等方面。
最常见的抠像技术就是绿幕抠像技术,绿幕抠像技术是一种通过制作绿箱演播室,从而使用这种演播室或者场景进行视频拍摄,对这种背景下拍摄的视频进行抠像的技术。但是由于此项技术对绿箱演播室的建设有一定要求,比如背景颜色的均匀分布,灯光的布置,因此在使用场景上有一定的局限性。
同时,传统信息流视频拍摄,还存在时间成本高(灯光布置:室内场景拍摄前通常需要额外布置灯光;场地转移:不同场景之间的通行时间),场地受限(场地成本:场地拍摄需要组场地费用或者一定消费;场地不允许拍摄等),综合下来单条视频成本高。
发明内容
本发明的目的在于提供一种基于虚拟现实技术的图像合成方法,获取绿幕中相机拍摄的当前图像帧,并从所述当前图像帧中进行绿幕抠图,得到定位前景画面和背景画面;将所述前景画面与所述背景画面进行分离,得到待合成画面,并在所述待合成画面中对所述前景画面进行跟踪;将所述前景画面与预先生成的虚拟场景通过Aximmetry软件进行视频合成,得到合成视频;其中,每个前景画面通过Aximmetry软件能够单次实现与多个虚拟场景或实拍场景的合成,本发明的虚拟场景具有复用性以及差异性,复用性在于虚拟场景制作完可以对应多个前景画面使用,差异性在于单个虚拟场景可以通过改动场景内摆放的物品或灯光颜色形成新的场景,相较于传统方案单条视频成本显著降低。
本发明的目的可以通过以下技术方案实现:
一种基于虚拟现实技术的图像合成方法,包括以下步骤:
S1:通过实景拍摄或虚拟场景搭建获取所需的背景画面,其中,实景拍摄与虚拟场景搭建获取的背景画面光照强度一致;
S2:在S1同样的光照强度下,获取相机实时拍摄绿幕背景的当前图像帧,并从所述当前图像帧中进行绿幕抠图,得到所需的前景画面;
S3:将所述前景画面与预先生成的背景画面通过Aximmetry软件进行视频合成,得到合成视频;
其中,每个前景画面通过Aximmetry软件能够单次实现与多个虚拟场景的合成。
作为本发明进一步的方案:S1中当前图像帧的获取是通过三台相机分别拍摄获取;
其中,一台相机位于实景拍摄采集点的正前方,另外两台相机位于实景拍摄采集点的两侧。
作为本发明进一步的方案:三台相机位置确定后,对相机拍摄参数进行设置,拍摄参数包括拍摄高度、拍摄角度和拍摄距离。
作为本发明进一步的方案:当前图像帧的拍摄过程中通过光线采集设备对采集点拍摄过程中的光照信息进行采集。
作为本发明进一步的方案:S3中虚拟场景的搭建基于S1中相机实景拍摄搭建而成,包括以下步骤:
K1:根据实景拍摄进行虚拟场景构建,在虚拟场景中对采集点进行光照信息还原;
K2:在K1的基础上,在虚拟场景中设置三台虚拟相机,根据实景拍摄过程中的拍摄参数设置三台虚拟相机在虚拟场景中的虚拟拍摄参数;
K3:在虚拟场景中以相机视角分图层渲染,得到渲染后的虚拟场景。
作为本发明进一步的方案:K1中,虚拟场景中对采集点进行光照信息还原通过在虚拟场景中设置多个灯光,并对多个灯光的光照强度进行控制,使前景画面与虚拟场景的合成点与实景拍摄中的光比达到1:1。
作为本发明进一步的方案:K1中,还通过虚拟场景中的像素检测器对光照强度进行检测。
一种基于虚拟现实技术的图像合成系统,包括摄像单元、图像抠图单元和图像合成单元;
摄像单元用于获取相机实时拍摄绿幕背景的当前图像帧;
图像抠图单元用于当前图像帧中进行绿幕抠图,得到前景画面和背景画面;
图像合成单元用于将所述前景画面与预先生成的虚拟场景通过Aximmetry软件进行视频合成,得到合成视频。
作为本发明进一步的方案:还包括图像优化单元,所述图像优化单元用于对前景画面的RGB与虚拟场景采集点的RGB值进行处理,得到前景画面在虚拟场景中边缘过渡区的RGB值。
本发明的有益效果:
(1)本发明的应用场景具有复用性以及差异性,复用性在于场景制作完可以多次使用,差异性在于单个场景可以通过改动场景内摆放的物品或灯光颜色形成新的场景,相较于传统方案单条视频成本显著降低;
(2)本发明通过在绿幕影棚拍摄人物时还原虚拟或现实场景的光照数据,即实现绿幕影棚中拍摄人物时还原虚拟或实拍场景的光照效果,使得绿幕画面分离出的人物图像的光照效果能与背景场景更加贴合,视觉效果更加自然;
(3)本发明通过对实景拍摄的前景画面与虚拟场景采集点进行RGB值分析处理,即实现实景画面与虚拟场景的过渡处理,使得实景画面与虚拟场景的嵌合度高,过渡区更加光滑,使前景画面与虚拟场景融合后的视频整体输出效果显著提高。
附图说明
下面结合附图对本发明作进一步的说明。
图1是本发明的流程图;
图2是本发明采集点的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1所示,本发明为一种基于虚拟现实技术的图像合成方法,其特征在于,包括以下步骤:
S1:通过实景拍摄或虚拟场景搭建获取所需的背景画面,其中,实景拍摄与虚拟场景搭建获取的背景画面光照强度一致;
S2:在S1同样的光照强度下,获取相机实时拍摄绿幕背景的当前图像帧,并从所述当前图像帧中进行绿幕抠图,得到所需的前景画面;
S3:将所述前景画面与预先生成的虚拟场景或拍摄的实拍场景通过Aximmetry软件进行视频合成,得到合成视频;
其中,每个前景画面通过Aximmetry软件能够单次实现与四个场景的合成。
S3中Aximmetry软件的处理过程为:
S31:视频输入
收音设备连接摄像机,通过4k采集卡把三台相机的画面输入到Aximmetry,通过VideoInput模块获得视频输入源,取出其中连接麦克风摄像机的音频;
S32:视频处理
使用Aximmetry中的masker制作遮罩层;
通过扣绿-色keyerAll模块进行扣除绿幕;
Placer进行人物与场景融合,扣绿后的视频作为表层,背景作为底层合成,通过调节参数来使扣绿后的视频调整位置以及大小;
其中,使用Blender模块进行场景前景与场景背景融合;
S33:视频预览
合成视频在Aximmetry视图预览中调出预览窗口,能够实时查看合成视频,调整人物的位置以及大小使之更贴合背景;
S34:视频录制
把合成视频连入VideoRecorder模块,单独取出的音频也连入VideoRecorder模块进行录制。
S1中当前图像帧的拍摄对于机位的设置过程如下:
参阅图2,设置三台相机对当前帧图像进行采集,其中,一台相机位于采集点的正前方,另外两台相机位于采集点的两侧;
相机位置确定后,对相机拍摄参数进行设置,拍摄参数包括拍摄高度、拍摄角度和拍摄距离;
其中,拍摄参数还包括相机的焦距、快门、光圈和ISO等,相机对焦之后固定下来并记录数据(误触后复原)。
并通过光线采集设备对采集点拍摄过程中的光照信息进行采集。
S2中当前图像帧的拍摄对于机位的设置过程与S1相同;
其中通过S1所采集到的光照信息进行换算得出还原光照效果所需的数值;
通过调节绿幕影棚中灯光强弱使采集点的光照数据与上述换算后的数值匹配,然后在S1记录的快门光圈、ISO综合作用下实现对采集点的光照效果进行还原。
具体的光照信息换算包括以下步骤:
F1:获取S1所采集的光照信息,即采集点上5个感光点所获得的数据,例如:上10186Lux,后2056Lux,正2909Lux,左5510Lux,右4355Lux;以及记录的快门,光圈,ISO数据:100,F8.0,400;
F2:光照强度记为L,曝光补偿记为Ev
通过公式L=2.5*2^Ev计算出每个方向光照度对应的Ev值为:12,9.7,10.2,11.1,10.8
对上述的每个Ev值减少2,即降低两档
再通过公式Ev=log2(L/2.5)计算出每个方向的光照度为:2560Lux,520Lux,685Lux,1370Lux,1110Lux
F3:通过绿幕影棚中灯光的调整使采集点上5个方向的感官点所对应的光照度达到F2中最终计算出的光照度,再对绿幕影棚中设置的相机快门,光圈,ISO综合升高两档,即100,F5.6,800,最终实现采集点的灯光效果还原。
S3中虚拟场景的搭建基于S1中相机实景拍摄搭建而成,具体的,虚拟场景的搭建包括以下步骤:
K1:根据实景拍摄进行虚拟场景构建,在虚拟场景中对采集点进行光照信息还原;
K2:在K1的基础上,在虚拟场景中设置三台虚拟相机,根据实景拍摄过程中的拍摄参数设置三台虚拟相机在虚拟场景中的虚拟拍摄参数;
K3:在虚拟场景中以相机视角分图层渲染,得到渲染后的虚拟场景。
K1中,虚拟场景中对采集点进行光照信息还原通过在虚拟场景中的正面、左面、右面、顶面和后面五个方向设置灯光,并使采集点正面、左面、右面、顶面和后面的光照度为10186Lux,2056Lux,2909Lux,5510Lux,4355Lux,使前景画面与虚拟场景的合成点与实景拍摄中的光比达到1:1。
K1中,通过虚拟场景中的像素检测器对光照信息进行检测。
在一个具体的实施方式中,相机实景拍摄过程中,采集点定位尽可能远离背景以及左右的绿幕,有利于减少绿光反射到前景画面上。
在一个具体的实施方式中,对于S2中待合成画面对前景画面的跟踪处理包括如下步骤:
首先,对前景画面的RGB进行计算,得到前景画面的RGB值;
获取虚拟场景中采集点的RGB值,根据前景画面的RGB值与虚拟场景中采集点的RGB值计算前景画面在虚拟场景中的边缘过渡区的RGB值;
具体为:
Z1:获取前景画面的R值,标记为Ri;
获取前景画面的G值,标记为Gi;
获取前景画面的B值,标记为Bi;
通过公式
Figure BDA0003811177200000071
计算得到前景画面的真实融合指数RZ,其中,d1、d2和d3为预设比例系数;
Z2:按步骤Z1中的处理过程中,对虚拟场景采集点的RGB值进行处理,得到虚拟场景采集点的虚拟融合指数RY;
Z3:将前景画面的真实融合指数RZ与虚拟场景采集点的虚拟融合指数RY进行差值计算,即RC=∣RZ-RY∣,并将RC的值与图像融合阈值进行比较;
Z31:预设图像融合阈值极限值为RK1和RK2,其中RK1<RK2;
当RC<RK1时,该前景画面与虚拟场景的融合效果差;
当RK1<RC<RK2时,该前景画面与虚拟场景的融合效果好;
当RC>RK2时,该前景画面与虚拟场景的融合效果差。
Z4:当前景画面与虚拟场景的融合效果差时,将前景画面的R、G、B值分别与虚拟场景采样点的R、G、B值进行差值处理,获得Rj、Gj、Bj;
Z5:对Z4中获取的Rj、Gj、Bj进行加权处理,将获取的差值Rj的权重占比分配为P1,将获取的差值Gj的权重占比分配为P2,将获取的差值Bj的权重占比分配为P3,其中,P1+P2+P3=1,P3、P2、P1均大于0,根据公式Q=Rj*P1+Gj*P2+Bj*P2计算得到差分值Q;
Z6:将虚拟场景中的R、G、B值分别与差分值Q进行比较,实现对虚拟场景采集点边缘过渡区的RGB值进行填充,重绘虚拟场景中的前景场景与虚拟场景采集点的过渡区。
在另一个具体实施方式中,将前景画面的RGB值与虚拟场景的RGB值进行处理,从而使前景画面的RGB值与虚拟场景的RGB值相适配,使前景画面与虚拟场景嵌合度高。
在另一个具体实施方式中,通过调整虚拟场景中的场景设置,从而实现单张相片融合多种应用场景,使用价值高,应用范围广。
以上对本发明的一个实施例进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍归属于本发明的专利涵盖范围之内。

Claims (10)

1.一种基于虚拟现实技术的图像合成方法,其特征在于,包括以下步骤:
S1:通过实景拍摄或虚拟场景搭建获取所需的背景画面,其中,虚拟场景背景画面的构建参照实景拍摄光照强度;
S2:在S1同样的光照强度下,获取相机实时拍摄绿幕背景的当前图像帧,并从所述当前图像帧中进行绿幕抠图,得到所需的前景画面;
S3:将所述前景画面与预先生成的背景画面通过Aximmetry软件进行视频合成,得到合成视频;
其中,每个前景画面通过Aximmetry软件能够单次实现与多个虚拟场景的合成。
2.根据权利要求1所述的一种基于虚拟现实技术的图像合成方法,其特征在于,S1、S2中背景画面和当前图像帧的获取是通过三台相机分别拍摄获取;
其中,一台相机位于拍摄采集点的正前方,另外两台相机位于实景拍摄采集点的两侧。
3.根据权利要求2所述的一种基于虚拟现实技术的图像合成方法,其特征在于,三台相机位置确定后,对相机拍摄参数进行设置,拍摄参数包括拍摄高度、拍摄角度和拍摄距离。
4.根据权利要求2所述的一种基于虚拟现实技术的图像合成方法,其特征在于,当前图像帧的拍摄过程中通过光线采集设备对采集点拍摄过程中的光照信息进行采集。
5.根据权利要求2所述的一种基于虚拟现实技术的图像合成方法,其特征在于,当前图像帧的拍摄过程中通过调节绿幕影棚中灯光强弱对采集点的光照效果进行还原。
6.根据权利要求1所述的一种基于虚拟现实技术的图像合成方法,其特征在于,S3中虚拟场景的搭建基于S1中相机实景拍摄搭建而成,包括以下步骤:
K1:根据实景拍摄进行虚拟场景构建,在虚拟场景中对采集点进行光照信息还原;
K2:在K1的基础上,在虚拟场景中设置三台虚拟相机,根据实景拍摄过程中的拍摄参数设置三台虚拟相机在虚拟场景中的虚拟拍摄参数;
K3:在虚拟场景中以相机视角分图层渲染,得到渲染后的虚拟场景。
7.根据权利要求6所述的一种基于虚拟现实技术的图像合成方法,其特征在于,K1中,虚拟场景中对采集点进行光照信息还原通过在虚拟场景中设置多个灯光,并对多个灯光的光照强度进行控制,使前景画面与虚拟场景的合成点与实景拍摄中的光比达到1:1。
8.根据权利要求7所述的一种基于虚拟现实技术的图像合成方法,其特征在于,K1中,还通过虚拟场景中的像素检测器对光照强度进行检测。
9.一种基于虚拟现实技术的图像合成系统,其特征在于,包括摄像单元、图像抠图单元和图像合成单元;
摄像单元用于获取相机实时拍摄绿幕背景的当前图像帧;
图像抠图单元用于当前图像帧中进行绿幕抠图,得到前景画面和背景画面;
图像合成单元用于将所述前景画面与预先生成的虚拟场景通过Aximmetry软件进行视频合成,得到合成视频。
10.根据权利要求9所述的一种基于虚拟现实技术的图像合成系统,其特征在于,还包括图像优化单元,所述图像优化单元用于对前景画面的RGB与虚拟场景采集点的RGB值进行处理,得到前景画面在虚拟场景中边缘过渡区的RGB值。
CN202211012594.9A 2022-08-23 2022-08-23 一种基于虚拟现实技术的图像合成系统及方法 Pending CN115393238A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211012594.9A CN115393238A (zh) 2022-08-23 2022-08-23 一种基于虚拟现实技术的图像合成系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211012594.9A CN115393238A (zh) 2022-08-23 2022-08-23 一种基于虚拟现实技术的图像合成系统及方法

Publications (1)

Publication Number Publication Date
CN115393238A true CN115393238A (zh) 2022-11-25

Family

ID=84120630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211012594.9A Pending CN115393238A (zh) 2022-08-23 2022-08-23 一种基于虚拟现实技术的图像合成系统及方法

Country Status (1)

Country Link
CN (1) CN115393238A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118154820A (zh) * 2024-05-13 2024-06-07 南京竹影数字科技有限公司 基于实时虚实融合与实时虚实的互动演播方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103475826A (zh) * 2013-09-27 2013-12-25 深圳市中视典数字科技有限公司 一种视频抠像合成方法
CN106331521A (zh) * 2015-06-29 2017-01-11 天津万象科技发展有限公司 一种网络虚拟现实技术与实拍结合影视制作系统
CN108762508A (zh) * 2018-05-31 2018-11-06 北京小马当红文化传媒有限公司 一种基于vr体验舱的人体与虚拟人合成系统及方法
CN112003999A (zh) * 2020-09-15 2020-11-27 东北大学 基于Unity 3D的三维虚拟现实合成算法
CN112040092A (zh) * 2020-09-08 2020-12-04 杭州时光坐标影视传媒股份有限公司 一种实时虚拟场景led拍摄系统及方法
CN113132707A (zh) * 2021-04-16 2021-07-16 中德(珠海)人工智能研究院有限公司 一种人物与虚拟装修环境实时动态叠加的方法及系统
CN114173021A (zh) * 2022-02-14 2022-03-11 中国传媒大学 基于高清多屏的虚拟演播方法、系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103475826A (zh) * 2013-09-27 2013-12-25 深圳市中视典数字科技有限公司 一种视频抠像合成方法
CN106331521A (zh) * 2015-06-29 2017-01-11 天津万象科技发展有限公司 一种网络虚拟现实技术与实拍结合影视制作系统
CN108762508A (zh) * 2018-05-31 2018-11-06 北京小马当红文化传媒有限公司 一种基于vr体验舱的人体与虚拟人合成系统及方法
CN112040092A (zh) * 2020-09-08 2020-12-04 杭州时光坐标影视传媒股份有限公司 一种实时虚拟场景led拍摄系统及方法
CN112003999A (zh) * 2020-09-15 2020-11-27 东北大学 基于Unity 3D的三维虚拟现实合成算法
CN113132707A (zh) * 2021-04-16 2021-07-16 中德(珠海)人工智能研究院有限公司 一种人物与虚拟装修环境实时动态叠加的方法及系统
CN114173021A (zh) * 2022-02-14 2022-03-11 中国传媒大学 基于高清多屏的虚拟演播方法、系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
(美)加里•塞特尔作;叶继飞等译: "《纹影与阴影技术 透明介质中的可视化现象》", 中国广播电视出版社, pages: 165 - 166 *
AXIMMETRY 虚拟演播室: "如何在 15 分钟内设置并运行虚拟场景| Aximmetry", pages 152 - 02 *
BILI_AXIMMETRY: "Aximmetry 官方宣传视频 超炫虚拟技术展示" *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118154820A (zh) * 2024-05-13 2024-06-07 南京竹影数字科技有限公司 基于实时虚实融合与实时虚实的互动演播方法

Similar Documents

Publication Publication Date Title
CN107925751B (zh) 用于多视点降噪和高动态范围的系统和方法
CN110378859B (zh) 一种新的高动态范围图像生成方法
US9094675B2 (en) Processing image data from multiple cameras for motion pictures
US8212890B2 (en) Imaging device and imaging method
CN101888487B (zh) 高动态范围视频成像系统和图像生成方法
WO2018119808A1 (zh) 一种基于3d卷积神经网络的立体视频生成方法
Cheng et al. RMIT3DV: Pre-announcement of a creative commons uncompressed HD 3D video database
US20120050483A1 (en) Method and system for utilizing an image sensor pipeline (isp) for 3d imaging processing utilizing z-depth information
US20110080466A1 (en) Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
CN106713755A (zh) 全景图像的处理方法及装置
JP2007095073A (ja) シーンから収集される画像からアルファマットを抽出するための方法及びシステム
KR20120073159A (ko) Hdri(high dynamic range imaging)을 위해 일시적으로 조정된 노출 브라케팅
CN105260152B (zh) 用于led显示屏的图像处理方法和装置
CN111986129A (zh) 基于多摄图像融合的hdr图像生成方法、设备及存储介质
CN104813649A (zh) 视频帧处理方法
CN106550227B (zh) 一种图像饱和度调整方法及装置
CN115393238A (zh) 一种基于虚拟现实技术的图像合成系统及方法
CN105635603A (zh) 一种采用两路视频间亮度和色偏对视频拼接的系统
CN107682611B (zh) 对焦的方法、装置、计算机可读存储介质和电子设备
CN202721763U (zh) 一种全景视频采集装置
CN108540720B (zh) 一种用于子弹时间自动选取最优图像的系统及方法
CN107454318A (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
WO2016202073A1 (zh) 图像处理的方法和装置
CN112738425A (zh) 一种多摄像头采集的视频实时拼接系统
Wadaskar et al. A rich stereoscopic 3d high dynamic range image & video database of natural scenes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination