CN103428516A - 用于稳定数字图像的方法、电路和系统 - Google Patents

用于稳定数字图像的方法、电路和系统 Download PDF

Info

Publication number
CN103428516A
CN103428516A CN2013101796095A CN201310179609A CN103428516A CN 103428516 A CN103428516 A CN 103428516A CN 2013101796095 A CN2013101796095 A CN 2013101796095A CN 201310179609 A CN201310179609 A CN 201310179609A CN 103428516 A CN103428516 A CN 103428516A
Authority
CN
China
Prior art keywords
picture frame
motion vector
perspective
background area
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101796095A
Other languages
English (en)
Other versions
CN103428516B (zh
Inventor
金东埙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103428516A publication Critical patent/CN103428516A/zh
Application granted granted Critical
Publication of CN103428516B publication Critical patent/CN103428516B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Abstract

一种稳定三维(3D)数字视频图像序列的方法包括:使用第一透视(例如,左)组中的每个图像帧以及第二透视(例如,右)组中的每个图像帧来针对图像的每个立体对产生深度图,并在每幅深度图中确定背景区域;使用确定的背景区域来在第一透视组和第二透视组之中的一组中的每个图像帧中限定第二背景区域,并仅使用限定的第二背景区域的像素来计算所述一组中的连续的图像帧之间的第一全局运动矢量。

Description

用于稳定数字图像的方法、电路和系统
本申请要求于2012年5月15日提交的第10-2012-0051698号韩国专利申请的优先权,所述申请通过引用其全部合并于此。
技术领域
本发明构思的实施例涉及一种三维(3D)技术,更具体地讲,涉及一种用于稳定在3D显示技术中使用的数字图像的方法、电路和系统。
背景技术
3D显示技术涉及使用3D显示装置向观看者提供3D图像。例如,3D显示技术可以是立体显示(Stereoscopics)。立体显示是一种通过将两幅偏移图像(立体图像)分别呈现给观看者的左眼和右眼来创建或增强图像中的深度错觉的技术。可通过如一个相机或一对相机的装置来(同时地)捕捉并记录两幅立体图像。可通过如立体视频相机或一对视频相机的装置来按顺序记录多个立体图像。两个相机中的每个相机处于相对于另一个相机且相对于场景不同的物理位置,因此,每个相机具有稍微不同的观察点(perspective)。当通过手持装置来记录两幅偏移图像时,手的晃动(shaking)或颤抖(trembling)可能造成记录的视频中的帧间抖动(frame-to-frame jitter)。因此,需要3D视频的数字图像稳定(DIS)以去除所述抖动(jitter)。
发明内容
根据本发明构思的一方面,提供了一种稳定数字图像的方法。所述方法包括:接收第一透视组中的图像帧和第二透视组中的图像帧,并使用第一透视组中的一个图像帧和第二透视组中的时间上相应的图像帧来产生多幅深度图中的每一幅;在每幅深度图中确定背景区域,使用确定的背景区域来在第一透视组和第二透视组之中的选择的一组中的每个图像帧中限定背景区域,并且(例如,使用限定的背景区域中的每一个作为遮蔽)计算所述一组中的图像帧的限定的背景区域中的像素之间的第一全局运动矢量。所述方法还可包括:根据图像分辨率来选择所述一组。
在每幅深度图中确定背景区域的步骤可包括:将深度图中的每个像素的深度值与深度阈值进行比较,并根据比较的结果来在每幅深度图中确定将在背景区域内的每个像素。
计算第一全局运动矢量的步骤可包括:使用第二背景区域中的每一个来计算所述一组中的图像帧之中的连续两帧之间的局部运动矢量,并使用滤波器从所述局部运动矢量计算第一全局运动矢量之一。所述滤波器可以是高斯滤波器、中值滤波器或均值滤波器。
计算局部运动矢量的步骤可基于块匹配来计算所述局部运动矢量。计算局部运动矢量的步骤可包括:基于特征点对应来计算局部运动矢量。
所述方法还可包括:将第一全局运动矢量输出到编码器。
所述方法还可包括:使用第一全局运动矢量对第一透视组中的图像帧的运动以及第二透视组中的图像帧的运动进行补偿。
所述方法还可包括:使用确定的背景区域中的每一个来在第一透视组和第二透视组之中的其他组中的每个图像帧中限定背景区域,并且(例如,使用限定的背景区域中的每一个作为遮蔽)计算所述其他组中的图像帧的限定的背景区域中的像素之间的第二全局运动矢量。
所述方法还可包括:根据第一全局运动矢量中的每一个的大小(例如,根据大小改变)和第二全局运动矢量中的每一个的大小(例如,根据大小改变)来选择第一全局运动矢量或第二全局运动矢量。
选择第一全局运动矢量或第二全局运动矢量的步骤可包括:计算第一全局运动矢量之中的两个连续矢量的大小之间的差以及第二全局运动矢量之中的两个连续矢量的大小之间的差,将所述差与大小阈值进行比较,并根据比较的结果选择第一全局运动矢量或第二全局运动矢量。
所述方法还可包括:使用选择的全局运动矢量对第一透视组中的图像帧的运动和第二透视组中的图像帧的运动进行补偿。
根据本发明构思的一方面,提供了一种数字图像稳定装置,包括:深度图产生器,被配置为使用第一透视组中的一个图像帧和第二透视组中的一个图像帧来产生每幅深度图,并在每幅深度图中确定背景区域;选择器,被配置为根据图像分辨率来在第一透视组和第二透视组之间选择一组;背景设置单元,被配置为使用确定的背景区域来在选择的组中的每个图像帧中限定背景区域;运动估计器,被配置为(例如,使用限定的背景区域中的每一个作为遮蔽)计算选择的组中的图像帧的限定的背景区域内的像素之间的全局运动矢量。
所述数字图像稳定装置还可包括:第一运动补偿器,被配置为使用全局运动矢量来对第一透视组中的图像帧的抖动运动进行补偿;第二运动补偿器,被配置为使用全局运动矢量来对第二透视组中的图像帧的抖动运动进行补偿。
所述运动估计器可包括:局部运动估计单元,被配置为(例如,使用选择的组中的图像帧之中的连续两帧中的至少一帧中的限定的背景区域作为遮蔽)计算所述连续两帧的限定的背景区域中的像素之间的局部运动矢量;全局运动估计单元,被配置为使用滤波器从局部运动矢量计算全局运动矢量之一。
所述数字图像稳定装置可以是图像信号处理器。
根据本发明构思的一方面,提供了一种数字图像稳定系统,包括:图像传感器;数字图像稳定装置,被配置为从图像传感器接收第一透视图像帧和第二透视图像帧。所述系统还可包括在此描述的抖动运动补偿器电路。
所述数字图像稳定系统还可包括:三维(3D)格式器,被配置为将从运动补偿器输出的图像帧转换为3D格式,并输出3D显示帧;编码器,被配置为使用从运动估计器输出的全局运动矢量来压缩3D显示帧。所述数字图像稳定系统可以是3D显示装置。
根据本发明构思的一方面,提供了一种数字图像稳定装置,包括:深度图产生器,被配置为产生深度图,并被配置为在每幅深度图中确定背景区域,其中,使用第一透视图像帧中的每一帧以及第二透视图像帧中的相应的每一帧来产生每幅深度图;背景设置块,被配置为(例如,使用相应深度图的确定的背景区域)在第一透视图像帧中的每一帧中限定背景区域,并(例如,使用相应深度图的确定的背景区域)在第二透视图像帧中的每一帧中限定背景区域;运动估计块,被配置为计算第一透视图像帧的限定的背景区域内的像素之间的第一全局运动矢量,并计算第二透视图像帧的限定的背景区域内的像素之间的第二全局运动矢量。
所述数字图像稳定装置还可包括:比较器,被配置为根据第一全局运动矢量中的每一个的大小(例如,大小改变)和第二全局运动矢量中的每一个的大小(例如,大小改变)来选择第一全局运动矢量或第二全局运动矢量;运动补偿器,被配置为使用选择的全局运动矢量分别对第一透视图像帧的运动和第二透视图像帧的运动进行补偿。
所述数字图像稳定装置可以是图像信号处理器。
根据本发明构思的一方面,提供了一种数字图像稳定系统,包括:第一图像传感器、第二图像传感器和数字图像稳定装置,其中,所述数字图像稳定装置被配置为分别从第一图像传感器和第二图像传感器接收第一透视图像帧和第二透视图像帧。
所述数字图像稳定系统可包括3D显示装置。
附图说明
从以下结合附图的详细描述中,说明性的、非限制性的示例性实施例将被更清楚地理解,其中:
图1是根据本发明构思的实施例的数字图像稳定(DIS)系统的框图;
图2是从图1的DIS系统中的图像传感器的立体对输出的多个(立体)视频帧的示图;
图3是示出由图1的DIS系统中的深度图产生器从多个(立体)视频帧产生的多幅深度图的示图;
图4是用于解释图1的DIS系统中的背景设置单元的操作的深度图和相应图像帧的示图;
图5是示出由图1的DIS系统中的局部运动估计单元估计的多个局部运动矢量的估计的示图;
图6是示出在图1的DIS系统中由局部运动估计单元使用检测的特征点估计的多个局部运动矢量的估计的示图;
图7是由图1的DIS系统中的第一运动补偿器正补偿的图像帧的全局(抖动)运动的示图;
图8是由图1的DIS系统中的3D格式器产生的三维(3D)图像格式的示图;
图9是图1的数字图像稳定(DIS)装置的操作的流程图;
图10是根据本发明构思的实施例的数字图像稳定(DIS)系统的框图;
图11A和图11B是由图10的DIS系统中的全局运动估计单元对产生的多个全局运动矢量的分布曲线;
图12是图10的DIS系统的操作的流程图;
图13是根据本发明构思的实施例的数字图像稳定(DIS)系统的框图。
具体实施方式
图1是根据本发明构思的实施例的数字图像稳定(DIS)系统10的框图。图2是从图1的DIS系统中的多个图像传感器11和13(例如,图像传感器11和13的立体对)输出的多个立体视频帧的序列的示图。参照图1和图2,DIS系统10可以是可向观看者呈现三维(3D)图像的3D显示装置。数字图像稳定系统10可包括数字相机、平板个人计算机(PC)或智能电话,或者可被合并在数字相机、平板个人计算机(PC)或智能电话中。
DIS系统10包括多个图像传感器11和13、DIS电路20、3D格式器41和编码器43。
可由如图像传感器11和13的成像装置分别产生多个立体视频图像帧IF1和IF2的序列。可由第一图像传感器11顺序产生多个第一图像帧IF1(例如,IF1-1、IF1-2、IF1-3、IF1-4等),并且可由第二图像传感器13顺序产生多个第二图像帧IF2(例如,IF2-1、IF2-2、IF2-3、IF2-4等)。立体图像帧IF1和IF2的序列被捕捉并被处理,以将3D图像的视频序列提供给观看者。
图像帧IF1和IF2可以是适合于在立体显示(stereoscopics)中使用的左图像的序列和相应的(例如,同时捕捉的)右图像的序列。IF1和IF2中的图像帧中的每一帧是数字图像。IF1和IF2中的图像帧中的每一帧可被称为图像或被称为视频帧。在当前实施例中存在两个图像传感器11和13,但图像传感器的数量可随着各种实施例而变化。
抖动可能由手的晃动或颤抖造成并且在图像帧IF1和IF2中可能是可观察到的。因此,DIS电路20被用于消除所述抖动。
DIS电路20包括深度图产生器21、选择器23、背景设置单元25、运动估计器27以及多个运动补偿器37和39。
深度图产生器21接收第一图像帧IF1中的一帧和第二图像帧IF2中的一帧,并使用第一图像帧IF1和第二图像帧IF2之中的图像帧的每个立体对(stereo pair)来产生深度图。深度图中的每一幅是包括指示图像中的对象与图像传感器11和13之间的距离的像素数据的图像。
图3是示出由图1的DIS系统中的深度图产生器21从多个(立体)视频帧(IF1和IF2)产生的多幅深度图的示图。参照图1至图3,深度图产生器21比较第一图像帧IF1和第二图像帧IF2之中的立体对,并顺序产生多幅深度图DM。深度图DM中的每一幅可被表现为深度值的阵列(例如,多个比特)或灰度值的帧。随着对象(例如,书架)变得越远离图像传感器11和13,它在深度图DM中的深度值变得越暗。
深度图产生器21可将深度图DM的每个像素的深度值与深度阈值进行比较并在每幅深度图DM中检测每个第一背景区域(或暗灰区域)。例如,当像素的深度阈值大于深度图DM的深度值时,深度图产生器21将该像素定义在深度图DM中的第一背景区域BG1内。当像素的深度阈值小于深度图DM的深度值时,深度图产生器21将该像素定义在深度图DM中的前景区域FG内。换句话说,深度图产生器21可根据比较结果将深度图DM中的像素划分为第一背景区域BG1和前景区域FG。在图3中,第一背景区域BG1包括书和书架,并且前景区域FG包括石膏像和台灯。可选择地,当像素的深度阈值小于深度图DM的深度值时,深度图产生器21可确定像素在深度图DM中的第一背景区域BG1中。
参照图1,选择器23选择图像帧IF1和IF2中的一个。例如,选择器23可随机选择图像帧IF1和IF2中的一个,或者可根据用户的设置选择图像帧IF1和IF2中的一个。
可选择地,选择器23可根据图像分辨率选择图像帧IF1或图像帧IF2。例如,当第一图像帧IF1的图像分辨率高于第二图像帧IF2的图像分辨率时,选择器23可选择第一图像帧IF1。
图4是用于解释图1中示出的背景设置单元25的操作的深度图DM和相应图像帧IF1的示图。参照图1至图4,背景设置单元25使用每幅深度图DM中的第一背景区域BG1中的每一个,将由选择器23选择的图像帧(例如,IF1)中的每一帧中的像素限定为第二背景区域BG2。由在每幅深度图DM中设置的第一背景区域BG1中的每一个遮蔽(mask)由选择器23选择的图像帧(例如,IF1)中的每一帧,以获得第二背景区域BG2。
换句话说,背景设置单元25从由选择器23选择的图像帧IF1中的每一帧提取第二背景区域BG2中的每一个。
参照图1,运动估计器27使用第二背景区域BG2中的每一个来计算由选择器23选择的连续的图像帧(例如,IF1的IF1-1&IF1-2)之间的多个全局运动矢量(GMV)。
运动估计器27包括局部运动估计单元29和第一缓冲器31。局部运动估计单元29使用第二背景区域中的每一个来计算选择的图像帧(例如,IF1)之中的两帧(例如,IF1-1&IF1-2)之间的多个局部运动矢量(MV)。
图5是示出由图1的DIS系统中的局部运动估计单元29估计的多个示例性的局部运动矢量MV的示图。参照图1至图5,可基于块匹配来计算局部运动矢量MV。术语块匹配是指块匹配算法。
参照图5,各个连续的图像帧IF1-1和IF1-2的背景区域BG2和BG3可被划分为多个块。块的尺寸可不同。图像帧IF1-1和IF1-2是图2中示出的第一图像帧IF1中的两帧。图像帧IF1-1和IF1-2中的每一帧中的图像在图5中被简单示出。各个背景区域BG2和BG3中的四边形28-1和28-2分别表示背景BG2和BG3的部分图像(例如,部分书本图像或部分书架图像)。
局部运动估计单元29找出图像帧IF1-1中与图像帧IF1-2中的块(例如,B1)最匹配的块(例如,B2)。局部运动估计单元29找出图像帧IF1-1中与图像帧IF1-2中的块B1最匹配的块B2,并将图像帧IF1-1中的块B2的位移确定为块B2的局部运动矢量。
尽管在详细描述中为了方便起见在图5中仅示出了一个局部运动矢量MV,但是可执行与图像帧IF1-2中的多个块或全部块的最佳块匹配,以找出图像帧IF1-1中的匹配块。由局部运动估计单元29估计的多个局部MV可被存储在第一缓冲器31中。可选择地,局部运动估计单元29可在背景BG2和BG3之间估计单个局部运动矢量MV。由局部运动估计单元29计算的局部运动矢量MV(单个或多个)被视为表现背景BG2和BG3之间的全局运动矢量。
图6是由图1的DIS系统中的局部运动估计单元29估计的示例性局部MV的示图。参照图1至图4以及图6,多个图像帧IF1-3和IF1-4中的图像被简单示出。各个背景中的四边形28-3和28-4分别表示背景的部分图像(例如,部分书本图像或部分书架图像)。
可基于点对应来计算局部运动矢量MV。所述点对应是指本领域技术人员现在已知或将开发出的任意点对应算法。点对应可被称为特征点对应或特征对应算法。
局部运动估计单元29在图像帧IF1-3和IF1-4的背景区域中的每一个中检测至少一个特征点。例如,局部运动估计单元29可检测在每个背景区域中可见的对象(例如,书本)的拐角。所述至少一个特征点被用于点描述。换句话说,局部运动估计单元29可将所述至少一个点描述为颜色。所述颜色可被表现为多个比特。
局部运动估计单元29在图像帧IF1-3中找出与图像帧IF1-4中的至少一个点最对应的至少一个点。局部运动估计单元29在图像帧IF1-4中找出与图像帧IF1-3中的点最对应的点,并将图像帧IF1-3的矢量估计为局部运动矢量MV。
在详细描述中为了方便起见,在图6中仅示出一个局部运动矢量MV。运动估计器27还可包括全局运动估计单元33和第二缓冲器35。
全局运动估计单元33使用滤波器从多个局部运动矢量MV计算全局运动矢量GMV之一。所述滤波器可以是高斯滤波器、中值滤波器或均值滤波器。换句话说,全局运动估计单元33计算选择的图像帧(例如,IF1之中的IF1-1&IF1-2)之间的全局运动矢量GMV。全局运动矢量GMV可被存储在第二缓冲器35中。
图7是已经被图1中示出的第一运动补偿器37补偿了全局运动(抖动)的图像帧序列(IF1-1&IF1-2)的示图。参照图1和图7,图像帧IF1-1和IF1-2是图2中示出的多个图像帧IF1之中的连续两帧。
第一运动补偿器37使用GMV对第一图像帧IF1的抖动运动进行补偿。例如,第一运动补偿器37使用GMV中的一个来对第一图像帧IF1-1的运动进行补偿。第一运动补偿器37可通过移动第一图像帧IF1-1来对第一图像帧IF1-1的运动进行补偿。类似地,第二运动补偿器39使用同一全局运动矢量GMV来对第二图像帧IF2的抖动运动进行。
图8是由图1中示出的3D格式器41产生的3D图像格式的示图。参照图1和图8,3D格式器41将从运动补偿器37和39输出的图像帧转换为各种3D格式之一。例如,由第一运动补偿器37补偿的第一图像帧IF1中的每一帧可被置于顶部,由第二运动补偿器39补偿的相应第二帧IF2中的每一帧可被置于底部。
参照图1,编码器43使用从运动估计器27输出的全局运动矢量GMV来压缩从3D格式器41输出的多个3D显示帧。
图9是图1中示出的DIS电路20的操作的流程图。参照图1至图9,在步骤S10,DIS电路20分别从立体图像传感器11和13接收第一透视组的图像帧IF1和第二透视组的图像帧IF2。在步骤S20,选择器23选择第一透视组或第二透视组。
在步骤S30,深度图产生器21使用第一透视组中的第一透视图像帧IF1中的每一个和第二透视组中的第二透视图像帧IF2之中的相应帧来产生每幅深度图DM。深度图产生器21在每幅深度图DM中限定第一背景区域BG1。在步骤S40,背景设置单元25使用第一背景区域BG1在选择的组中的每个图像帧中限定第二背景区域BG2。
在步骤S50,运动估计器27使用第二背景区域BG2计算选择的组中的图像帧之间的第一全局运动矢量。在步骤S60,运动补偿器37和39使用第一全局运动矢量GMV来分别对第一透视组中的图像帧IF1的运动(抖动)以及第二透视组中的图像帧IF2的相同运动(抖动)进行补偿。
图10是根据本发明构思的实施例的DIS系统100的框图。参照图10,DIS系统100包括多个图像传感器110和130(例如,一对图像传感器110和130)、DIS电路200、3D格式器410和编码器430。
图像传感器110和130、3D格式器410和编码器430的名称和功能分别与图1中示出的图像传感器11和13、3D格式器41和编码器43的名称和功能相同。因此,将省略其多余描述。
DIS电路200包括深度图产生器210、背景设置块251、运动估计块271、比较器365和多个运动补偿器370和390。
深度图产生器210将多个第一图像帧IF1’之中的每一帧分别与多个第二图像帧IF2’之中的相应一帧进行比较,以产生多幅深度图并在每幅深度图中限定第一背景区域BG1。图像帧IF1’和IF2’以及深度图与图2中示出的图像帧IF1和IF2以及图3中示出的深度图DM相似。
深度图产生器210的操作与图1中示出的深度图产生器21的操作相似。因此,将省略其多余描述。
背景设置块251包括第一背景设置单元250和第二背景设置单元255。
第一背景设置单元250使用在每幅深度图中设置的每个第一背景区域在每个第一图像帧IF1’中设置每个第二背景区域。第二背景设置单元255使用在每幅深度图中设置的每个第一背景区域在每个第二图像帧IF2’中设置每个第三背景区域。换句话说,基于深度图将第二背景区域中的每一个遮蔽在第一图像帧IF1’中的每一帧上,并且基于深度图将第三背景区域中的每一个遮蔽在第二图像帧IF2’中的每一帧上。
运动估计块271包括第一运动估计器270和第二运动估计器275。第一运动估计器270使用第二背景区域来计算第一图像帧IF1’之间的多个第一全局运动矢量GMV。第一运动估计器270包括第一局部运动估计单元290和第一缓冲器310。
第一局部运动估计单元290使用第一图像帧IF1’之中的连续两帧的第二背景区域来计算所述连续两帧之间的多个第一局部运动矢量MV1。第一局部运动矢量MV1可被存储在第一缓冲器310中。可选择地,第一局部运动估计单元290可估计单个局部运动矢量。此时,所述单个局部运动矢量被视为全局运动矢量。第一运动估计器270还可包括第一全局运动估计单元330和第二缓冲器350。
对于第一图像帧IF1’之中的每对连续帧,第一全局运动估计单元330使用滤波器来从多个第一局部运动矢量MV1计算一个第一全局运动矢量GMV1。第一局部运动估计单元290和第一全局运动估计单元330的操作与图1中示出的局部运动估计单元29和全局运动估计单元33的操作相似。因此,将省略其多余描述。第一全局运动矢量GMV1可被存储在第二缓冲器350中。
对于第二图像帧IF2’之中的每对连续帧,第二运动估计器275使用第三背景区域来计算连续的第二图像帧IF2’之间的一个第二全局运动矢量。第二运动估计器275包括第二局部运动估计单元295和第三缓冲器315。第二局部运动估计单元295使用第二图像帧IF2’之中的连续两帧的第三背景区域中的每一个来计算所述连续两帧之间的多个第二局部运动矢量MV2。第二局部运动矢量MV2可被存储在第三缓冲器315中。
可选择地,第二局部运动估计单元295可估计单个局部运动矢量。此时,所述单个局部运动矢量被视为全局运动矢量。第二运动估计器275还可包括第二全局运动估计单元335和第四缓冲器355。
对于第二图像帧IF2’之中的每对连续帧,第二全局运动估计单元335使用滤波器从多个第二局部运动矢量MV2估计一个第二全局运动矢量GMV2。第二全局运动矢量GMV2可被存储在第四缓冲器355中。
图11A和图11B是在抖动的情况下由图10中示出的多个全局运动估计单元350和355产生的多个GMV的分布曲线。图11A是第一全局运动矢量GMV1的大小的分布曲线,图11B是第二全局运动矢量GMV2的大小的分布曲线。
参照图10至图11B,比较器365根据第一全局运动矢量GMV1的大小和第二全局运动矢量GMV2的大小来选择第一全局运动矢量GMV1或第二全局运动矢量GMV2。
例如,比较器365可计算两个连续的第一全局运动矢量GMV1的大小之间的差以及两个连续的第二全局运动矢量GMV2的大小之间的差,并将所述差与大小阈值进行比较。比较器365根据比较结果来选择第一全局运动矢量GMV1或第二全局运动矢量GMV2。例如,如果第二全局运动矢量GMV2之中的第六和第七全局运动矢量的大小之间的差D1大于大小阈值Th1,则比较器365选择第一全局运动矢量GMV1。
参照图10,第一运动补偿器370使用选择的全局运动矢量来对第一图像帧IF1’的运动进行补偿。
第二运动补偿器390使用选择的全局运动矢量来对第二图像帧IF2’的运动进行补偿。运动补偿器370和390的操作与运动补偿器37和39的操作相似。因此,其详细描述将被省略。
图12是图10中示出的DIS电路200的操作的流程图。参照图10至图12,在步骤S110,DIS电路200从图像传感器110接收第一透视组的图像帧IF1’并从图像传感器130接收第二透视组的图像帧IF2’。
在步骤S120,深度图产生器210使用第一透视组中的图像帧IF1’中的每一帧和第二透视组中的图像帧IF2’中的每一帧来产生每幅深度图。深度图产生器210在深度图中设置第一背景区域中的每一个。在步骤S130,背景设置块251使用第一背景区域中的每一个来在每个图像帧IF1’中设置每个第二背景区域并在每个图像帧IF2’中设置每个第三背景区域。
在步骤S140,运动估计块271使用图像帧IF1’中的第二背景区域中的每一个来计算多个图像帧IF1’之间的多个第一全局运动矢量GMV1,并使用图像帧IF2’中的第三背景区域中的每一个来计算多个图像帧IF2’之间的多个第二全局运动矢量GMV2。比较器365计算第一全局运动矢量GMV1中的两个的大小之间的差以及第二全局运动矢量GMV2中的两个的大小之间的差,并将所述差与大小阈值进行比较。在步骤S150,比较器365根据比较结果选择第一全局运动矢量GMV1或第二全局运动矢量GMV2。在步骤S160,第一运动补偿器370使用已被选择的全局运动矢量来对图像帧IF1’的运动进行补偿,并且第二运动补偿器390使用已被选择的全局运动矢量来对图像帧IF2’的运动进行补偿。
图13是根据本发明构思的进一步的实施例的DIS系统1300的框图。参照图13,DIS系统1300是3D显示装置。DIS系统1300包括多个图像传感器1310和1320、DIS电路1330、编码器1340、存储器1350、解码器1360和3D显示器1370。
图像传感器1310和1320、DIS电路1330和编码器1340的操作与图1或图10中示出的图像传感器11和13或图像传感器110和130、DIS电路20或DIS电路200、以及编码器43或编码器430的操作相似。因此,将省略其详细描述。存储器1350可存储从编码器1340输出的多个3D显示帧。存储器1350可被配置为非永久性存储器(诸如闪存)。
解码器1360对已被编码的3D显示帧进行解码,以在3D显示器1370上显示3D显示图像。3D显示器1370显示解码的3D显示帧,从而向观看者提供3D图像。
如上所述,根据本发明构思的一些实施例,基于深度信息的背景区域被使用,使得容易且精确地从3D显示技术中使用的图像消除抖动。
尽管已参照本发明构思的示例性实施例具体显示并描述了本发明构思,但本领域普通技术人员将理解,在不脱离由权利要求限定的本发明构思的精神和范围的情况下,可在此做出形式和细节上的各种改变。

Claims (25)

1.一种稳定数字图像的方法,所述方法包括:
使用第一透视组中的每个图像帧和第二透视组中的每个图像帧来产生每幅深度图,并在每幅深度图中确定背景区域;
使用相应确定的背景区域来在第一透视组和第二透视组之中的一组中的每个图像帧中限定第二背景区域;
使用每个第二背景区域来计算所述一组中的图像帧之间的第一全局运动矢量。
2.如权利要求1所述的方法,还包括:根据图像分辨率来选择所述一组。
3.如权利要求1所述的方法,其中,在每幅深度图中确定背景区域的步骤包括:
将深度图的每个像素的深度值与深度阈值进行比较;
根据比较的结果来在每幅深度图中确定背景区域的像素。
4.如权利要求1所述的方法,其中,计算第一全局运动矢量的步骤包括:
在所述一组中的图像帧之中的连续两帧之间计算第二背景区域内的像素的局部运动矢量;
使用滤波器从所述连续两帧的局部运动矢量计算所述连续两帧的一个第一全局运动矢量。
5.如权利要求4所述的方法,其中,所述滤波器是高斯滤波器、中值滤波器或均值滤波器。
6.如权利要求4所述的方法,其中,计算所述连续两帧的局部运动矢量的步骤包括:基于块匹配来计算所述局部运动矢量。
7.如权利要求4所述的方法,其中,计算局部运动矢量的步骤包括:基于特征点对应来计算局部运动矢量。
8.如权利要求1所述的方法,还包括:将第一全局运动矢量输出到编码器。
9.如权利要求1所述的方法,还包括:使用第一全局运动矢量对第一透视组中的图像帧的运动以及第二透视组中的图像帧的运动进行补偿。
10.如权利要求1所述的方法,还包括:
使用相应确定的背景区域来在第一透视组和第二透视组之中的其他组中的每个图像帧中限定第三背景区域;
计算所述其他组中的连续两帧之间的第三背景区域内的像素的第二全局运动矢量。
11.如权利要求10所述的方法,还包括:根据第一全局运动矢量的大小改变和第二全局运动矢量的大小改变来选择第一全局运动矢量或第二全局运动矢量。
12.如权利要求11所述的方法,其中,选择第一全局运动矢量或第二全局运动矢量的步骤包括:
计算第一全局运动矢量之中的两个全局运动矢量的大小之间的差以及第二全局运动矢量之中的两个全局运动矢量的大小之间的差;
将计算的差与大小阈值进行比较;
根据比较结果选择第一全局运动矢量或第二全局运动矢量。
13.如权利要求11所述的方法,还包括:使用选择的全局运动矢量对第一透视组中的图像帧的运动和第二透视组中的图像帧的运动进行补偿。
14.一种数字图像稳定电路,包括:
深度图产生器,被配置为使用第一透视组中的每个图像帧和第二透视组中的每个图像帧来产生深度图,并在每幅深度图中确定背景区域;
选择器,被配置为根据图像分辨率来在第一透视组和第二透视组之间选择一组;
背景设置单元,被配置为使用确定的背景区域中的每一个来在选择的组中的每个图像帧中限定第二背景区域中的每一个;
运动估计器,被配置为使用第二背景区域中的每一个来计算选择的组中的图像帧之间的全局运动矢量。
15.如权利要求14所述的数字图像稳定电路,还包括:
第一运动补偿器,被配置为使用全局运动矢量来对第一透视组中的图像帧的运动进行补偿;
第二运动补偿器,被配置为使用全局运动矢量来对第二透视组中的图像帧的运动进行补偿。
16.如权利要求14所述的数字图像稳定电路,其中,运动估计器包括:
局部运动估计单元,被配置为在选择的组中的图像帧之中的连续两帧之间计算第二背景区域内的像素的局部运动矢量;
全局运动估计单元,被配置为使用滤波器从局部运动矢量计算一个全局运动矢量。
17.如权利要求14所述的数字图像稳定电路,其中,所述数字图像稳定电路是图像信号处理器。
18.一种数字图像稳定系统,包括:
图像传感器;
数字图像稳定电路,被配置为从图像传感器接收第一透视组的图像帧和第二透视组的图像帧,
其中,所述数字图像稳定电路包括:
深度图产生器,被配置为使用第一透视组中的图像帧之一以及第二透视组中的相应的一个图像帧来产生每幅深度图,并在每幅深度图中确定背景区域;
选择器,被配置为根据图像分辨率来在第一透视组和第二透视组之间选择一组;
背景设置单元,被配置为使用确定的背景区域中的每一个来在选择的组中的每个图像帧中限定第二背景区域;
运动估计器,被配置为基于第二背景区域中的像素来计算选择的组中的连续图像帧之间的全局运动矢量。
19.如权利要求18所述的数字图像稳定系统,还包括:运动补偿器,被配置为使用全局运动矢量分别对第一透视组中的图像帧的抖动运动以及第二透视组中的图像帧的抖动运动进行补偿。
20.如权利要求19所述的数字图像稳定系统,还包括:
三维(3D)格式器,被配置为将从运动补偿器输出的图像帧转换为3D格式,并输出3D显示帧;
编码器,被配置为使用从运动估计器输出的全局运动矢量来压缩3D显示帧。
21.如权利要求18所述的数字图像稳定系统,其中,所述数字图像稳定系统是3D显示装置。
22.一种数字图像稳定电路,包括:
深度图产生器,被配置为产生深度图,并被配置为在每幅深度图中确定背景区域,其中,使用第一透视图像帧中的一帧以及第二透视图像帧中的相应一帧来产生每幅深度图;
背景设置块,被配置为使用确定的背景区域中的每一个来在第一透视图像帧中的每一帧中限定背景区域,并使用确定的背景区域中的每一个来在第二透视图像帧中的每一帧中限定背景区域;
运动估计块,被配置为使用第一透视图像帧的限定的背景区域内的像素来计算第一透视图像帧之间的第一全局运动矢量,并使用第二透视图像帧的限定的背景区域内的像素来计算第二透视图像帧之间的第二全局运动矢量。
23.如权利要求22所述的数字图像稳定电路,还包括:
比较器,被配置为根据第一全局运动矢量之间的大小改变和第二全局运动矢量之间的大小改变来选择第一全局运动矢量或第二全局运动矢量;
运动补偿器,被配置为使用选择的全局运动矢量分别对第一透视图像帧的运动和第二透视图像帧的运动进行补偿。
24.如权利要求23所述的数字图像稳定电路,其中,所述数字图像稳定电路是图像信号处理器。
25.一种数字图像稳定系统,包括:
第一图像传感器;
第二图像传感器;
数字图像稳定电路,被配置为分别从第一图像传感器和第二图像传感器接收第一透视图像帧和第二透视图像帧,
其中,数字图像稳定电路包括:
深度图产生器,被配置为产生深度图,并被配置为在每幅深度图中确定背景区域,其中,使用第一透视图像帧中的一帧和第二透视图像帧中的相应一帧来产生每幅深度图;
背景设置块,被配置为使用每个第一透视图像帧的相应确定的背景区域来在每个第一透视图像帧中限定背景区域,并使用每个第二透视图像帧的相应确定的背景区域来在每个第二透视图像帧中限定背景区域;
运动估计块,被配置为计算第一透视图像帧的限定的背景区域中的像素之间的第一全局运动矢量,并计算第二透视图像帧的限定的背景区域中的像素之间的第二全局运动矢量。
CN201310179609.5A 2012-05-15 2013-05-15 用于稳定数字图像的方法、电路和系统 Active CN103428516B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120051698A KR101930235B1 (ko) 2012-05-15 2012-05-15 디지털 이미지 안정화 방법, 장치 및 시스템
KR10-2012-0051698 2012-05-15

Publications (2)

Publication Number Publication Date
CN103428516A true CN103428516A (zh) 2013-12-04
CN103428516B CN103428516B (zh) 2017-10-27

Family

ID=49580990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310179609.5A Active CN103428516B (zh) 2012-05-15 2013-05-15 用于稳定数字图像的方法、电路和系统

Country Status (3)

Country Link
US (1) US9661227B2 (zh)
KR (1) KR101930235B1 (zh)
CN (1) CN103428516B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105611116A (zh) * 2015-12-23 2016-05-25 苏州科达科技股份有限公司 一种全局运动矢量估计方法及监控视频稳像方法及装置
CN106060521A (zh) * 2016-06-21 2016-10-26 英华达(上海)科技有限公司 深度影像建构方法及系统
WO2017020807A1 (en) * 2015-07-31 2017-02-09 Versitech Limited Method and system for global motion estimation and compensation
CN107424187A (zh) * 2017-04-17 2017-12-01 深圳奥比中光科技有限公司 深度计算处理器、数据处理方法以及3d图像设备
CN109525774A (zh) * 2017-09-19 2019-03-26 三星电子株式会社 用于校正图像的电子装置及操作该电子装置的方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9538081B1 (en) * 2013-03-14 2017-01-03 Amazon Technologies, Inc. Depth-based image stabilization
US10136063B2 (en) 2013-07-12 2018-11-20 Hanwha Aerospace Co., Ltd Image stabilizing method and apparatus
KR102069269B1 (ko) * 2014-01-21 2020-01-22 한화테크윈 주식회사 영상 안정화 장치 및 방법
JP6321365B2 (ja) * 2013-12-13 2018-05-09 株式会社Soken 対応点探索方法および距離測定装置
US10356317B2 (en) * 2014-10-30 2019-07-16 Technion Research & Development Foundation Limited Wide-scale terrestrial light-field imaging of the sky
US10284794B1 (en) 2015-01-07 2019-05-07 Car360 Inc. Three-dimensional stabilized 360-degree composite image capture
US9998663B1 (en) 2015-01-07 2018-06-12 Car360 Inc. Surround image capture and processing
US10277888B2 (en) 2015-01-16 2019-04-30 Qualcomm Incorporated Depth triggered event feature
US10033926B2 (en) * 2015-11-06 2018-07-24 Google Llc Depth camera based image stabilization
US11240407B2 (en) * 2016-10-31 2022-02-01 Eizo Corporation Image processing device, image display device, and program
CN108259881A (zh) * 2018-01-30 2018-07-06 深圳市得色科技有限公司 基于视差估算的3d合成方法及其系统
KR102547085B1 (ko) * 2018-12-26 2023-06-23 엘지디스플레이 주식회사 영상 처리 방법 및 이를 이용한 표시 장치
US11748844B2 (en) 2020-01-08 2023-09-05 Carvana, LLC Systems and methods for generating a virtual display of an item
US11172139B2 (en) * 2020-03-12 2021-11-09 Gopro, Inc. Auto exposure metering for spherical panoramic content

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1395231A (zh) * 2001-07-04 2003-02-05 松下电器产业株式会社 图像信号编码方法、图像信号编码设备和存储媒体
TW200625203A (en) * 2005-01-03 2006-07-16 Quanta Comp Inc Apparatus and method for digital image stabilization
CN101375315A (zh) * 2006-01-27 2009-02-25 图象公司 数字重制2d和3d运动画面以呈现提高的视觉质量的方法和系统
US20090231449A1 (en) * 2008-03-11 2009-09-17 Zoran Corporation Image enhancement based on multiple frames and motion estimation
EP2261858A1 (en) * 2009-06-12 2010-12-15 Samsung Electronics Co., Ltd. Method and apparatus for determining presence of user's hand tremor or intentional motion
CN102208110A (zh) * 2010-03-31 2011-10-05 索尼公司 图像处理设备、图像处理方法和图像处理程序
US20110285826A1 (en) * 2010-05-20 2011-11-24 D Young & Co Llp 3d camera and imaging method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9217098D0 (en) * 1992-08-12 1992-09-23 British Broadcasting Corp Derivation of studio camera position and motion from the camera image
US6118475A (en) 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
KR100414629B1 (ko) 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
US6584219B1 (en) 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
US6611268B1 (en) * 2000-05-30 2003-08-26 Microsoft Corporation System and process for generating 3D video textures using video-based rendering techniques
KR100683849B1 (ko) * 2000-06-28 2007-02-15 삼성전자주식회사 디지털 영상 안정화기능을 갖는 디코더 및 디지털영상안정화방법
JP3971691B2 (ja) 2002-10-31 2007-09-05 日本電信電話株式会社 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体
KR100544677B1 (ko) 2003-12-26 2006-01-23 한국전자통신연구원 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법
JP2007074042A (ja) 2005-09-02 2007-03-22 Ricoh Co Ltd 動画像処理装置及び方法
IES20060564A2 (en) * 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
US8340185B2 (en) * 2006-06-27 2012-12-25 Marvell World Trade Ltd. Systems and methods for a motion compensated picture rate converter
KR100800653B1 (ko) 2006-12-01 2008-02-01 삼성전자주식회사 3차원 입체 영상을 압축하기 위한 장치 및 방법
TW200917824A (en) * 2007-10-12 2009-04-16 Univ Nat Taiwan Shockproof method for digital imaging
JP2011019202A (ja) 2009-07-10 2011-01-27 Sony Corp 映像信号処理装置および映像表示装置
JP2011166264A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP5444065B2 (ja) 2010-03-19 2014-03-19 富士フイルム株式会社 複眼撮像装置およびその制御方法
US9131155B1 (en) * 2010-04-07 2015-09-08 Qualcomm Technologies, Inc. Digital video stabilization for multi-view systems
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
KR101666019B1 (ko) * 2010-08-03 2016-10-14 삼성전자주식회사 외삽 뷰 생성을 위한 장치 및 방법
US9171372B2 (en) * 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
US8711248B2 (en) * 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
US9824426B2 (en) * 2011-08-01 2017-11-21 Microsoft Technology Licensing, Llc Reduced latency video stabilization

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1395231A (zh) * 2001-07-04 2003-02-05 松下电器产业株式会社 图像信号编码方法、图像信号编码设备和存储媒体
TW200625203A (en) * 2005-01-03 2006-07-16 Quanta Comp Inc Apparatus and method for digital image stabilization
CN101375315A (zh) * 2006-01-27 2009-02-25 图象公司 数字重制2d和3d运动画面以呈现提高的视觉质量的方法和系统
US20090231449A1 (en) * 2008-03-11 2009-09-17 Zoran Corporation Image enhancement based on multiple frames and motion estimation
EP2261858A1 (en) * 2009-06-12 2010-12-15 Samsung Electronics Co., Ltd. Method and apparatus for determining presence of user's hand tremor or intentional motion
CN102208110A (zh) * 2010-03-31 2011-10-05 索尼公司 图像处理设备、图像处理方法和图像处理程序
US20110285826A1 (en) * 2010-05-20 2011-11-24 D Young & Co Llp 3d camera and imaging method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108141606B (zh) * 2015-07-31 2022-03-01 港大科桥有限公司 用于全局运动估计和补偿的方法和系统
CN108141606A (zh) * 2015-07-31 2018-06-08 港大科桥有限公司 用于全局运动估计和补偿的方法和系统
WO2017020807A1 (en) * 2015-07-31 2017-02-09 Versitech Limited Method and system for global motion estimation and compensation
US10453207B2 (en) 2015-07-31 2019-10-22 Versitech Limited Method and system for global motion estimation and compensation
CN105611116A (zh) * 2015-12-23 2016-05-25 苏州科达科技股份有限公司 一种全局运动矢量估计方法及监控视频稳像方法及装置
CN105611116B (zh) * 2015-12-23 2018-10-19 苏州科达科技股份有限公司 一种全局运动矢量估计方法及监控视频稳像方法及装置
CN106060521B (zh) * 2016-06-21 2019-04-16 英华达(上海)科技有限公司 深度影像建构方法及系统
CN106060521A (zh) * 2016-06-21 2016-10-26 英华达(上海)科技有限公司 深度影像建构方法及系统
WO2018192084A1 (zh) * 2017-04-17 2018-10-25 深圳奥比中光科技有限公司 深度计算处理器、数据处理方法以及3d图像设备
US11049271B2 (en) 2017-04-17 2021-06-29 Orbbec Inc. Depth calculation processor, data processing method and 3D image device
CN107424187A (zh) * 2017-04-17 2017-12-01 深圳奥比中光科技有限公司 深度计算处理器、数据处理方法以及3d图像设备
US11741623B2 (en) 2017-04-17 2023-08-29 Orbbec Inc. Depth calculation processor, data processing method and 3D image device
CN107424187B (zh) * 2017-04-17 2023-10-24 奥比中光科技集团股份有限公司 深度计算处理器、数据处理方法以及3d图像设备
CN109525774A (zh) * 2017-09-19 2019-03-26 三星电子株式会社 用于校正图像的电子装置及操作该电子装置的方法
US11128803B2 (en) 2017-09-19 2021-09-21 Samsung Electronics Co., Ltd. Electronic device for correcting image and method for operating the same
CN109525774B (zh) * 2017-09-19 2022-04-15 三星电子株式会社 用于校正图像的电子装置及操作该电子装置的方法

Also Published As

Publication number Publication date
US9661227B2 (en) 2017-05-23
KR101930235B1 (ko) 2018-12-18
CN103428516B (zh) 2017-10-27
KR20130127869A (ko) 2013-11-25
US20130307937A1 (en) 2013-11-21

Similar Documents

Publication Publication Date Title
CN103428516A (zh) 用于稳定数字图像的方法、电路和系统
KR100720722B1 (ko) 중간영상 생성방법 및 이 방법이 적용되는 입체영상디스플레이장치
CN107409233B (zh) 图像处理装置和图像处理方法
US10904570B2 (en) Method for encoding/decoding synchronized multi-view video by using spatial layout information and apparatus of the same
JP4903240B2 (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
CN104219533B (zh) 一种双向运动估计方法和视频帧率上转换方法及系统
US8351685B2 (en) Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
CN1956554B (zh) 三维图像处理装置和方法
US9525858B2 (en) Depth or disparity map upscaling
EP2330812B1 (en) Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium
EP3267688A1 (en) Image processing device and image processing method
US20130070049A1 (en) System and method for converting two dimensional to three dimensional video
US9294673B2 (en) Image generation method, image display method, storage medium storing image generation program, image generation system, and image display device
CN103460242A (zh) 信息处理装置、信息处理方法、以及位置信息的数据结构
US20120169840A1 (en) Image Processing Device and Method, and Program
US20150264397A1 (en) Method and apparatus of disparity vector derivation and inter-view motion vector prediction for 3d video coding
US20130027523A1 (en) Methods and arrangements for 3d scene representation
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
US20170127039A1 (en) Ultrasonic proximity detection system
Sun et al. Novel temporal domain hole filling based on background modeling for view synthesis
KR101966920B1 (ko) 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
JP2015171097A (ja) 画像処理装置及びその制御方法
JP2017207818A (ja) 画像処理装置、画像処理方法、プログラム
EP3616399A1 (en) Apparatus and method for processing a depth map
US11653014B2 (en) Method and apparatus for encoding and decoding an omnidirectional video

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant