CN106257910A - 图像处理装置和图像处理方法 - Google Patents
图像处理装置和图像处理方法 Download PDFInfo
- Publication number
- CN106257910A CN106257910A CN201610157198.3A CN201610157198A CN106257910A CN 106257910 A CN106257910 A CN 106257910A CN 201610157198 A CN201610157198 A CN 201610157198A CN 106257910 A CN106257910 A CN 106257910A
- Authority
- CN
- China
- Prior art keywords
- characteristic point
- dispersion
- image
- acquisition unit
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 71
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims abstract description 161
- 239000006185 dispersion Substances 0.000 claims abstract description 94
- 238000000034 method Methods 0.000 claims abstract description 76
- 230000008569 process Effects 0.000 claims abstract description 67
- 238000012937 correction Methods 0.000 claims description 66
- 239000000203 mixture Substances 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000009499 grossing Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 206010044565 Tremor Diseases 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Adjustment Of Camera Lenses (AREA)
Abstract
提供一种图像处理装置和图像处理方法。图像处理装置(1)具备特征点群取得部(102)、分散度取得部(105)、基础矩阵取得部(106)和处理部(107)。特征点群取得部(102)取得由图像中的多个特征点构成的特征点群。分散度取得部(105)取得表示在所述图像中特征点散乱分布处于何种程度的分散度。基础矩阵取得部(106)基于构成所述特征点群取得部(102)取得的特征点群的特征点的坐标和所述分散度取得部(105)取得的分散度,取得表现所述图像与包含该图像的动态图像中的其他图像之间的对极几何关系的基础矩阵。处理部(107)基于所述基础矩阵取得部(106)所取得的基础矩阵,对所述动态图像实施图像处理。
Description
本申请主张以在2015年6月19日申请的日本专利申请第2015-123594号为基础申请的优先权,并将该基础申请的内容全部引入到本申请中。
技术领域
本发明涉及图像处理装置、图像处理方法。
背景技术
已知应用对极几何对动态图像实施手抖补正的技术。例如,“AmitGoldstein and.RaananFattal,″Video Stabilization using Epipolar Geometry″,ACM Transactions on Graphics(TOG),Volume 31,Issue 5,August 2012,Article No.126.”公开了基于表现动态图像所包含的帧(图像)间的对极几何关系的基础矩阵对动态图像实施手抖补正的技术。
但是,在“Amit Goldstein and.RaananFattal,″Video Stabilization usingEpipolar Geometry″,ACM Transactions on Graphics(TOG),Volume 31,Issue 5,August 2012,Article No.126.”的技术中,不能防止会取得进行了优化(局部优化)以表现帧的一部分的对极几何关系的基础矩阵。局部优化后的基础矩阵有可能是并未进行优化以表现帧整体的对极几何关系的精度差的基础矩阵。若基于精度差的基础矩阵来执行图像处理,例如手抖补正,则动态图像所包含的帧会失真变形,手抖补正后的动态图像出现模糊。
发明内容
本发明鉴于上述的课题而完成,其目的在于,提供一种基于精度良好的基础矩阵来执行图像处理的图像处理装置和图像处理方法。
一种图像处理装置,其特征在于,具备:特征点群取得单元,其取得由图像中的多个特征点构成的特征点群;分散度取得单元,其取得表示在所述图像中特征点散乱分布处于何种程度的分散度;基础矩阵取得单元,其基于构成由所述特征点群取得单元所取得的特征点群的特征点的坐标、和由所述分散度取得单元所取得的分散度,来取得表现所述图像与包含该图像的动态图像中的其他图像之间的对极几何关系的基础矩阵;以及处理单元,其基于所述基础矩阵取得单元所取得的基础矩阵,对所述动态图像实施图像处理。
附图说明
图1是表示本发明的第1实施方式所涉及的图像处理装置的构成例的框图。
图2是用于说明分散度的一例的图。
图3是用于说明虚拟特征点轨道的构建的图。
图4是用于说明手抖补正后的特征点轨道的构建的图。
图5是用于说明本发明的第1实施方式所涉及的图像处理装置所执行的手抖补正处理的流程图。
图6是用于说明本发明的第1实施方式所涉及的图像处理装置所执行的基础矩阵取得处理的流程图。
图7是表示本发明的第2实施方式所涉及的图像处理装置的构成例的框图。
图8是用于说明本发明的第2实施方式所涉及的图像处理装置所执行的基础矩阵取得处理的流程图。
图9是用于说明分散度的另一例的图。
图10是用于说明分散度的又一例的图。
具体实施方式
(第1实施方式)
以下,参照附图说明本发明的实施方式所涉及的图像处理装置的功能以及动作。
在本实施方式中,作为图像处理的一例,图像处理装置1通过对目标动态图像实施手抖补正,来生成补正后动态图像。目标动态图像(手抖补正对象的动态图像)以及补正后动态图像(手抖补正后的动态图像)包含时间上连续拍摄到的多个帧(图像)。
如图1所示,图像处理装置1具备:控制部10、RAM(Random AccessMemory,随机存取存储器)20、ROM(Read Only Memroy,只读存储器)30、输入部40、显示部50、外部接口60。
控制部10具备CPU(Central Processing Unit,中央处理器),执行存储在ROM30中的各种程序。具体来说,控制部10通过执行存储在ROM30中的控制程序,来对图像处理装置1整体进行控制。此外,控制部10通过执行存储在ROM30中的图像处理程序,从而如图1所示,作为特征点提取部101、特征点群取得部102、临时基础矩阵取得部103、距离取得部104、分散度取得部105、基础矩阵取得部106、以及处理部107而发挥作用。
特征点提取部101构建特征点轨道P。特征点轨道P是遍历目标动态图像的多个帧的特征点p的轨迹,表示拍摄了目标动态图像的拍摄装置受到了手抖的影响的运动。以下,将第s帧所包含的特征点标记为特征点ps。在不需要确定是哪帧所包含的特征点的情况下,简单标记为特征点p。
具体来说,特征点提取部101使用任意的公知技术(例如KLT法、Harris/Plessey法、Hessian法),从目标动态图像的帧中提取特征点p(取得特征点p的坐标)。然后,特征点提取部101通过使用任意的公知技术(例如利用了块匹配、浓度梯度的算法)在时间上追踪所提取到的特征点p,来构建特征点轨道P。
特征点群取得部102取得多个特征点群,该特征点群由帧中的多个特征点p构成。
具体来说,特征点群取得部102通过对彼此不同的2个帧(以下,为了说明,使用第s帧和第t帧作为彼此不同的2个帧的例子来进行说明)中的作为同一特征点轨道P的构成点的特征点ps、pt进行组合,来取得1个特征点对。特征点群取得部102通过在依次选择不同的特征点轨道P的同时重复该处理,从而取得多个特征点对。然后,通过选择所取得的多个特征点对之中的8对,并对构成这些特征点对的特征点ps、pt之中包含在同一帧(在本实施方式中是第t帧)中的8个特征点pt进行组合,从而取得1个特征点群。特征点群取得部102通过将该处理反复进行规定次数(本实施方式中是500次),从而取得规定数目(本实施方式中是500个)的特征点群。
临时基础矩阵取得部103针对由特征点群取得部102取得的多个特征点群,基于构成各特征点群的特征点pt的坐标,取得与各特征点群对应的临时基础矩阵F’。
临时基础矩阵F’表现2个帧(第s帧和第t帧)之间的对极几何关系,满足下述的式(1)。在式(1)中,ms是第s帧所包含的任意的点,mt是第t帧所包含的与ms对应的点。如式(1)所示,临时基础矩阵F’具有f1~f8这8个要素。临时基础矩阵取得部103通过将1个特征点群所包含的8个特征点pt与和这些特征点pt分别一起构成特征点对的特征点ps的坐标作为对应点的坐标代入式(1)来取得要素f1~f8,从而取得与该特征点群对应的临时基础矩阵F’。以下,将表现第s帧与第t帧之间的对极几何关系的临时基础矩阵F’表记为F’s,t。
【式1】
这里,
距离取得部104基于临时基础矩阵取得部103所取得的临时基础矩阵F’,取得特征点pt所投影的对极线与该特征点pt所对应的特征点ps之间的距离。
第t帧所包含的任意的点mt=(xt,yt,1)投影到第s帧的对极线可以使用表现2个帧之间的对极几何关系的临时基础矩阵F’s,t,通过下述的式(2)来表示。在式(2)中,f1~f8是由式(1)所示的临时基础矩阵F’s,t的要素。由式(2)表示的对极线与第s帧中的任意的点ms=(xs,ys,1)之间的距离dist可以通过下述的式(3)来表示。式(3)中,a~c是由式(2)所示的对极线的系数。临时基础矩阵F’越是准确地表现了某点与其对应点之间的对极几何关系,则该点所投影的对极线与该点的对应点之间的距离就越小。
【式2】
ax+by+c=0…(2)
这里,
a=f1·xt+f4·yt+f7
b=f2·xt+f5·yt+f8
c=f3·xt+f6·yt+1
【式3】
分散度取得部105取得分散度。分散度表示特征点p在帧中散乱分布处于何种程度。
在本实施方式中,分散度取得部105取得与临时基础矩阵取得部103所取得的各个临时基础矩阵F’分别对应的分散度。与某临时基础矩阵F’对应的分散度表示帧中所包含的多个特征点p之中由距离取得部104基于该临时基础矩阵F’而取得的距离为阈值以下的特征点p在该帧中的分散度。
如上所述,临时基础矩阵F’越是准确地表现了某点与其对应点之间的对极几何关系,则由距离取得部104基于该临时基础矩阵F’而取得的、该点所投影的对极线与该点的对应点之间的距离就越小。即,由距离取得部104基于某临时基础矩阵F’而取得的距离为阈值以下的特征点p,是该临时基础矩阵F’将对极几何关系准确地表现至一定等级以上的特征点p。与某临时基础矩阵F’对应的分散度表示由该临时基础矩阵F’准确地表现了与对应点之间的对极几何关系的特征点p在帧中散乱分布处于何种程度。
具体来说,分散度取得部105以距离取得部104所取得的距离为阈值(本实施方式中是0.1像素)以下的所有特征点p为基准来生成虚拟区域。如图2所示,在本实施方式中,生成以各特征点p为中心的规定半径R(在本实施方式中R=32像素)的圆作为虚拟区域。分散度取得部105取得所生成的所有虚拟区域的面积的无重复的总计值作为这些特征点p的分散度(即与临时基础矩阵F’对应的分散度)。另外,虚拟区域的面积的无重复的总计值,是以将多个虚拟区域重合的区域的面积仅计入一次的方式对虚拟区域的面积进行合计而得到的值。另外,虚拟区域不限于圆,可以是任意的形状。此外,在本实施方式中,虚拟区域的中心与特征点p(或虚拟特征点v)相一致,但这不过是一例。虚拟区域的位置与特征点p(或者虚拟特征点v)的位置之间的对应关系能够任意地设定。
基础矩阵取得部106基于构成由特征点群取得部102所取得的特征点群的特征点p的坐标、和由分散度取得部105所取得的分散度,来取得基础矩阵F。基础矩阵F表现2个帧之间的对极几何关系。
在本实施方式中,基础矩阵取得部106将临时基础矩阵取得部103所取得的多个临时基础矩阵F’之中的分散度取得部105所取得的分散度最大的临时基础矩阵F’获取为基础矩阵F。某临时基础矩阵F’所对应的分散度越大,则由该临时基础矩阵F’准确地表现了与对应点之间的对极几何关系的特征点p在帧中散乱分布得越广。即,由该临时基础矩阵F’准确地表现了对极几何关系的帧中的范围越广。基础矩阵取得部106通过取得分散度最大的临时基础矩阵F’,从而将遍及帧内的最广的范围得到了优化(精度最好)的临时基础矩阵F’获取为基础矩阵F。
处理部107基于基础矩阵取得部106所取得的基础矩阵F,对目标动态图像实施图像处理。在本实施方式中,如图1所示,处理部107具备特征点生成部107a、平滑化部107b、以及图像处理部107c,通过基于基础矩阵取得部106所取得的基础矩阵F对目标动态图像实施手抖补正,从而生成补正后动态图像。
具体来说,处理部107通过执行下述的(A)~(D)的处理,从而对目标动态图像实施基于基础矩阵F的手抖补正。
(A)基于基础矩阵F来构建虚拟特征点轨道V。
(B)通过将虚拟特征点轨道V平滑化,来构建手抖补正后的虚拟特征点轨道V’。
(C)基于特征点轨道P和基础矩阵F”,来构建手抖补正后的特征点轨道P’。
(D)基于特征点轨道P和手抖补正后的特征点轨道P’来执行图像处理,生成补正后动态图像。
以下,说明各处理的详细情况。
(A)的处理由特征点生成部107a来执行。如图3所示,特征点生成部107a基于基础矩阵Ft,t-1~Ft,t-10,取得在目标动态图像的帧(第t帧)中目标动态图像的在该帧之前最近拍摄到的10帧(第(t-1)帧~第(t-10)帧)所包含的虚拟特征点vt-1~vt-10分别投影的对极线,并取得这些对极线的交点的坐标的平均值作为虚拟特征点vt的坐标(生成虚拟特征点vt)。特征点生成部107a通过取得虚拟特征点vt作为第t帧中的构成点,来构建虚拟特征点轨道V。
虚拟特征点轨道V是遍历目标动态图像的多个帧的虚拟特征点v的轨迹,表示拍摄了目标动态图像的拍摄装置受到了手抖的影响的运动。相对于与虚拟特征点轨道V同样表示拍摄装置受到了手抖的影响的运动的特征点轨道P由从帧中提取到的特征点p构成,虚拟特征点轨道V由理论上计算出的虚拟特征点v构成。因此,即使在特征点p隐藏在物体的背后或者离开帧的情况、发生跟踪误差的情况等下,不能从帧中提取特征点p而导致特征点轨道P中断的状况下,虚拟特征点轨道V也不会中断。即,虚拟特征点轨道V在比特征点轨道P更长的范围内连续。因此,通过由虚拟特征点轨道V来定义拍摄装置受到了手抖的影响的运动,从而在后述的(C)的处理中,能够使用比由特征点轨道P定义的情况更大规模的滤波器来进行平滑化,能够取得更平滑的手抖补正后的拍摄装置的运动。
(B)的处理由平滑化部107b来执行。平滑化部107b通过使用任意的公知技术(例如使用了高斯核函数、拉普拉斯核函数的平滑化)对由(A)的处理所构建的虚拟特征点轨道V在时间上进行平滑化,从而构建手抖补正后的虚拟特征点轨道V’。手抖补正后的虚拟特征点轨道V’是遍历补正后动态图像的多个帧的手抖补正后的虚拟特征点v’的轨迹,表示去除了手抖的影响的拍摄了目标动态图像的拍摄装置的运动。在本实施方式中,平滑化部107b利用σ=50的高斯核函数对虚拟特征点轨道V进行平滑化。
在(B)的处理执行后,基础矩阵取得部106基于由(A)的处理所构建的虚拟特征点轨道V和由(B)的处理所构建的手抖补正后的虚拟特征点轨道V’,来取得表现目标动态图像中的帧与补正后动态图像中的帧之间的对极几何关系的基础矩阵F”。即,基于虚拟特征点轨道V和手抖补正后的虚拟特征点轨道V’,来定义手抖补正前后的帧的关系。
(C)的处理由特征点生成部107a来执行。如图4所示,特征点生成部107a基于基础矩阵F”s,s-5~F”s,s+5来取得在补正后动态图像的帧(第s帧)中目标动态图像的在该帧的前后最近拍摄到的5帧(第(s-5)帧~第(s+5)帧)所包含的特征点ps-5~ps+5分别投影的对极线,并取得这些对极线的交点的坐标的平均值作为手抖补正后的特征点p’s的坐标。特征点生成部107a通过取得手抖补正后的特征点p’s作为第s帧中的构成点,来构建手抖补正后的特征点轨道P’。
(D)的处理由图像处理部107c来执行。图像处理部107c通过使用任意的公知技术(例如赫尔默特变换、仿射变换、射影变换)对目标动态图像的各帧所包含的所有像素实施将特征点轨道P的该帧中的构成点即特征点p转变为作为手抖补正后的特征点轨道P’的构成点的、与该特征点p对应的手抖补正后的特征点p’的图像处理,从而对各帧实施手抖补正。
返回图1,RAM20临时存储数据、程序。RAM20在控制部10执行各种程序时,作为工作存储器而发挥作用。
ROM30固定地存储数据、程序。具体来说,在本实施方式中,ROM30预先存储从外部装置取得的目标动态图像(手抖补正对象的动态图像)。此外,ROM30存储了包含控制程序、图像处理程序在内的各种程序。
输入部40按照用户的操作来受理输入。输入部40将所受理的输入提供给控制部10。
显示部50具备显示器(例如LCD(Liquid Crystal Display,液晶显示器)),显示从控制部10提供的图像。例如,显示部50显示从控制部10提供的目标动态图像、补正后动态图像。
外部接口60在与外部装置之间交换数据。例如,外部接口60从外部装置取得目标动态图像。此外,外部接口60将补正后动态图像输出给外部装置。
以下,参照图5的流程图来说明具有上述构成的图像处理装置1所执行的手抖补正处理。
图像处理装置1的ROM30预先从外部取得并存储成为手抖补正的对象的目标动态图像。
请求手抖补正处理的执行的用户通过操作输入部40,来选择作为图像处理装置1所具备的多个动作模式之一的“手抖补正模式”。控制部10响应于选择了“手抖补正模式”的情况,从ROM30中取得图像处理程序,并在RAM20中展开。此外,控制部10从ROM30中取得目标动态图像,并在RAM20中展开。
用户通过操作输入部40来指示手抖补正处理的开始。控制部10响应于指示了手抖补正处理的开始的情况,开始图5的流程图所示的手抖补正处理。
若开始手抖补正处理,则首先,特征点提取部101通过遍历目标动态图像的所有帧在时间上对特征点p进行追踪,从而构建规定数目(在本实施方式中是100条)的特征点轨道P(步骤S101)。
接着,控制部10将目标动态图像的开始帧指定为第t帧(步骤S102)。目标动态图像的开始帧是目标动态图像所包含的多个帧之中拍摄时刻最早的帧。接着,控制部10将目标动态图像的第(t-10)帧指定为第A帧(步骤S103)。第(t-10)帧是比第t帧靠前10帧的帧。
特征点群取得部102~基础矩阵取得部106通过执行基础矩阵取得处理,从而取得基础矩阵Ft,A(表现目标动态图像的第t帧与第A帧之间的对极几何关系的基础矩阵)(步骤S104)。以下,参照图6的流程图来说明步骤S104的基础矩阵取得处理的详细内容。
若开始步骤S104的基础矩阵取得处理,则首先,特征点群取得部102反复进行将同一特征点轨道P的第t帧以及第A帧各自中的特征点pt、pA组合起来取得1个特征点对的处理,从而取得多个特征点对(步骤S201)。
特征点群取得部102反复进行如下处理来取得规定数目(在本实施方式中为500个)的特征点群:随机选择由步骤S201所取得的多个特征点对之中的8对,仅对构成这些特征点对的第t帧中的特征点pt进行组合,由此来取得1个特征点群(步骤S202)。
临时基础矩阵取得部103取得与在步骤S202中取得的500个特征点群分别对应的临时基础矩阵F’t,A(步骤S203)。
分散度取得部105选择在步骤S203中取得的500个临时基础矩阵F’t,A之中的任意一个(步骤S204)。以下,通过执行步骤S205~步骤S211的处理,来取得与在步骤S204中选择出的临时基础矩阵F’t,A对应的分散度。
距离取得部104选择目标动态图像的第t帧所包含的多个特征点pt之中的任意一个(步骤S205)。
距离取得部104基于步骤S204中选择出的临时基础矩阵F’t,A,来取得步骤S205中选择出的特征点pt投影到目标动态图像的第A帧的对极线(步骤S206)。
距离取得部104取得在步骤S205中选择出的特征点pt所对应的第A帧中的特征点pA与在步骤S206中取得的对极线之间的距离(步骤S207)。
分散度取得部105判断在步骤S207中取得的距离是否为规定阈值(在本实施方式中是0.1像素)以下(步骤S208)。若判断为距离大于0.1像素(步骤S208:否),则处理转移到步骤S210。
如判断为距离为0.1像素以下(步骤S208:是),则分散度取得部105生成以在步骤S205中选择出的特征点pt为中心的规定半径R(在本实施方式中R=32像素)的圆作为虚拟区域(步骤S209)。另外,在步骤S209中,也可以生成不以在步骤S205中选择出的特征点pt为中心而是以与该特征点pt对应的特征点pA为中心的规定半径R的圆作为虚拟区域。
分散度取得部105判断是否已经选择完目标动态图像的第t帧所包含的所有特征点pt(步骤S210)。若判断为还有未被选择的特征点pt(步骤S210:否),则处理返回到步骤S205,选择未选择的特征点pt之中的任意一个。分散度取得部105通过反复步骤S205~步骤S210的处理,直到判断为已经选择完所有的特征点pt为止,从而以目标动态图像的第t帧中的特征点pt之中的、由在步骤S204中选择出的临时基础矩阵F’t,A将与对应点之间的对极几何关系准确地表现至一定等级以上的所有特征点pt为中心来生成虚拟区域。
若判断为已经选择完所有的特征点pt(步骤S210:是),则分散度取得部105取得通过将所生成的所有的虚拟区域的面积无重复地相加而得到的总计值,作为与在步骤S204中选择出的临时基础矩阵F’t,A对应的分散度(步骤S211)。
分散度取得部105判断是否已经全部选择完在步骤S203中取得的500个临时基础矩阵F’t,A(步骤S212)。若判断为还有未选择的临时基础矩阵F’t,A(步骤S212:否),则处理返回到步骤S204,选择未选择的临时基础矩阵F’t,A之中的任意一个。分散度取得部105通过反复进行步骤S204~步骤S212的处理,直到判断为已经选择完所有的临时基础矩阵F't,A为止,从而取得在步骤S203中取得的全部F't,A所对应的分散度。
若判断为已经选择完所有的临时基础矩阵F’t,A(步骤S212:是),则基础矩阵取得部106取得分散度最大的临时基础矩阵Ft,A’,作为基础矩阵Ft,A(步骤S213),结束基础矩阵取得处理。
返回到图5的流程图,在步骤S104的基础矩阵取得处理结束后,控制部10使值A递增1(步骤S105)。即,控制部10将作为步骤S104的基础矩阵取得处理的对象的第A帧变更为下一拍摄时刻较新的帧。例如,在之前刚刚执行的基础矩阵取得处理中将目标动态图像的第(t-10)帧指定为第A帧的情况下,控制部10将第(t-10)帧的下一拍摄时刻较新的帧即第(t-9)帧重新指定为第A帧。
控制部10判断递增后的值A与值t是否一致(步骤S106)。即,控制部10判断第A帧与第t帧是否一致。若判断为不一致(步骤S106:否),则处理返回到步骤S104。控制部10通过反复进行步骤S104~步骤S106的处理,直到值A与值t一致,从而取得表现目标动态图像的第t帧与第t帧之前最近的10帧(第(t-10)帧~第(t-1)帧)之间的对极几何关系的基础矩阵Ft,t-10~Ft,t-1。
若判断为值A与值t一致(步骤S106:是),则控制部10使值t递增1(步骤S107)。控制部10判断递增后的第t帧与目标动态图像的结束帧是否一致(步骤S108)。目标动态图像的结束帧是目标动态图像所包含的多个帧之中的拍摄时刻最新的帧。若判断为不一致(步骤S108:否),则处理返回到步骤S103。控制部10通过反复进行步骤S103~步骤S108的处理,直到判断为第t帧与结束帧一致为止,从而针对目标动态图像的所有帧,取得表现与之前最近的10帧各帧之间的对极几何关系的基础矩阵F。
若判断为第t帧与结束帧一致(步骤S108:是),则特征点生成部107a基于基础矩阵F,来构建虚拟特征点轨道V(步骤S109)。平滑化部107b通过对在步骤S109中构建的虚拟特征点轨道V进行平滑化,从而构建手抖补正后的特征点轨道V’(步骤S110)。
接着,控制部10将补正后动态图像的开始帧指定为第s帧(步骤S111)。控制部10将目标动态图像的第(s-5)帧指定为第B帧(步骤S112)。
特征点群取得部102~基础矩阵取得部106通过执行基础矩阵取得处理,来取得基础矩阵F”s,B(表现补正后动态图像的第s帧与目标动态图像的第B帧之间的对极几何关系的基础矩阵)(步骤S113)。
步骤S113的基础矩阵取得处理是与上述步骤S104的基础矩阵取得处理相同的处理,故省略其详细说明。另外,在步骤S113的基础矩阵取得处理中,在图6的流程图的步骤S201中,取得由彼此对应的虚拟特征点vB和手抖补正后的虚拟特征点v’s构成的特征点对。具体来说,特征点群取得部102通过将虚拟特征点vB与手抖补正后的虚拟特征点v’s进行组合来取得特征点对,其中虚拟特征点vB是虚拟特征点轨道V的构成点,手抖补正后的虚拟特征点v’s是通过将该虚拟特征点轨道V平滑化而构建的手抖补正后的虚拟特征点轨道V’的构成点。
返回到图5的流程图,在步骤S113的基础矩阵取得处理结束后,控制部10使值B递增1(步骤S114)。控制部10判断递增后的值B与值(s+6)是否一致(步骤S115)。若判断为不一致(步骤S115:否),则处理返回到步骤S113。控制部10反复进行步骤S113~步骤S115的处理,直到判断为值B与值(s+6)一致为止,从而取得表现补正后动态图像的第s帧与目标动态图像的第(s-5)帧~第(s+5)帧各帧之间的对极几何关系的基础矩阵F”s,s-5~F”s,s+5。
若判断为值B与值(s+6)一致(步骤S115:是),则控制部10使值s递增1(步骤S116)。控制部10判断递增后的第s帧与补正后动态图像的结束帧是否一致(步骤S117)。若判断为不一致(步骤S117:否),则处理返回到步骤S112。控制部10通过反复进行步骤S112~步骤S117的处理,直到判断为第s帧与结束帧一致为止,从而针对补正动态图像的所有帧,取得表现与目标动态图像的前后5帧各帧之间的对极几何关系的基础矩阵F”。
若判断为第s帧与结束帧一致(步骤S117:是),则特征点生成部107a基于在步骤S101中构建的特征点轨道P和基础矩阵F”,来构建手抖补正后的特征点轨道P’。(步骤S118)。
图像处理部107c针对目标动态图像的各帧,基于特征点轨道P和手抖补正后的特征点轨道P’来实施手抖补正(步骤S119),结束手抖补正处理。
如以上所说明的那样,本实施方式所涉及的图像处理装置1通过取得分散度最大的临时基础矩阵作为基础矩阵,从而取得精度最好的临时基础矩阵作为基础矩阵。图像处理装置1基于该基础矩阵对动态图像实施手抖补正。即,图像处理装置1能够基于精度良好的基础矩阵来执行手抖补正。
(第2实施方式)
第1实施方式所涉及的图像处理装置1基于与临时基础矩阵对应的分散度来取得了精度良好的基础矩阵。但是,这仅是一例,本发明所涉及的图像处理装置也能够基于与特征点p相关的其他分散度,来取得精度良好的基础矩阵。以下,说明基于构成特征点群的特征点p的分散度来取得精度良好的基础矩阵的图像处理装置1’的功能以及动作。
如图7所示,图像处理装置1’具备与图像处理装置1大致相同的构成。但是,图像处理装置1’与图像处理装置1不同,不具备临时基础矩阵取得部103以及距离取得部104。此外,图像处理装置1’的分散度取得部105以及基础矩阵取得部106的功能与图像处理装置1的分散度取得部105以及基础矩阵所得部106的功能不同。
具体来说,图像处理装置1’的分散度取得部105取得与由特征点群取得部102所取得的各特征点群对应的分散度。与特征点群对应的分散度表示构成特征点群的特征点p在帧中散乱分布处于何种程度。
基础矩阵取得部106基于构成由特征点群取得部102所取得的多个特征点群之中的分散度最大的特征点群的特征点p的坐标,来取得表现2个帧(第s帧以及第t帧)之间的对极几何关系的基础矩阵F。具体来说,基础矩阵取得部106通过将分散度最大的特征点群所包含的8个特征点pt与同这些特征点pt一起构成特征点对的特征点ps的坐标代入到式(1),从而取得基础矩阵F。
基础矩阵F准确地表现为了取得该基础矩阵F而使用了坐标的8对彼此对应的特征点ps、pt的对极几何关系。因此,在基础矩阵F的取得中使用了坐标的特征点pt在帧(第t帧)中散乱分布得越广,则由该基础矩阵F准确地表现了与对应点之间的对极几何关系的特征点pt在第t帧中散乱分布得越广,由该基础矩阵F准确地表现了对极几何关系的第t帧中的范围就越广。基础矩阵取得部106通过基于构成分散度最大的特征点群的特征点p的坐标来取得基础矩阵F,从而遍及帧内的最广的范围得到了优化的(精度最好)基础矩阵F。
以下,详细说明具有上述构成的图像处理装置1’所执行的手抖补正处理。图像处理装置1’执行与图5的流程图所示的手抖补正处理大致相同的手抖补正处理。但是,图像处理装置1’在步骤S104以及步骤S113中,取代图6的流程图所示的基础矩阵取得处理而执行图8的流程图所示的基础矩阵取得处理。以下,说明图8的流程图所示的基础矩阵取得处理。
若开始图8的流程图的基础矩阵取得处理,则首先,特征点群取得部102反复进行如下处理来取得多个特征点对:将图5的流程图的步骤S101中构建的特征点轨道P之中的同一特征点轨道P的第t帧以及第A帧中的构成点即彼此对应的特征点pt、pA进行组合,来取得1个特征点对(步骤S301)。
特征点群取得部102反复进行如下处理来取得规定数目(本实施方式中为500个)的特征点群:随机选择由步骤S301所取得的多个特征点对之中的8对,将构成这些特征点对的第t帧中的特征点pt进行组合,由此来取得1个特征点群(步骤S302)。
分散度取得部105选择在步骤S302中取得的500个特征点群之中的任意一个(步骤S303)。
分散度取得部105生成以构成在步骤S303中选择出的特征点群的各特征点pt为中心的规定半径R的圆,作为虚拟区域(步骤S304)。
分散度取得部105取得通过将所生成的所有虚拟区域的面积无重复地相加而得到的总计值,作为与在步骤S303中选择出的特征点群对应的分散度(步骤S305)。
分散度取得部105判断是否已经选择完所有的特征点群(步骤S306)。若判断为存在未选择的特征点群(步骤S306:否),则处理返回到步骤S303,选择未选择的特征点群之中的任意一个。
若判断为已经选择完所有的特征点群(步骤S306:是),则基础矩阵取得部106基于构成分散度最大的特征点群的特征点p的坐标,来取得基础矩阵F(步骤S307),结束基础矩阵取得处理。
如以上所说明的那样,本实施方式涉及的图像处理装置1’基于与特征点群对应的分散度,来取得精度良好的基础矩阵。图像处理装置1’基于所取得的基础矩阵,对目标动态图像实施手抖补正。即,图像处理装置1’能够基于精度良好的基础矩阵,来执行手抖补正。
图像处理装置1’与第1实施方式所涉及的图像处理装置1不同,不进行临时基础矩阵的计算、对极线的取得、距离的取得。因此,与图像处理装置1相比,能够以较小的处理负荷,执行使用了精度良好的基础矩阵的手抖补正。
在上述的实施方式中,图像处理装置1预先从外部装置取得目标动态图像,并进行存储。但是,这仅是一例,图像处理装置1可以自己生成目标动态图像。在该情况下,图像处理装置1具备拍摄部。拍摄部通过拍摄被摄体来生成目标动态图像。
在上述的实施方式中,取得了将以多个特征点p为基准而生成的虚拟区域的面积无重复地相加而得到的总计值,作为这些特征点p的分散度。但是,这仅是一例,也可以取得其他值作为特征点p的分散度。
例如,也可以取得多个特征点p的坐标的值的方差或标准偏差作为这些特征点p的分散度。根据该方式,由于不必进行生成虚拟区域并将所生成的虚拟区域的面积无重复地相加的处理,因此与上述的实施方式相比,运算负荷得到减轻。
此外,也可以取得多个特征点p之间的距离的平均值或中间值作为这些特征点p的分散度。根据该方式,由于不必进行生成虚拟区域并将所生成的虚拟区域的面积无重复地相加的处理,因此与上述的实施方式相比,运算负荷得到减轻。
此外,如图9所示,也可以取得由将多个特征点p彼此连结的直线(连结线)构成、且含括(包摂)这些特征点p的闭合曲线的长度或该闭合曲线所围的区域的面积,作为这些特征点p的分散度。根据该方式,由于不必进行生成虚拟区域并将所生成的虚拟区域的面积无重复地相加的处理,因此与上述的实施方式相比,运算负荷得到减轻。另外,由连结线构成且含括特征点p的闭合曲线的形状使用任意的公知技术取得即可。例如,在非专利文献2(大内隆志,阿部正英,川又政征,“使用了Delaunay三角形分割的构成不连续的轮廓线的点的连结”,平成12年度电气关系学会东北支部联合大会演讲论文集,2000年,8月,p.159)中,公开了使用德洛内三角形分割来取得由将多个点彼此连结的直线构成且含括这些点的闭合曲线的形状的技术。
此外,如图10所示,也可以将帧分割成多个区域(划区),取得包含特征点p的划区的数目作为这些特征点p的分散度。根据该方式,由于不必进行生成虚拟区域并将所生成的虚拟区域的面积无重复地相加的处理,因此与上述的实施方式相比,运算负荷得到减轻。
本发明所涉及的图像处理装置能够通过智能手机、计算机、数字照相机、PDA(Personal Digital Assistance,个人数字助理)等任意的电子设备来予以实现。
具体来说,能够将用于使智能手机、计算机、数字照相机、PDA等电子设备作为本发明涉及的图像处理装置而进行动作的程序保存分布于这些电子设备能读取的记录介质(例如,存储卡、CD-ROM(Compact DiscRead-Only Memory)、DVD-ROM(Digital Versatile Disc Read-OnlyMemory)等)中,通过安装来实现本发明所涉及的图像处理装置。
或者,也可以将上述程序预先保存在互联网等的通信网络上的服务器装置所具有的存储装置(例如硬盘装置等)中,通过智能手机、计算机、数字照相机、PDA等下载该程序来实现本发明所涉及的图像处理装置。
此外,在通过操作系统(OS:Operating System)和应用程序的协作或者分担来实现本发明所涉及的图像处理装置的功能的情况下,也可以仅将应用程序部分保存在记录介质、存储装置中。
此外,也可以将应用程序叠加于载波,经由通信网络来配送。例如,可以将应用程序公告于通信网络上的公告板(BBS:Bulletin BoardSystem),经由网络来配送应用程序。然后,通过在计算机中安装该应用程序并启动,在OS的控制下,与其他应用程序同样地执行,从而实现本发明所涉及的图像处理装置。
以上,说明了本发明的优选实施方式,但本发明并不限定为该特定的实施方式,在本发明中包含权利要求书所记载的发明及其等同的范围。
Claims (10)
1.一种图像处理装置,其特征在于,具备:
特征点群取得单元,其取得由图像中的多个特征点构成的特征点群;
分散度取得单元,其取得表示在所述图像中特征点散乱分布处于何种程度的分散度;
基础矩阵取得单元,其基于构成由所述特征点群取得单元所取得的特征点群的特征点的坐标、和由所述分散度取得单元所取得的分散度,来取得表现所述图像与包含该图像的动态图像中的其他图像之间的对极几何关系的基础矩阵;以及
处理单元,其基于由所述基础矩阵取得单元所取得的基础矩阵,对所述动态图像实施图像处理。
2.根据权利要求1所述的图像处理装置,其特征在于,
还具备:临时基础矩阵取得单元,其基于构成由所述特征点群取得单元所取得的特征点群的特征点的坐标,来取得表现所述图像与所述其他图像之间的对极几何关系的临时基础矩阵;以及
距离取得单元,其基于由所述临时基础矩阵取得单元所取得的临时基础矩阵,来取得所述图像中包含的特征点投影到所述其他图像的对极线与该特征点所对应的所述其他图像中的特征点之间的距离,
所述分散度取得单元,
取得表示所述图像中包含的多个特征点之中的、由所述距离取得单元基于所述临时基础矩阵而取得的距离为阈值内的特征点在所述图像中的分散度的与临时基础矩阵对应的分散度,
所述基础矩阵取得单元,
取得由所述临时基础矩阵取得单元所取得的多个临时基础矩阵之中的、由所述分散度取得单元所取得的与临时基础矩阵对应的分散度最大的临时基础矩阵,作为所述基础矩阵。
3.根据权利要求1所述的图像处理装置,其特征在于,
所述分散度取得单元,
取得表示构成由所述特征点群取得单元所取得的特征点群的特征点在所述图像中的分散度的与特征点群对应的分散度,
所述基础矩阵取得单元,
基于构成由所述特征点群取得单元所取得的多个特征点群之中的、由所述分散度取得单元所取得的与特征点群对应的分散度最大的特征点群的特征点的坐标,来取得所述基础矩阵。
4.根据权利要求1~3中任一项所述的图像处理装置,其特征在于,
所述分散度取得单元,
基于以特征点为基准而生成的虚拟区域的面积,来取得所述分散度。
5.根据权利要求1~3中任一项所述的图像处理装置,其特征在于,
所述分散度取得单元,
基于特征点的坐标的值的方差或标准偏差,来取得所述分散度。
6.根据权利要求1~3中任一项所述的图像处理装置,其特征在于,
所述分散度取得单元,
基于特征点之间的距离的平均值或中间值,来取得所述分散度。
7.根据权利要求1~3中任一项所述的图像处理装置,其特征在于,
所述分散度取得单元,
基于由将多个特征点彼此连结的直线构成、且含括该多个特征点的闭合曲线的形状,来取得所述分散度。
8.根据权利要求1~3中任一项所述的图像处理装置,其特征在于,
所述分散度取得单元,
基于在将所述图像分割成多个区域时包含特征点的区域的数目,来取得所述分散度。
9.根据权利要求1~3中任一项所述的图像处理装置,其特征在于,
所述图像处理是手抖补正处理。
10.一种图像处理方法,其特征在于,包括:
特征点群取得步骤,取得由图像中的多个特征点构成的特征点群;
分散度取得步骤,取得表示在所述图像中特征点散乱分布处于何种程度的分散度;
基础矩阵取得步骤,其基于构成在所述特征点群取得步骤中取得的特征点群的特征点的坐标、和在所述分散度取得步骤中取得的分散度,来取得表现所述图像与包含该图像的动态图像中所包含的其他图像之间的对极几何关系的基础矩阵;以及
处理步骤,基于在所述基础矩阵取得步骤中取得的基础矩阵,对所述动态图像实施图像处理。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-123594 | 2015-06-19 | ||
JP2015123594A JP6511980B2 (ja) | 2015-06-19 | 2015-06-19 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106257910A true CN106257910A (zh) | 2016-12-28 |
CN106257910B CN106257910B (zh) | 2020-01-07 |
Family
ID=57587074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610157198.3A Active CN106257910B (zh) | 2015-06-19 | 2016-03-18 | 图像处理装置、图像处理方法和记录介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10140688B2 (zh) |
JP (1) | JP6511980B2 (zh) |
CN (1) | CN106257910B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108108700A (zh) * | 2017-12-27 | 2018-06-01 | 江苏大学 | 一种基于弦轴变换的猪的特征区域识别方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6536169B2 (ja) * | 2015-05-21 | 2019-07-03 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
US11386636B2 (en) | 2019-04-04 | 2022-07-12 | Datalogic Usa, Inc. | Image preprocessing for optical character recognition |
US11113793B2 (en) * | 2019-11-20 | 2021-09-07 | Pacific future technology (Shenzhen) Co., Ltd | Method and apparatus for smoothing a motion trajectory in a video |
WO2022185462A1 (ja) * | 2021-03-03 | 2022-09-09 | 日本電気株式会社 | 基本行列生成装置、制御方法、及びコンピュータ可読媒体 |
US20240153233A1 (en) * | 2021-03-09 | 2024-05-09 | Nec Corporation | Fundamental matrix generation apparatus, control method, and computer-readable medium |
CN113222113B (zh) * | 2021-04-19 | 2023-10-31 | 西北大学 | 一种基于反缩放卷积层的信号生成方法及装置 |
CN113686264B (zh) * | 2021-08-02 | 2022-08-02 | 中国科学院长春光学精密机械与物理研究所 | 一种基于极线几何的三维测量方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050219295A1 (en) * | 2004-03-31 | 2005-10-06 | Yoshirou Yamazaki | Image processing method and apparatus, and image forming apparatus |
CN104396231A (zh) * | 2012-06-20 | 2015-03-04 | 奥林巴斯株式会社 | 图像处理装置和图像处理方法 |
CN104471612A (zh) * | 2012-06-27 | 2015-03-25 | 奥林巴斯株式会社 | 图像处理装置以及图像处理方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7352386B1 (en) * | 1999-06-22 | 2008-04-01 | Microsoft Corporation | Method and apparatus for recovering a three-dimensional scene from two-dimensional images |
KR100526817B1 (ko) * | 2003-04-22 | 2005-11-08 | 학교법인 중앙대학교 | 스테레오 영상 구현 시 기본행렬을 구하는 방법 |
JP2009237878A (ja) * | 2008-03-27 | 2009-10-15 | Dainippon Printing Co Ltd | 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム |
US8355601B2 (en) * | 2010-01-15 | 2013-01-15 | Seiko Epson Corporation | Real-time geometry aware projection and fast re-calibration |
FR2955409B1 (fr) * | 2010-01-18 | 2015-07-03 | Fittingbox | Procede d'integration d'un objet virtuel dans des photographies ou video en temps reel |
WO2012044218A1 (en) * | 2010-10-01 | 2012-04-05 | Saab Ab | A method and an apparatus for image-based navigation |
WO2012062813A2 (en) * | 2010-11-09 | 2012-05-18 | The Provost, Fellows, And Scholars Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth, Near Dublin | Method and system for recovery of 3d scene structure and camera motion from a video sequence |
WO2015089115A1 (en) * | 2013-12-09 | 2015-06-18 | Nant Holdings Ip, Llc | Feature density object classification, systems and methods |
CN105303189B (zh) * | 2014-07-29 | 2019-08-20 | 阿里巴巴集团控股有限公司 | 一种用于检测预定区域中特定标识图像的方法及装置 |
-
2015
- 2015-06-19 JP JP2015123594A patent/JP6511980B2/ja active Active
-
2016
- 2016-03-09 US US15/065,603 patent/US10140688B2/en active Active
- 2016-03-18 CN CN201610157198.3A patent/CN106257910B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050219295A1 (en) * | 2004-03-31 | 2005-10-06 | Yoshirou Yamazaki | Image processing method and apparatus, and image forming apparatus |
CN104396231A (zh) * | 2012-06-20 | 2015-03-04 | 奥林巴斯株式会社 | 图像处理装置和图像处理方法 |
CN104471612A (zh) * | 2012-06-27 | 2015-03-25 | 奥林巴斯株式会社 | 图像处理装置以及图像处理方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108108700A (zh) * | 2017-12-27 | 2018-06-01 | 江苏大学 | 一种基于弦轴变换的猪的特征区域识别方法 |
CN108108700B (zh) * | 2017-12-27 | 2020-02-21 | 江苏大学 | 一种基于弦轴变换的猪的特征区域识别方法 |
Also Published As
Publication number | Publication date |
---|---|
US10140688B2 (en) | 2018-11-27 |
CN106257910B (zh) | 2020-01-07 |
US20160371817A1 (en) | 2016-12-22 |
JP6511980B2 (ja) | 2019-05-15 |
JP2017011431A (ja) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106257910A (zh) | 图像处理装置和图像处理方法 | |
CN109064428B (zh) | 一种图像去噪处理方法、终端设备及计算机可读存储介质 | |
CN110533609A (zh) | 适用于内窥镜的图像增强方法、装置和存储介质 | |
JP2020509506A (ja) | カメラ姿勢情報の決定方法、装置、デバイス及び記憶媒体 | |
CN111340077B (zh) | 基于注意力机制的视差图获取方法和装置 | |
JP7112595B2 (ja) | 画像処理方法及びその装置、コンピュータ機器並びにコンピュータプログラム | |
CN107644423B (zh) | 基于场景分割的视频数据实时处理方法、装置及计算设备 | |
CN110298306B (zh) | 目标对象运动信息的确定方法、装置及设备 | |
CN105229703A (zh) | 用于使用感测的位置数据来生成三维模型的系统和方法 | |
CN109035334A (zh) | 位姿的确定方法和装置、存储介质及电子装置 | |
CN109905590A (zh) | 一种视频图像处理方法及装置 | |
CN109842811B (zh) | 一种在视频中植入推送信息的方法、装置及电子设备 | |
CN107590811B (zh) | 基于场景分割的风景图像处理方法、装置及计算设备 | |
CN111357034A (zh) | 点云生成方法、系统和计算机存储介质 | |
CN111833285B (zh) | 图像处理方法、图像处理装置及终端设备 | |
CN113256529A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
WO2022267402A1 (zh) | 图像处理方法、装置、设备以及存储介质 | |
CN115527090A (zh) | 模型训练方法、装置、服务器及存储介质 | |
WO2024093763A1 (zh) | 全景图像处理方法、装置、计算机设备、介质和程序产品 | |
US9672423B2 (en) | Object tracking apparatus and method thereof | |
CN109919190A (zh) | 直线段匹配方法、装置、存储介质及终端 | |
CN104407838A (zh) | 一种生成随机数及随机数组的方法和设备 | |
CN116186760A (zh) | 一种保护数据隐私的多方联合进行数据处理的方法及装置 | |
CN114120436A (zh) | 动作识别模型的训练方法、动作识别方法及相关装置 | |
CN111126975A (zh) | 电子红包的处理方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |