CN111311615A - 基于ToF的场景分割方法及系统、存储介质及电子设备 - Google Patents
基于ToF的场景分割方法及系统、存储介质及电子设备 Download PDFInfo
- Publication number
- CN111311615A CN111311615A CN202010086923.9A CN202010086923A CN111311615A CN 111311615 A CN111311615 A CN 111311615A CN 202010086923 A CN202010086923 A CN 202010086923A CN 111311615 A CN111311615 A CN 111311615A
- Authority
- CN
- China
- Prior art keywords
- rgb
- information
- image
- frame
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000008054 signal transmission Effects 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 10
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于ToF的场景分割方法及系统、存储介质及电子设备,该方法包括步骤:获得利用RGB摄像头采得到的RGB图像以及利用ToF摄像头采集得到的相位图像;基于采集得到的所述相位图像计算得到视场中场景的深度信息;根据相同时间的帧深度信息与帧RGB信息,计算场景的空间信息及其对应的RGB信息,生成RGB‑D图像帧;基于所述RGB‑D图像帧提取关键帧;基于提取到的所述关键帧,结合已分割的深度信息图像的轮廓信息,进行拍摄场景中物体的分割。本发明不仅能提高场景分割的准确性,还可以降低算法的复杂度,降低硬件成本以及提高分割效率。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于ToF的场景分割方法及系统、存储介质及电子设备。
背景技术
随着电子技术的迅速发展,基于图像的计算机应用需求急速增多,如目标检测、场景识别、语义分割等等,而要保障此类应用的效果,必须有优质的图像场景分割技术作为基础。图像场景分割就是将场景中不同的物体进行分割,先判断物体的轮廓,然后获取的将是物体整体所覆盖的像素。由于场景的复杂性,为了保证图像分割的准确性,不得不在算法上提升复杂度,利用时空复杂度换取精度。而智能摄像头,车载摄像头和安防摄像头,其后端的计算硬件资源有限,无法承载较大时空复杂度的算法运行,而且长时间高功率运行也将严重影响设备稳定性和使用寿命,无形中增加了使用成本。
深圳腾视科技有限公司提出了一种基于计算机视觉的前景物体检测解决方法(CN108805878 A),包含以下步骤:A、获得近红外摄像图像;B、初始化算法;C、每新到的一帧都进行算法处理;D、处理结束后反馈回上级进行其他处理。该技术虽然一定程度上增加了计算效率,但是由于是基于现有的硬件设备做的改良,所以没有从根本上改善计算时空复杂度。
广东欧珀移动通信有限公司提出了一种场景分割方法、终端及存储介质(CN108492301 A),该场景分割的方法,包括:获取场景测试集中的样本图像;基于样本图像的像素点进行特征构造,得到用于表征像素点间相关性的空间相关度特征;基于空间相关度特征,生成场景分割模型,场景分割模型用于对输入模型的图像进行场景分割处理;采用场景分割模型对目标分割图像进行场景分割处理。该技术能够提升场景分割的准确性,但是增加了系统的复杂度,进而增加了硬件的计算压力。
发明内容
为了改善现有技术中存在的上述技术缺陷,本发明提供了一种基于ToF的场景分割方法及系统,不仅提高场景分割的准确度,而且还降低了算法的复杂度,提升系统的计算效率和实时性。
为实现上述目的,本发明提供了以下技术方案:
第一方面,本发明实施例提供了一种基于ToF的场景分割方法,包括如下步骤:
获得利用RGB摄像头采得到的RGB图像以及利用ToF摄像头采集得到的相位图像;
基于采集得到的所述相位图像,计算得到视场中场景的深度信息;
根据相同时间的帧深度信息与帧RGB信息,计算场景的空间信息以及其对应的RGB信息,生成RGB-D图像帧;
基于所述RGB-D图像帧提取关键帧;
基于提取到的所述关键帧,结合已分割的深度信息图像的轮廓信息,进行拍摄场景中物体的分割。
在第一方面的第一可实施方案中,上述方法还包括步骤:根据前一步获得的轮廓信息,结合同帧的深度信息和RGB信息,进行分割场景的RGB信息和深度信息的融合。
在第一方面的第二可实施方案中,所述根据相同时间的帧深度信息与帧RGB信息,计算场景的空间信息以及对应的RGB信息,生成RGB-D图像帧的步骤中,若找不到与相位图像相同时间的RGB图像帧,则通过计算该RGB图像帧前一个周期和后一个周期的相位图像序列,按其时间权重来对齐。
在第一方面的第三可实施方案中,所述基于所述RGB-D图像帧提取关键帧的步骤,包括:判断相邻两个所述RGB-D图像帧之间的变化幅度,如果变化幅度超过设定的阈值,则判定后一个RGB-D图像帧为关键帧。
在第一方面的第四可实施方案中,所述基于采集得到的所述相位图像,计算得到视场中场景的深度信息的步骤,基于连续调制波使用多个采样计算窗口测量,每个计算窗口相位延时90°,利用如下公式得到深度d:
I=Q1-Q2,Q=Q3-Q4,
第二方面,本发明实施例还提供了一种基于ToF的场景分割系统,包括:
图像采集模块,用于控制RGB摄像头和ToF摄像头同步进行图像采集,得到RGB图像和相位图像;
相位计算模块,用于基于采集得到的所述相位图像,计算得到视场中场景的深度信息;
空间对齐模块,用于将相同时间的帧深度信息与对应时间的帧的RGB信息对齐,计算场景的空间信息及其对应的RGB信息,生成RGB-D图像帧;
关键帧提取模块,用于基于所述RGB-D图像帧提取关键帧;
物体轮廓提取模块,用于基于提取到的所述关键帧,结合已分割的深度信息图像的轮廓信息,进行拍摄场景中物体的分割。
在第二方面的第一可实施方案中,上述系统还包括:信息融合模块:根据物体轮廓提取模块提取到的轮廓信息,结合同帧的深度信息和RGB信息,进行分割场景的RGB信息和深度信息的融合。
在第二方面的第二可实施方案中,所述空间对齐模块在处理过程中,若找不到与相位图像相同时间的RGB图像帧,则通过计算该RGB图像帧前一个周期和后一个周期的相位图像序列,按其时间权重来对齐。
第三方面,本发明实施例提供了一种电子设备,包括:
RGB摄像头和ToF摄像头;
存储器,用于存储程序指令;
处理器,用于与所述存储器相连接,执行存储器中的程序指令,实现本发明实施例任一实施方式所述方法中的步骤。
第四方面,本发明实施例提供了一种包括计算机可读指令的计算机可读存储介质,所述计算机可读指令在被执行时使处理器执行本发明实施例任一实施方式所述方法中的操作。
与现有技术相比,本发明一方面,利用ToF传感器(摄像头/相机)获取场景的相位图像,通过成像算法得到场景中物体的深度信息,进而获得准确的物体轮廓,因此实现了前后景的准确分离。另一方面,使用基于ToF的方法,相较于传统的双目及结构光算法,能更直接的获取准确的深度信息,有利于降低整个系统的运算量。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1本发明中电子设备的结构简化图。
图2本发明中基于ToF的场景分割方法的流程图。
图3为实施例中时间权重的示意图。
图4为实施例中基于ToF的场景分割系统的结构框图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,本实施例中提供了一种基于ToF(Time of Flight,飞行时间)的场景分割设备,该设备包括摄像模组、Memory(存储器)、CPU,也可以还包括一些其他传感设备,组成设备的各个模块之间通过总线连接,以进行数据交互。
其中,摄像模组包括RGB摄像头(相机)和ToF摄像头。RGB摄像头用于采集得到真实世界场景的RGB图像,RGB摄像头可以是两个单目RGB相机或者一个双目RGB相机,ToF摄像头用于采集得到对应的相位图像。
图1所示简化框图所示设备可以为单独的设备,也可以是多功能设备的一部分,该多功能设备诸如移动电话、平板计算机、个人数字助理、便携式音乐/视频播放器、可穿戴设备或包括图像处理设备的其他电子设备。另外,在一些实施方式中,上述设备可以是经由网络连接到其他网络设备,例如其他移动设备、平板设备、台式设备以及包括服务器等的网络存储设备。
其中,其他传感设备包括但不限于接近传感器、加速计、陀螺仪等,CPU可以是片上系统(SoC),注入在移动设备中的片上系统,并且包括一个或多个专用图像处理单元(GPU),单CPU不限于单处理器,也可包括相同类型或不同类型的多个处理器。
在一些实施方式中,本发明上述设备包括的Memory包括一种或多种类型的存储器,用于结合处理器(CPU)执行设备功能。Memory类型包括高速缓存、ROM或RAM。Memory在执行期间存储各种编程模块以供处理器执行其中的程序,例如本实施例中,Memory在执行期间存储基于ToF的场景分割系统中的各个组成模块。请参阅图4,基于ToF的场景分割系统包含但不限于图像采集模块、相位计算模块、空间对齐模块、深度计算模块、关键帧提取模块、物体轮廓提取模块和信息融合模块。
其中,图像采集模块:通过Memory存储的ToF相位及频率信息,设置ToF摄像头,然后控制摄像模组同步拍摄得到RGB图像和相位图像,包括RGB的视场(field of view,FOV)内的RGB图像和相对应的相位灰度图像的帧。本实施例中,摄像模组多次拍摄视场(FOV)内的真实世界场景的多个帧的颜色和相位灰度信息,得到图像集。
其中,相位计算模块:通过摄像模组拍摄得到的相位图像集,并根据物体分割后的区域对场景中的物体的深度信息进行提取,以此作为场景中各物体的深度信息。
空间对齐模块:将相同时间的帧深度信息与对应时间的帧的RGB信息对齐,计算场景的空间信息及其对应的RGB信息。此处,若找不到与相位图像相同时间的RGB图像帧,则通过计算该RGB帧前后两个周期的相位图像序列,按其时间权重对齐。
关键帧提取模块:关键帧是用于计算场景中物体空间关系的关键RGB-D信息,是上一步RGB-D视频帧序列的子集,每个关键帧都包含对齐的RGB颜色信息和已知时间的相机姿态相关联的空间物体的轮廓及深度信息等。基于空间对齐模块得到的RGB-D信息,判断前后帧的变化幅度,如果超过阈值,则认定后帧为关键帧,从而实现从RGB-D信息中提取出关键帧。
物体轮廓提取模块:对RGB信息与深度信息对齐后的关键帧,结合已分割的深度信息图像的轮廓信息,进行拍摄场景中物体的分割。
信息融合模块:根据物体轮廓提取模块提取到的轮廓信息,结合同帧的深度信息和RGB信息,进行分割场景的RGB信息和深度信息的融合,便于后续的开发应用。
请参阅图2,基于图1所示设备所实现的场景分割方法,包括以下步骤:
S10,利用RGB摄像头采得到RGB图像,利用ToF摄像头采集得到相位图像。需要提醒注意的是,本步骤中,两种摄像头在采集真实世界场景的图像时是同时采集的,且按照各自的频率多次采集,以分别得到图像集。也就是说,本步骤采集的是图像集,而不是只采集一张图像。
S20,基于采集得到的相位图像,计算视场中场景的深度信息,以此作为场景中各物体的深度信息。
深度即一个图像中的某一像素,是该像素所对应物体的距离值,深度简单可理解为摄像机离物体的距离。深度图则可理解为整个场景中物体的距离信息映射到像素上。场景的深度信息即为场景中所有物体的深度信息。
ToF摄像头的工作原理是,通过主动发射调制过的光源到目标面上,然后观察计算反射回来的对应光,发射和反射光之间的相位差通过运算和转换得到距离/景深。为了检测发射与反射光之间相位差,光源波形是脉冲或者连续调制波。连续调制波使用多个采样计算窗口测量,每个计算窗口相位延时90°(0°,180°,90°,270°)共4个,也称4-quad。使用该4相步方法,发射和反射光的相位差和测量距离d有如下公式:
I=Q1-Q2,Q=Q3-Q4,
c为光传播速度,f为光信号发射频率。
S30,根据相同时间的帧深度信息与帧RGB信息,计算场景的空间信息以及对应的RGB信息。
本发明所涉及的空间信息即ToF相机的传感器像素对应的空间场景的深度信息,空间信息范围是指在摄像机坐标系中,RGB相机和ToF相机的有效像素共同覆盖的空间场景。本步骤是将深度信息与RGB信息进行一个对齐操作。把ToF相机和RGB相机做对齐后,ToF相机像素的深度信息都对应着一个RGB相机的RGB信息。
需要说明的是,虽然两种摄像头同时开始采图像,但是由于TOF摄像头的频率较快,会导致有的相位图像帧和RGB图像帧在时间上不是完全对齐的,因此,在本步骤中,若找不到与相位图像相同时间的RGB图像帧时,则可以通过计算该RGB图像帧前后两个周期(帧前一个周期,帧后一个周期)的相位图像序列,按其时间权重来对齐,如图3所示。
此处的时间权重可理解为中间帧i离前后帧a和b的距离,假设Tb-a=1,Tb-i=0.6,则b帧的时间权重为0.4,a帧的时间权重为0.6。
对场景在RGB摄像头上的每一个像素点,遍历计算带时间权重的空间信息,完成与中间的RGB图像对齐,实现RGB-D信息(RGB-D即为空间信息+对应的RGB信息,空间信息为深度值Depth,所以简称RGB-D)生成。
S40,基于上一步对齐后的RGB-D图像帧提取关键帧。
关键帧是用于计算场景中物体空间关系的关键RGB-D信息,是上一步RGB-D视频帧序列的子集,每个关键帧都包含时间对齐的RGB颜色信息和已知时间的相机姿态相关联的空间物体的轮廓及深度信息等(这些信息科由ToF摄像头采集相位图像时直接获得)。判断是否为关键帧主要是判断前后帧的变化幅度,如果超过阈值,则认为前后两帧场景中的物体有较大变化,继而认定后帧为关键帧。S50,对RGB信息与深度信息对齐后的关键帧,结合已分割的深度信息图像的轮廓信息,进行拍摄场景中物体的分割。也就是根据深度差异进行计算,比较某一像素与上、下、左、右、左上、右上、左下、右下8个像素的深度值差异情况,若与某一像素有较大差异,则认为是不同物体,则对齐进行剔除,其余相似深度的像素继续以此方式扩散比较,直至连续区间结束,进而可获得物体的轮廓像素以及其覆盖的像素。对各部分轮廓所包含的RGB-D的像素信息,可认为是分割后的整个物体。
S60,根据前一步获得的轮廓信息,结合同帧的深度信息和RGB信息,进行分割场景的RGB信息和深度信息的融合,便于后续的开发应用。因为前序已经得到了对齐的RGB图像和深度图像,现在对深度图像按照物体轮廓进行了分割,简单说,就是对之前的深度图像进行了处理,这一步的融合,也就是将某一物体的RGB信息提取出来,形成单个物体的RGB-D信息。
本发明方法或设备,一方面,利用ToF传感器(摄像头/相机)获取场景的相位图像,通过成像算法得到场景中物体的深度信息,进而获得准确的物体轮廓,因此实现了前后景的准确分离。另一方面,使用基于ToF的方法,相较于传统的双目及结构光算法,能更直接的获取准确的深度信息,有利于降低整个系统的运算量。
本发明实施例还提供一种计算机可读指令,其中当在电子设备中执行所述指令时,所述程序使得电子设备执行本发明方法所包含的操作步骤。
本发明实施例还提供一种存储有计算机可读指令的存储介质,其中所述计算机可读指令使得电子设备执行本发明方法所包含的操作步骤。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于ToF的场景分割方法,其特征在于,包括如下步骤:
获得利用RGB摄像头采得到的RGB图像以及利用ToF摄像头采集得到的相位图像;
基于采集得到的所述相位图像,计算得到视场中场景的深度信息;
根据相同时间的帧深度信息与帧RGB信息,计算场景的空间信息以及其对应的RGB信息,生成RGB-D图像帧;
基于所述RGB-D图像帧提取关键帧;
基于提取到的所述关键帧,结合已分割的深度信息图像的轮廓信息,进行拍摄场景中物体的分割。
2.如权利要求1所述的方法,其特征在于,还包括步骤:根据前一步获得的轮廓信息,结合同帧的深度信息和RGB信息,进行分割场景的RGB信息和深度信息的融合。
3.如权利要求1所述的方法,其特征在于,所述根据相同时间的帧深度信息与帧RGB信息,计算场景的空间信息以及对应的RGB信息,生成RGB-D图像帧的步骤中,若找不到与相位图像相同时间的RGB图像帧,则通过计算该RGB图像帧前一个周期和后一个周期的相位图像序列,按其时间权重来对齐。
4.如权利要求1所述的方法,其特征在于,所述基于所述RGB-D图像帧提取关键帧的步骤,包括:判断相邻两个所述RGB-D图像帧之间的变化幅度,如果变化幅度超过设定的阈值,则判定后一个RGB-D图像帧为关键帧。
6.一种基于ToF的场景分割系统,其特征在于,包括:
图像采集模块,用于控制RGB摄像头和ToF摄像头同步进行图像采集,得到RGB图像和相位图像;
相位计算模块,用于基于采集得到的所述相位图像,计算得到视场中场景的深度信息;
空间对齐模块,用于将相同时间的帧深度信息与对应时间的帧的RGB信息对齐,计算场景的空间信息及其对应的RGB信息,生成RGB-D图像帧;
关键帧提取模块,用于基于所述RGB-D图像帧提取关键帧;
物体轮廓提取模块,用于基于提取到的所述关键帧,结合已分割的深度信息图像的轮廓信息,进行拍摄场景中物体的分割。
7.根据权利要求6所述的基于ToF的场景分割系统,其特征在于,还包括:信息融合模块:根据物体轮廓提取模块提取到的轮廓信息,结合同帧的深度信息和RGB信息,进行分割场景的RGB信息和深度信息的融合。
8.根据权利要求6所述的基于ToF的场景分割系统,其特征在于,所述空间对齐模块在处理过程中,若找不到与相位图像相同时间的RGB图像帧,则通过计算该RGB图像帧前一个周期和后一个周期的相位图像序列,按其时间权重来对齐。
9.一种电子设备,其特征在于,包括:
RGB摄像头和ToF摄像头;
存储器,用于存储程序指令;
处理器,用于与所述存储器相连接,执行存储器中的程序指令,实现权利要求1-5任一所述方法中的步骤。
10.一种包括计算机可读指令的计算机可读存储介质,其特征在于,所述计算机可读指令在被执行时使处理器执行权利要求1-5任一所述方法中的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010086923.9A CN111311615A (zh) | 2020-02-11 | 2020-02-11 | 基于ToF的场景分割方法及系统、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010086923.9A CN111311615A (zh) | 2020-02-11 | 2020-02-11 | 基于ToF的场景分割方法及系统、存储介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111311615A true CN111311615A (zh) | 2020-06-19 |
Family
ID=71148332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010086923.9A Pending CN111311615A (zh) | 2020-02-11 | 2020-02-11 | 基于ToF的场景分割方法及系统、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111311615A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298778A (zh) * | 2021-05-21 | 2021-08-24 | 奥比中光科技集团股份有限公司 | 一种基于飞行时间的深度计算方法、系统及存储介质 |
US12062186B2 (en) * | 2020-10-07 | 2024-08-13 | Sri International | RGBD video semantic segmentation with temporal and geometric consistency |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014172484A1 (en) * | 2013-04-16 | 2014-10-23 | DotProduct LLC | Handheld portable optical scanner and method of using |
WO2015188684A1 (zh) * | 2014-06-12 | 2015-12-17 | 深圳奥比中光科技有限公司 | 三维模型重建方法与系统 |
US20170272651A1 (en) * | 2016-03-16 | 2017-09-21 | Analog Devices, Inc. | Reducing power consumption for time-of-flight depth imaging |
CN109658449A (zh) * | 2018-12-03 | 2019-04-19 | 华中科技大学 | 一种基于rgb-d图像的室内场景三维重建方法 |
-
2020
- 2020-02-11 CN CN202010086923.9A patent/CN111311615A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014172484A1 (en) * | 2013-04-16 | 2014-10-23 | DotProduct LLC | Handheld portable optical scanner and method of using |
WO2015188684A1 (zh) * | 2014-06-12 | 2015-12-17 | 深圳奥比中光科技有限公司 | 三维模型重建方法与系统 |
US20170272651A1 (en) * | 2016-03-16 | 2017-09-21 | Analog Devices, Inc. | Reducing power consumption for time-of-flight depth imaging |
CN109658449A (zh) * | 2018-12-03 | 2019-04-19 | 华中科技大学 | 一种基于rgb-d图像的室内场景三维重建方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12062186B2 (en) * | 2020-10-07 | 2024-08-13 | Sri International | RGBD video semantic segmentation with temporal and geometric consistency |
CN113298778A (zh) * | 2021-05-21 | 2021-08-24 | 奥比中光科技集团股份有限公司 | 一种基于飞行时间的深度计算方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200167554A1 (en) | Gesture Recognition Method, Apparatus, And Device | |
EP3757890A1 (en) | Method and device for image processing, method and device for training object detection model | |
CN109711304B (zh) | 一种人脸特征点定位方法及装置 | |
CN110248048B (zh) | 一种视频抖动的检测方法及装置 | |
CN110298281B (zh) | 视频结构化方法、装置、电子设备及存储介质 | |
CN113286194A (zh) | 视频处理方法、装置、电子设备及可读存储介质 | |
JP7337091B2 (ja) | 飛行時間カメラの低減された出力動作 | |
US9639943B1 (en) | Scanning of a handheld object for 3-dimensional reconstruction | |
CN108230384B (zh) | 图像深度计算方法、装置、存储介质和电子设备 | |
WO2023160312A1 (zh) | 基于自监督学习的行人重识别方法、装置、设备及存储介质 | |
CN112036339B (zh) | 人脸检测的方法、装置和电子设备 | |
CN109086724A (zh) | 一种加速的人脸检测方法及存储介质 | |
CN106412441B (zh) | 一种视频防抖控制方法以及终端 | |
CN109327626A (zh) | 图像采集方法、装置、电子设备和计算机可读存储介质 | |
CN112270745B (zh) | 一种图像生成方法、装置、设备以及存储介质 | |
Chen et al. | A wavelet based deep learning method for underwater image super resolution reconstruction | |
CN112561879B (zh) | 模糊度评价模型训练方法、图像模糊度评价方法及装置 | |
CN105809664B (zh) | 生成三维图像的方法和装置 | |
CN112991218B (zh) | 图像处理的方法、装置、设备以及存储介质 | |
CN109886195B (zh) | 基于深度相机近红外单色灰度图的皮肤识别方法 | |
CN111914753A (zh) | 基于深度学习的低功耗智能枪瞄图像处理系统及处理方法 | |
CN108460794B (zh) | 一种双目立体红外显著目标检测方法及系统 | |
CN111311615A (zh) | 基于ToF的场景分割方法及系统、存储介质及电子设备 | |
CN116309781A (zh) | 一种基于跨模态融合的水下视觉目标测距方法及装置 | |
CN115375581A (zh) | 基于事件时空同步的动态视觉事件流降噪效果评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200619 |
|
RJ01 | Rejection of invention patent application after publication |