CN110232707B - 一种测距方法及装置 - Google Patents
一种测距方法及装置 Download PDFInfo
- Publication number
- CN110232707B CN110232707B CN201810179367.2A CN201810179367A CN110232707B CN 110232707 B CN110232707 B CN 110232707B CN 201810179367 A CN201810179367 A CN 201810179367A CN 110232707 B CN110232707 B CN 110232707B
- Authority
- CN
- China
- Prior art keywords
- image
- point
- scene
- scene point
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种测距方法及装置。该方法包括:获取目标图像以及目标图像对应的视差图像或深度图像,进而通过对视差图像或深度图像进行点云转换,得到点云图像;进而根据点云图像以及目标图像中的第一图像点和第二图像点,得到第一图像点对应的第一场景点的三维坐标和第二图像点对应的第二场景点的三维坐标,以及得到第一场景点和第二场景点的空间距离。通过上述方式,本申请实施例中的测距方法无需借助专业的测量工具,并可以在不增加终端设备的硬件成本的基础上简单方便地完成距离的测量。
Description
技术领域
本发明涉及终端技术领域,特别涉及一种测距方法及装置。
背景技术
目前测量空间两点之间的距离的方式主要有以下几种:一种是使用直尺、卷尺等传统测量工具进行手工测量,由于需要随身携带直尺、卷尺等,从而造成随身携带较为不便,且当测量距离较大(比如10米)时,该种方式的操作较为不便;另一种是使用红外、激光或超声波等测量工具,通过计算反射信号所耗费的时间差来计算距离,该种方式也需要随身携带测量工具,且该测量工具通常为精密的电子仪器,测量成本较高。由此可知,现有技术中在测量两点之间的距离时,通常需要借助专业的测量工具方可进行,当用户没有随身携带上述专业的测量工具时,则可能导致无法完成测量。
综上,目前亟需一种测距方法,用于在不借助专业的测量工具的基础上,对空间两点之间的距离进行测量。
发明内容
本申请实施例提供一种测距方法,用于在不借助测量工具的基础上,对空间两点之间的距离进行测量。
第一方面,本申请实施例提供一种测距方法,所述方法包括:
获取目标图像以及所述目标图像对应的视差图像或深度图像;
对所述视差图像或深度图像进行点云转换,得到点云图像;
根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维坐标;
根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离。
如此,通过上述方式,本申请实施例中的测距方法无需借助专业的测量工具,并可以在不增加终端设备的硬件成本的基础上简单方便地完成距离的测量;相比于现有技术中的方案来说,该方法无需限定目标图像为预设清晰度使得适用范围较广,且通过三维坐标来计算空间距离使得测量的精确度较高。
在一种可能的设计中,所述目标图像是根据第一图像和/或第二图像得到的,所述第一图像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从第二位置对所述目标场景进行拍摄得到的。
在一种可能的设计中,获取所述目标图像对应的视差图像,包括:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值,确定所述目标图像对应的视差图像。
在一种可能的设计中,获取所述目标图像对应的深度图像,包括:
确定所述目标图像中每个图像点对应的场景点的深度值;
根据所述目标图像中每个图像点对应的场景点的深度值,确定所述目标图像对应的深度图像。
在一种可能的设计中,所述第一摄像装置的焦距和所述第二摄像装置的焦距相同;
确定所述目标图像中每个图像点对应的场景点的深度值,包括:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值、所述第一位置和所述第二位置之间的距离和所述焦距,确定所述目标图像中每个图像点对应的场景点的深度值。
在一种可能的设计中,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离,包括:
根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,通过欧式距离公式得到所述第一场景点和所述第二场景点的初始空间距离;
将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离;或者,根据所述初始空间距离和预设距离补偿值得到所述第一场景点和所述第二场景点的空间距离。
通过上述方式,通过考虑预设距离补偿值能够有效提供结果的准确性。
第二方面,本申请实施例提供一种测距装置,所述测距装置包括:
获取单元,用于获取目标图像以及所述目标图像对应的视差图像或深度图像;
转换单元,用于对所述视差图像或深度图像进行点云转换,得到点云图像;
处理单元,用于根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维坐标;以及,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离。
在一种可能的设计中,所述目标图像是根据第一图像和/或第二图像得到的,所述第一图像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从第二位置对所述目标场景进行拍摄得到的。
在一种可能的设计中,所述获取单元具体用于:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值,确定所述目标图像对应的视差图像。
在一种可能的设计中,所述获取单元具体用于:
确定所述目标图像中每个图像点对应的场景点的深度值;
根据所述目标图像中每个图像点对应的场景点的深度值,确定所述目标图像对应的深度图像。
在一种可能的设计中,所述第一摄像装置的焦距和所述第二摄像装置的焦距相同;
所述获取单元具体用于:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值、所述第一位置和所述第二位置之间的距离和所述焦距,确定所述目标图像中每个图像点对应的场景点的深度值。
在一种可能的设计中,所述处理单元具体用于:
根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,通过欧式距离公式得到所述第一场景点和所述第二场景点的初始空间距离;
将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离;或者,根据所述初始空间距离和预设距离补偿值得到所述第一场景点和所述第二场景点的空间距离。
在一种可能的设计中,所述测距装置为半导体芯片,所述半导体芯片被设置在终端设备内;
其中,所述第一摄像装置和所述第二摄像装置均为所述终端设备的后置摄像装置;或,所述第一摄像装置和所述第二摄像装置均为所述终端设备的前置摄像装置。
在一种可能的设计中,所述测距装置为终端设备;
其中,所述第一摄像装置和第二摄像装置均为所述终端设备的后置摄像装置;或,所述第一摄像装置和第二摄像装置均为所述终端设备的前置摄像装置。
本申请的又一实施例提供一种测距装置,所述装置包括:
存储器,用于存储软件程序;
处理器,用于读取所述存储器中的软件程序并执行实现上述任一种设计中的测距方法。
本申请的又一实施例提供一种计算机存储介质,所述存储介质中存储软件程序,该软件程序在被一个或多个处理器读取并执行时实现上述任一种设计中的测距方法。
本申请的又一方面提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述各方面所述的方法。
本申请的又一方面提供了一种计算机程序,当其在计算机上运行时,使得计算机执行上述各方面所述的方法。
附图说明
图1为本申请实施例提供的一种测距装置的结构示意图;
图2为本申请实施例提供的一种测距方法对应的流程示意图;
图3a为终端设备拍摄的目标图像示意图;
图3b为目标图像对应的视差图像;
图3c为根据视差图像转换得到的点云图像;
图3d为显示空间距离示意图;
图4为根据两个摄像装置获取深度图像的原理示意图;
图5为本申请实施例中的测距方法的整体执行流程示意图;
图6a为终端设备处于待机状态的界面显示示意图;
图6b为终端设备进入待拍摄状态的界面示意图;
图6c为终端设备显示目标图像示意图;
图6d为用户选定的两个图像点对应的场景点的空间距离示意图;
图6e为更新后的空间距离示意图;
图7为本申请实施例提供的另一种测距装置的结构示意图。
具体实施方式
下面结合说明书附图对本申请进行具体说明,方法实施例中的具体操作方法也可以应用于装置实施例中。
现有技术中通常需要借助专业的测量工具对不同物体之间的距离进行测量,从而给用户造成不便。考虑到手机等终端设备几乎已经成为人们随身携带的必需品,若利用这些终端设备来测量距离,则用户可无需再携带专业的测量工具。
目前,一种利用手机测距的方案为:预先建立手机拍照的缩放比例和摄像头参数的对应关系,在用户需要知道目标物的实际地理位置距离时,例如:两个山峰之间的实际距离,可以利用手机对目标物进行拍照,即对两个山峰进行拍照,并且获取该目标物清晰度最大的图像,以及此时该目标物在该图像中的缩放比例;手机获取用户在这张图像上输入的两个待测量目标点,计算这两个待测量目标点在该图像中的图像距离,根据这两个待测目标点在该图像中的图像距离及目标物在该图像中的缩放比例可以计算出这两个待测目标点之间的实际地理位置距离,即这两个山峰之间的实际地理位置距离。
上述方案中,终端设备根据目标物在图像中的缩放比例可以计算出两点之间的距离,然而,一方面,上述方案的适用性较为有限,比如清晰度不高的区域则可能无法测量,另一方面,通过缩放比例来估算距离会导致测量的精确度不高。
基于此,本申请实施例提供一种测距方法,用于在不借助专业的测量工具的基础上,对不同物体之间的距离进行测量。
具体来说,该方法包括:获取目标图像以及目标图像对应的视差图像或深度图像,进而通过对视差图像或深度图像进行点云转换,得到点云图像;进而根据点云图像以及目标图像中的第一图像点和第二图像点,得到第一图像点对应的第一场景点的三维坐标和第二图像点对应的第二场景点的三维坐标,以及得到第一场景点和第二场景点的空间距离。通过上述方式,本申请实施例中的测距方法无需借助专业的测量工具,并可以在不增加终端设备的硬件成本的基础上简单方便地完成距离的测量;相比于现有技术中的方案来说,该方法无需限定目标图像为预设清晰度使得适用范围较广,且通过三维坐标来计算空间距离使得测量的精确度较高。
本申请实施例中的测距方法可以由测距装置来执行。其中,所述测距装置可以为半导体芯片,所述半导体芯片被设置于终端设备内;或者,所述测距装置也可以为终端设备。如图 1所示,为本申请实施例提供的一种测距装置100,包括至少一个处理器11,通信总线12,存储器13以及至少一个通信接口14。
处理器11可以是一个通用中央处理器(CPU),微处理器,特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制本申请方案程序执行的集成电路。
通信总线12可包括一通路,在上述组件之间传送信息。所述通信接口14,使用任何收发器一类的装置,用于与其他设备或通信网络通信。
存储器13可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(ElectricallyErasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory, CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由该装置存取的任何其他介质,但不限于此。存储器可以是独立存在,通过总线与处理器相连接。存储器也可以和处理器集成在一起。
其中,所述存储器13用于存储执行本申请方案的应用程序代码,并由处理器11来控制执行,也就是说,所述处理器11用于执行所述存储器13中存储的应用程序代码实现本申请实施例中的测距方法。
在具体实现中,作为一种实施例,处理器11可以包括一个或多个CPU,例如图1中的CPU0和CPU1。
在具体实现中,作为一种实施例,该装置100可以包括多个处理器,例如图1中的处理器11和处理器15。这些处理器中的每一个可以是一个单核(single-CPU)处理器,也可以是一个多核(multi-CPU)处理器。这里的处理器可以指一个或多个电路和/或用于处理数据(例如计算机程序指令)的处理核。
进一步地,当所述测距装置为设置在终端设备内的半导体芯片时,所述终端设备还可以包括第一拍摄装置和第二拍摄装置,第一摄像装置和第二摄像装置均为所述终端设备的后置摄像装置;或者,第一摄像装置和第二摄像装置均为所述终端设备的前置摄像装置。
当所述测距装置为终端设备时,所述测距装置中还可以包括第一拍摄装置和第二拍摄装置(未在图1中示意),第一摄像装置和第二摄像装置均为所述终端设备的后置摄像装置;或者,第一摄像装置和第二摄像装置均为所述终端设备的前置摄像装置。
需要说明的是,上述所描述的终端设备可以为手机(mobile phone)、平板电脑(pad)等等。
图2为本申请实施例提供的一种测距方法对应的流程示意图,该测距方法可以由图1中所示意的测距装置100来执行。如图2所示,该方法包括:
步骤201,获取目标图像以及所述目标图像对应的视差图像或深度图像。
此处,目标图像是根据第一图像和/或第二图像得到的,所述第一图像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从第二位置对所述目标场景进行拍摄得到的。
在一种可能的实现方式中,第一摄像装置和第二摄像装置均为终端设备的后置摄像装置。进一步地,所述第一摄像装置的光心和所述第二摄像装置的光心在横向上间隔设定距离,所述第一摄像装置和所述第二摄像装置的焦距相同。在一个示例中,第一摄像装置为彩色摄像装置,第二摄像装置为辅助摄像装置,或者,反之;在另一个示例中,第一摄像装置为彩色摄像装置,第二摄像装置为黑白摄像装置,或者,反之。
本申请实施例中的第一摄像装置具体可以为摄像头,第二摄像装置具体也可以为摄像头。在一个示例中,用户触发终端设备的测距功能后,终端设备使用所述第一摄像装置从第一位置对所述目标场景进行拍摄,得到第一图像,以及使用所述第二摄像装置从第二位置对所述目标场景进行拍摄,得到第二图像,并将第一图像和第二图像进行融合,得到目标图像,从而可以提升拍照效果。在其它实施例中,终端设备也可以直接将第一图像或第二图像作为所述目标图像,具体不做限定。如图3a所示,为目标图像示意图。
需要说明的是:第一图像和第二图像为用户触发终端设备的测距功能后,终端设备同时启动第一摄像装置和第二摄像装置拍摄得到的;上述第一位置可以理解为第一摄像装置的光心,第二位置可以为第一摄像装置的光心,第一位置和第二位置之间的距离即为所述设定距离。
进一步地,获取目标图像对应的视差图像,可以为:根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值,确定所述目标图像对应的视差图像。获取所述目标图像对应的深度图像,包括:确定所述目标图像中每个图像点对应的场景点的深度值;根据所述目标图像中每个图像点对应的场景点的深度值,确定所述目标图像对应的深度图像。具体来说,可以根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值、所述第一位置和所述第二位置之间的距离和所述焦距,确定所述目标图像中每个图像点对应的场景点的深度值。
本申请实施例中,目标图像对应的视差图像即是指与所述目标图像的大小相同、且元素值为目标图像中的图像点对应的场景点的视差值的图像。目标图像对应的深度图像即是指与所述目标图像的大小相同、且元素值为目标图像中的图像点对应的场景点的深度值的图像。
下面以深度图像为例进行描述。
图4为根据两个摄像装置获取深度图像的原理示意图。如图4所示,OL为第一摄像装置 (也可以称为左摄像装置)的光心,OR为第二摄像装置(也可以称为右摄像装置)的光心,两个光心之间的设定距离为b,两个光心之间的线段即为第一摄像装置和第二摄像装置的基线。位于左侧的一条长度为L的线段表示第一摄像装置的成像面,位于右侧的一条长度为L 的线段表示第二摄像装置的成像面,第一摄像装置的成像面和第二摄像装置的成像面位于同一平面上。第一摄像装置的光心到第一摄像装置的成像面的最短距离即为第一摄像装置的焦距,第二摄像装置的光心到第二摄像装置的成像面的最短距离即为第二摄像装置的焦距,如图3可知,第一摄像装置和第二摄像装置的焦距长度均为f。若P为目标场景中的一个场景点,其在第一摄像装置的成像面上的图像点(即第一图像中的图像点)为PL,在第二摄像装置的成像面上的图像点(即第二图像中的图像点)为PR,PL和PR距各自像面的左边缘的距离分别是XL和XR。场景点P的视差值(即场景点P在第一图像和第二图像中的视差值)为场景点P对应的图像点PL和图像点PR在像平面坐标系中的横坐标之差,即为XR-XL或者XL-XR。场景点P的深度值即为场景点P到第一摄像装置和第二摄像装置的基线的距离Z。
根据三角形相似原理,存在如下比例关系:
又可以写为:
于是有:
可推导出:
根据上述内容可知,根据场景点P的视差值、第一摄像装置的光心和第二摄像装置的光心之间的设定距离以及焦距,通过计算可以得到场景点P的深度值。如此,通过计算目标图像中的图像点对应的各个场景点的深度值,即可得到目标图像对应的深度图像。同样地,通过计算目标图像中的图像点对应的各个场景点的视差值,即可得到目标图像对应的视差图像,如图3b所示,为图3a中的目标图像对应的视差图像。
需要说明的是,图4是以终端设备的两个摄像装置左右设置为例,因此,场景点P的视差值为场景点P对应的图像点PL和图像点PR在像平面坐标系中的横坐标之差。在其它可能的实施例中,终端设备的两个摄像装置也可以设置为其它的位置关系,比如上下设置,此时,场景点P的视差值仍可根据场景点P对应的图像点PL和图像点PR在像平面坐标系中的坐标计算得到的,具体的计算方式此处不再详述。
进一步地,图4所示意的原理图(理想情况)中,第一摄像装置的主点坐标对应于第一摄像装置的成像面(L)的中心,第二摄像装置的主点坐标对应于第二摄像装置的成像面(L) 的中心,因此,场景点P的深度值为上述公式4中计算得到的Z。
而真实情况中,摄像装置的主点坐标可能并非对应于成像面的中心,此时,场景点P的深度值可以通过如下公式得到:
其中,c′x是第二摄像装置的主点横坐标,cx是第一摄像装置的主点横坐标。
步骤202,对所述视差图像或所述深度图像进行点云转换,得到点云图像。
此处,以对视差图像进行点云转换为例,根据三角形相似原理,定义了一个映射矩阵Q,建立场景点的视差值与真实三维坐标的关系,其中,Q的表达式如下所示:
其中,cx和cy是第一摄像装置的主点坐标,c′x是第二摄像装置的主点横坐标。
进而,针对于目标图像中的任一图像点在像平面坐标系中的坐标(x,y)以及任一图像点对应的场景点的视差值d,通过如下公式进行转换,可得到任一图像点对应的场景点在以第一摄像装置为参考坐标系中的三维坐标,实现三维重建,得到点云图像。
其中,(X/W,Y/W,Z/W)为图像点(x,y)对应的场景点的三维坐标。
需要说明的是,若在步骤201中,得到的为目标图像对应的视差图像,则可以采用上述是对视差图像进行点云转换,如图3c所示,为根据图3b中的视差图像转换得到的点云图像;若在步骤201中,得到的是为目标图像对应的深度图像,则可以对深度图像进行点云转换,得到点云图像,具体的转换过程与上述对视差图像进行点云转换的流程相同,其差别在于:对深度图像进行点云转换时所使用的映射矩阵与对视差图像进行点云转换时所使用的映射矩阵可能不同。
步骤203,根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维坐标。
步骤204,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离。
在一种可能的实现方式中,终端设备中还可以包括显示屏,用户可通过显示屏查看目标图像,若显示屏为触摸屏,则用户在查看目标图像后,可通过手指触摸选定第一图像点和第二图像点。相应地,终端设备检测到用户的触摸操作并确定用户选定第一图像点和第二图像点(可参见图3d所示)后,由于在步骤202中已通过点云转换得到各个图像点对应的场景点的三维坐标,则可分别获取第一图像点对应的第一场景点的三维坐标和第二图像点对应的第二场景点的三维坐标,进而通过欧式距离公式可得到第一场景点和第二场景点之间的初始空间距离。
在一个示例中,可以直接将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离。
在另一个示例中,为提高结果的准确性,终端设备还可以获取预设距离补偿值,进而根据初始空间距离和预设距离补偿值得到第一场景点和第二场景点之间的空间距离。
其中,预设距离补偿值可以通过多种方式得到。一种可能的实现方式为,用户触发终端设备的校准功能后,由用户在预设图像中标定两个图像点,且两个图像点对应的场景点之间的空间距离为预设距离,比如10cm;具体实施中,用户可在终端设备的校准模式下,拍摄一张包含标尺的图像,从而便于标定出预设距离。若终端设备通过计算得到两个图像点对应的场景点之间的距离为9cm,由于终端设备计算结果的误差值为1cm,则可将预设距离补偿值设置为1cm,后续在测距过程中,将计算得出距离和预设距离补偿值相加,得到最终结果。为进一步提高准确性,可由用户进行多次标定,比如,分别标定任意10cm、20cm、40cm、 80cm、160cm、200cm的两个点,进而由终端设备根据多次标定得到的误差值得到预设距离补偿值,比如,可以将多次标定得到的误差值的平均值作为预设距离补偿值。
本申请实施例中,终端设备得到第一场景点和第二场景点之间的空间距离后,可将其标记在目标图像上并显示给用户,如图3d所示,终端设备得到的空间距离为9.72641cm。若用户确定该结果的准确性不高,则可触发终端设备的辅助调优功能,相应地,终端设备可将目标图像以及用户标定的第一图像点和第二图像点的信息上传给服务器,服务器中可包括预设的测距模型,进而服务器可根据目标图像以及第一图像点和第二图像点的信息通过预设的测距模型得到空间距离,并返回给终端设备,由终端设备显示给用户。其中,服务器中的测距模型可以是通过人工智能训练方式得到的,此处不做具体限定。
下面结合图5对本申请实施例中的测距方法的整体执行流程进行描述。需要说明的是,图5中仅是以测距装置为终端设备为例来进行描述的。如图5所示,包括:
步骤501,终端设备确定用户触发终端设备的拍照功能后,启动第一摄像装置和第二摄像装置,进入待拍摄状态。
具体实施中,以终端设备为具有触摸屏的手机为例,图6a为终端设备处于待机状态的界面显示示意图,用户可通过触摸操作触发终端设备的拍照功能。图6b为终端设备进入待拍摄状态的界面示意图。
步骤502,终端设备确定用户打开拍摄功能开关后,判断测距功能是否开启,若是,执行步骤503,若否,则执行步骤508。
此处,终端设备进入待拍摄状态后,可在待拍摄的界面上显示拍摄功能开关和测距功能开关,参见图6b所示,如此,用户可以通过触摸操作打开拍摄功能开关和测距功能开关。
需要说明的是,本申请实施例中,终端设备在用户打开拍摄功能开关之前判断测距功能是否开启,具体不做限定。
步骤503,终端设备使用第一摄像装置和第二摄像装置对目标场景进行拍摄,得到目标图像以及目标图像对应的视差图像或深度图像。
此处,第一摄像装置和第二摄像装置可以均为终端设备的后置摄像装置。
终端设备得到目标图像后,可将目标图像显示给用户,如图6c所示,而目标图像对应的视差图像或深度图像仅为测距过程中终端设备所执行的中间处理步骤所得到的结果,无需显示。
步骤504,终端设备对视差图像或深度图像进行点云转换,得到目标图像中的图像点对应的场景点的三维坐标。
此处,终端设备得到目标图像中的图像点对应的场景点的三维坐标后,可先存储,以便于后续在用户选定图像点后计算空间距离。
步骤505,终端设备对用户选定的两个图像点对应的场景点的空间距离进行测量。
此处,用户可通过触摸操作在目标图像上选定两个图像点,参见图6d所示,具体的选定方式可以有多种,本申请实施例对此不做限定。
具体来说,可获取两个图像点对应的场景点的三维坐标,根据欧式距离公式得到初始空间距离,进而根据初始空间距离和预设距离补偿值得到空间距离。
本申请实施例中,终端设备进入待拍摄状态后,可在待拍摄的界面上显示校准功能开关,参见图6b所示,如此,用户可以通过触摸操作打开校准功能开关,相应地,终端设备可进入校准模式,以便于得到预设距离补偿值。具体参见上述描述,此处不再赘述。
步骤506,终端设备将测量得到的空间距离标记在目标图像中,显示给用户。
此处,参见图6d,示意出了用户选定的两个图像点对应的场景点的空间距离,其单位可以预先设定,比如cm。
步骤507,终端设备确定用户打开辅助调优功能后,将目标图像以及用户选定的两个图像点的信息发给服务器,并接收服务器返回的空间距离,进而根据服务器返回的空间距离对目标图像中标记的空间距离进行更新。
此处,终端设备进入待拍摄状态后,可在待拍摄的界面上显示辅助调优功能开关,参见图6b所示,如此,用户可以通过触摸操作打开辅助调优功能开关。
参见图6e,示意出了更新后的空间距离。
步骤508,终端设备使用第一摄像装置和第二摄像装置对目标场景进行拍摄,得到目标图像。此处,由于用户未触发测距功能,因此可执行正常的拍摄流程得到目标图像。
需要说明的是,(1)上述步骤编号仅为执行流程的一种可能示例,具体实施中对各个步骤的先后顺序不做限定;(2)图6b所示意的多个功能开关的位置和实现方式仅为一种示例,在其它实施例中,多个功能开关也可以位于其它位置,或者通过其它方式实现,具体不做限定。(3)针对于目标图像,终端设备可以对用户多次选定的两个图像点的场景点的空间距离进行计算,也就是说,用户选定图像点a1和a2,由终端设备计算出对应的场景的空间距离后,用户还可以继续选定图像点b1和b2,由终端设备计算出对应的场景的空间距离,具体的次数不做限定。
根据上述流程可知,本申请实施例中是基于现有的终端拍照功能来实现测距功能,从而无需借助测量工具,并可以在不增加终端设备的硬件成本的基础上简单方便地完成距离的测量。
需要说明的是,本申请实施例中所涉及的场景点即是指目标场景中的某个三维坐标对应的位置,举个例子,假设图6d中所示意出的两个波峰从左至右依次为第一座山的山顶和第二座山的山顶,则第一图像点对应的场景点即为三维空间中第一座山的山顶位置,第二图像点对应的场景点即为三维空间中第二座山的山顶位置。
针对于上述方法流程,本申请实施例还提供一种测距装置,该测距装置的具体实现可参见上述方法流程。
基于相同发明构思,图7为本申请实施例提供的另一种测距装置的结构示意图,该测距装置可以为半导体芯片(可设置在终端设备内)或者终端设备,该测距装置可用于执行上述图2所示意的方法流程,如图7所示,该测距装置700包括:
获取单元701,用于获取目标图像以及所述目标图像对应的视差图像或深度图像;
转换单元702,用于对所述视差图像或深度图像进行点云转换,得到点云图像;
处理单元703,用于根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维坐标;以及,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离。
在一种可能的设计中,所述目标图像是根据第一图像和/或第二图像得到的,所述第一图像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从第二位置对所述目标场景进行拍摄得到的。
在一种可能的设计中,所述获取单元701具体用于:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值,确定所述目标图像对应的视差图像。
在一种可能的设计中,所述获取单元701具体用于:
确定所述目标图像中每个图像点对应的场景点的深度值;
根据所述目标图像中每个图像点对应的场景点的深度值,确定所述目标图像对应的深度图像。
在一种可能的设计中,所述第一摄像装置的焦距和所述第二摄像装置的焦距相同;
所述获取单元701具体用于:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值、所述第一位置和所述第二位置之间的距离和所述焦距,确定所述目标图像中每个图像点对应的场景点的深度值。
在一种可能的设计中,所述处理单元703具体用于:
根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,通过欧式距离公式得到所述第一场景点和所述第二场景点的初始空间距离;
将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离;或者,根据所述初始空间距离和预设距离补偿值得到所述第一场景点和所述第二场景点的空间距离。
在一种可能的设计中,所述测距装置700为半导体芯片,所述半导体芯片被设置在终端设备内;
其中,所述第一摄像装置和所述第二摄像装置均为所述终端设备的后置摄像装置;或,所述第一摄像装置和所述第二摄像装置均为所述终端设备的前置摄像装置。
在一种可能的设计中,所述测距装置700为终端设备;
其中,所述第一摄像装置和第二摄像装置均为所述终端设备的后置摄像装置;或,所述第一摄像装置和第二摄像装置均为所述终端设备的前置摄像装置。
需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。在本申请的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)) 或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
本领域内的技术人员应明白,本发明实施例可提供为方法、系统、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (14)
1.一种测距方法,其特征在于,所述方法适用于测距装置,所述测距装置为终端设备或设置于所述终端设备内的芯片,所述方法包括:
获取目标图像以及所述目标图像对应的视差图像或深度图像;
对所述视差图像或深度图像进行点云转换,得到点云图像;
根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维坐标;
根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离;
其中,所述目标图像是根据第一图像和第二图像得到的,所述第一图像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从第二位置对所述目标场景进行拍摄得到的。
2.根据权利要求1所述的方法,其特征在于,获取所述目标图像对应的视差图像,包括:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值,确定所述目标图像对应的视差图像。
3.根据权利要求1所述的方法,其特征在于,获取所述目标图像对应的深度图像,包括:
确定所述目标图像中每个图像点对应的场景点的深度值;
根据所述目标图像中每个图像点对应的场景点的深度值,确定所述目标图像对应的深度图像。
4.根据权利要求3所述的方法,其特征在于,所述第一摄像装置的焦距和所述第二摄像装置的焦距相同;
确定所述目标图像中每个图像点对应的场景点的深度值,包括:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值、所述第一位置和所述第二位置之间的距离和所述焦距,确定所述目标图像中每个图像点对应的场景点的深度值。
5.根据权利要求1至4中任一项所述的方法,其特征在于,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离,包括:
根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,通过欧式距离公式得到所述第一场景点和所述第二场景点的初始空间距离;
将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离;或者,根据所述初始空间距离和预设距离补偿值得到所述第一场景点和所述第二场景点的空间距离。
6.一种测距装置,其特征在于,所述测距装置为终端设备或设置于所述终端设备内的芯片,所述测距装置包括:
获取单元,用于获取目标图像以及所述目标图像对应的视差图像或深度图像;
转换单元,用于对所述视差图像或深度图像进行点云转换,得到点云图像;
处理单元,用于根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维坐标;以及,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离;
其中,所述目标图像是根据第一图像和第二图像得到的,所述第一图像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从第二位置对所述目标场景进行拍摄得到的。
7.根据权利要求6所述的装置,其特征在于,所述获取单元具体用于:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值,确定所述目标图像对应的视差图像。
8.根据权利要求6所述的装置,其特征在于,所述获取单元具体用于:
确定所述目标图像中每个图像点对应的场景点的深度值;
根据所述目标图像中每个图像点对应的场景点的深度值,确定所述目标图像对应的深度图像。
9.根据权利要求8所述的装置,其特征在于,所述第一摄像装置的焦距和所述第二摄像装置的焦距相同;
所述获取单元具体用于:
根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差值、所述第一位置和所述第二位置之间的距离和所述焦距,确定所述目标图像中每个图像点对应的场景点的深度值。
10.根据权利要求6至9中任一项所述的装置,其特征在于,所述处理单元具体用于:
根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,通过欧式距离公式得到所述第一场景点和所述第二场景点的初始空间距离;
将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离;或者,根据所述初始空间距离和预设距离补偿值得到所述第一场景点和所述第二场景点的空间距离。
11.根据权利要求6至9中任一项所述的装置,其特征在于,所述测距装置为半导体芯片,所述半导体芯片被设置在终端设备内;
其中,所述第一摄像装置和所述第二摄像装置均为所述终端设备的后置摄像装置;或,所述第一摄像装置和所述第二摄像装置均为所述终端设备的前置摄像装置。
12.根据权利要求6至9中任一项所述的装置,其特征在于,所述测距装置为终端设备;
其中,所述第一摄像装置和第二摄像装置均为所述终端设备的后置摄像装置;或,所述第一摄像装置和第二摄像装置均为所述终端设备的前置摄像装置。
13.一种测距装置,其特征在于,所述装置包括:
存储器,用于存储软件程序;
处理器,用于读取所述存储器中的软件程序并执行权利要求1至权利要求5中任一项所述的测距方法。
14.一种计算机存储介质,其特征在于,所述存储介质中存储软件程序,该软件程序在被一个或多个处理器读取并执行时实现权利要求1至权利要求5中任一项所述的测距方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110899192.4A CN113781534A (zh) | 2018-03-05 | 2018-03-05 | 一种测距方法及装置 |
CN201810179367.2A CN110232707B (zh) | 2018-03-05 | 2018-03-05 | 一种测距方法及装置 |
PCT/CN2018/125716 WO2019169941A1 (zh) | 2018-03-05 | 2018-12-29 | 一种测距方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810179367.2A CN110232707B (zh) | 2018-03-05 | 2018-03-05 | 一种测距方法及装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110899192.4A Division CN113781534A (zh) | 2018-03-05 | 2018-03-05 | 一种测距方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110232707A CN110232707A (zh) | 2019-09-13 |
CN110232707B true CN110232707B (zh) | 2021-08-31 |
Family
ID=67846804
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810179367.2A Active CN110232707B (zh) | 2018-03-05 | 2018-03-05 | 一种测距方法及装置 |
CN202110899192.4A Pending CN113781534A (zh) | 2018-03-05 | 2018-03-05 | 一种测距方法及装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110899192.4A Pending CN113781534A (zh) | 2018-03-05 | 2018-03-05 | 一种测距方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN110232707B (zh) |
WO (1) | WO2019169941A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379826A (zh) * | 2020-03-10 | 2021-09-10 | 顺丰科技有限公司 | 物流件的体积测量方法以及装置 |
CN111990930B (zh) * | 2020-08-28 | 2022-05-20 | 北京石头创新科技有限公司 | 一种测距方法、装置、机器人和存储介质 |
CN112308962B (zh) * | 2020-11-05 | 2023-10-17 | 山东产研信息与人工智能融合研究院有限公司 | 以实体目标为最小单元的实景模型构建方法及装置 |
CN113050113B (zh) * | 2021-03-10 | 2023-08-01 | 广州南方卫星导航仪器有限公司 | 一种激光点定位方法和装置 |
CN113376643A (zh) * | 2021-05-10 | 2021-09-10 | 广州文远知行科技有限公司 | 距离检测方法、装置及电子设备 |
CN113327318B (zh) * | 2021-05-18 | 2022-07-29 | 禾多科技(北京)有限公司 | 图像显示方法、装置、电子设备和计算机可读介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3006893A1 (en) * | 2014-10-10 | 2016-04-13 | Hand Held Products, Inc. | Methods for improving the accuracy of dimensioning-system measurements |
CN105913444A (zh) * | 2016-05-03 | 2016-08-31 | 华南农业大学 | 基于软激光测距的牲畜体型轮廓重构方法及体况评分方法 |
CN106384106A (zh) * | 2016-10-24 | 2017-02-08 | 杭州非白三维科技有限公司 | 一种基于三维扫描的反欺诈人脸识别系统 |
CN106569225A (zh) * | 2016-10-31 | 2017-04-19 | 浙江大学 | 一种基于测距传感器的无人车实时避障方法 |
CN106651926A (zh) * | 2016-12-28 | 2017-05-10 | 华东师范大学 | 一种基于区域配准的深度点云三维重建方法 |
CN106780619A (zh) * | 2016-11-25 | 2017-05-31 | 青岛大学 | 一种基于Kinect深度相机的人体尺寸测量方法 |
CN106971403A (zh) * | 2017-04-27 | 2017-07-21 | 武汉数文科技有限公司 | 点云图像处理方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030234512A1 (en) * | 2002-06-20 | 2003-12-25 | Holub David G. | Trailer hitch video alignment system |
CN1847781A (zh) * | 2006-02-14 | 2006-10-18 | 中国科学院上海技术物理研究所 | 光电测宽仪动态测量位置校正方法 |
CN105222717B (zh) * | 2015-08-28 | 2018-10-26 | 宇龙计算机通信科技(深圳)有限公司 | 一种标的物长度测量方法及装置 |
-
2018
- 2018-03-05 CN CN201810179367.2A patent/CN110232707B/zh active Active
- 2018-03-05 CN CN202110899192.4A patent/CN113781534A/zh active Pending
- 2018-12-29 WO PCT/CN2018/125716 patent/WO2019169941A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3006893A1 (en) * | 2014-10-10 | 2016-04-13 | Hand Held Products, Inc. | Methods for improving the accuracy of dimensioning-system measurements |
CN105913444A (zh) * | 2016-05-03 | 2016-08-31 | 华南农业大学 | 基于软激光测距的牲畜体型轮廓重构方法及体况评分方法 |
CN106384106A (zh) * | 2016-10-24 | 2017-02-08 | 杭州非白三维科技有限公司 | 一种基于三维扫描的反欺诈人脸识别系统 |
CN106569225A (zh) * | 2016-10-31 | 2017-04-19 | 浙江大学 | 一种基于测距传感器的无人车实时避障方法 |
CN106780619A (zh) * | 2016-11-25 | 2017-05-31 | 青岛大学 | 一种基于Kinect深度相机的人体尺寸测量方法 |
CN106651926A (zh) * | 2016-12-28 | 2017-05-10 | 华东师范大学 | 一种基于区域配准的深度点云三维重建方法 |
CN106971403A (zh) * | 2017-04-27 | 2017-07-21 | 武汉数文科技有限公司 | 点云图像处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110232707A (zh) | 2019-09-13 |
CN113781534A (zh) | 2021-12-10 |
WO2019169941A1 (zh) | 2019-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110232707B (zh) | 一种测距方法及装置 | |
CN102278946B (zh) | 摄像装置以及长度测量方法 | |
CN108364319B (zh) | 尺度确定方法、装置、存储介质及设备 | |
US10782119B2 (en) | Object dimension measurement method and apparatus | |
US10277889B2 (en) | Method and system for depth estimation based upon object magnification | |
JP6589636B2 (ja) | 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム | |
WO2021136386A1 (zh) | 数据处理方法、终端和服务器 | |
US20190293412A1 (en) | Three-dimensional measuring system and measuring method with multiple measuring modes | |
WO2017199696A1 (ja) | 画像処理装置及び画像処理方法 | |
WO2014139728A1 (en) | Automatic stereoscopic camera calibration | |
CN109674443B (zh) | 一种瞳距测量方法及终端 | |
CN111354029B (zh) | 手势深度确定方法、装置、设备及存储介质 | |
TW201312080A (zh) | 非接觸式測量實物長度的方法 | |
JP5996233B2 (ja) | 画像撮像装置 | |
US11385053B2 (en) | Distance measuring camera | |
CN105783881B (zh) | 空中三角测量的方法和装置 | |
EP3825649A1 (en) | Ranging camera | |
KR101684337B1 (ko) | 스마트 단말기 및 그것을 이용한 피사체 길이 측정 방법 | |
CN113034615B (zh) | 一种用于多源数据融合的设备标定方法及相关装置 | |
CN112367476B (zh) | Tof相机的曝光时间确定方法、装置及终端设备 | |
CN110579169A (zh) | 基于云计算的立体视觉高精度测量方法和存储介质 | |
CN110196422A (zh) | 激光测距的测试方法、测试装置及移动终端 | |
CN116721237B (zh) | 户型墙体编辑方法、装置、设备和存储介质 | |
CN113643377B (zh) | 基于多次标定的单镜头一致性误差分析的方法和系统 | |
JP7397734B2 (ja) | 測距システム、測距方法及び測距プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |