CN110764841A - 3d视觉应用开发平台和开发方法 - Google Patents
3d视觉应用开发平台和开发方法 Download PDFInfo
- Publication number
- CN110764841A CN110764841A CN201910957348.2A CN201910957348A CN110764841A CN 110764841 A CN110764841 A CN 110764841A CN 201910957348 A CN201910957348 A CN 201910957348A CN 110764841 A CN110764841 A CN 110764841A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- plug
- cloud data
- ins
- functional plug
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011161 development Methods 0.000 title claims abstract description 61
- 230000000007 visual effect Effects 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 230000018109 developmental process Effects 0.000 claims description 58
- 238000000605 extraction Methods 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44521—Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
- G06F9/44526—Plug-ins; Add-ons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/16—Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]
- H04L69/161—Implementation details of TCP/IP or UDP/IP stack architecture; Specification of modified or new header fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Security & Cryptography (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种3D视觉应用开发平台和开发方法。该平台包括:3D成像单元,用于获取并输出物体表面3D点云数据和深度图像;3D数据处理单元,用于接收物体表面3D点云数据和深度图像,并提供至少一种功能插件;项目工程配置单元,用于根据不同项目需求实现功能插件的配置,利用配置完成的功能插件处理物体表面3D点云数据。该方法包括:获取并输出物体表面3D点云数据和深度图像;接收物体表面3D点云数据和深度图像,并提供至少一种功能插件;根据不同的项目需求实现功能插件的配置,利用配置完成的功能插件处理物体表面3D点云数据。这种平台和方法支持模块化开发,插件式应用,能满足不同应用场景需求,维护简单,易于升级。
Description
技术领域
本发明涉及三维(3D)成像和三维(3D)图像处理技术,尤其涉及一种3D视觉应用开发平台和开发方法。
背景技术
随着三维(3D)成像技术的高速发展,3D视觉目前已广泛用于不同场景,例如三维测量、无序抓取、视觉引导等。相比于2D视觉,3D视觉方案因为更切合我们所处的现实而具有更广阔的发展空间。但与此同时,3D视觉处理的数据量相比2D视觉成指数式增长,其对硬件和3D视觉软件的要求更高。目前3D相机等硬件成本随着技术发展不断降低,更进一步促进3D视觉方案的广泛应用。因此,一种能够满足不同应用场景需求的3D视觉应用开发平台是十分有意义的。
发明内容
本发明要解决的技术问题是提供一种3D视觉应用开发平台和开发方法,能够满足不同应用场景需求。
为解决上述技术问题,本发明采用如下技术方案:
一方面,本发明提出一种3D视觉应用开发平台。所述3D视觉应用开发平台包括:3D成像单元,用于获取并输出物体表面的3D点云数据和深度图像;3D数据处理单元,用于接收物体表面的3D点云数据和深度图像,并提供至少一种功能插件;项目工程配置单元,用于根据不同的项目需求实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。
可选地,对于所述3D视觉应用开发平台,3D成像单元包括单目结构光模块和与单目结构光模块连接的输出模块。
可选地,对于所述的3D视觉应用开发平台,单目结构光模块用于控制光机投影不同的条纹图案到待测物体表面,待测物体表面对条纹图像进行调制,并触发相机对待测物体拍照获取图像,获取被物体表面调制后的条纹图像信息并解码实现对物体表面深度的测量。
可选地,对于所述3D视觉应用开发平台,项目工程配置单元进一步用于根据不同的项目需求,通过界面拖拽功能插件和/或在功能插件之间连线的方式实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。
可选地,对于所述3D视觉应用开发平台,至少一种功能插件包括3D点云输入输出插件、3D点云数据滤波插件、3D点云数据分割提取插件、3D点云数据与模板点云匹配识别插件、以及3D点云边界提取与中心提取插件中至少一种插件。
另一方面,本发明提出一种3D视觉应用开发方法。所述3D视觉应用开发方法包括:获取并输出物体表面的3D点云数据和深度图像;接收物体表面的3D点云数据和深度图像,并提供至少一种功能插件;根据不同的项目需求实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。
可选地,对于所述3D视觉应用开发方法,获取物体表面的3D点云数据和深度图像包括:通过单目结构光方案获取物体表面的3D点云数据和深度图像。
可选地,对于所述3D视觉应用开发方法,单目结构光方案包括:控制光机投影不同的条纹图案到待测物体表面,待测物体表面对条纹图像进行调制,同时触发相机对待测物体拍照取图,获取被物体表面调制后的条纹图像信息并解码实现对物体表面深度的测量。
可选地,对于所述3D视觉应用开发方法,根据不同的项目需求实现功能插件的配置包括:根据不同的项目需求,通过界面拖拽功能插件和/或在功能插件之间连线的方式实现功能插件的配置。
可选地,对于所述3D视觉应用开发方法,至少一种功能插件包括3D点云输入输出插件、3D点云数据滤波插件、3D点云数据分割提取插件、3D点云数据与模板点云匹配识别插件、以及3D点云边界提取与中心提取插件中至少一种插件。
与现有技术相比,本发明技术方案主要的优点如下:
本发明实施例的3D视觉应用开发平台集成了3D成像功能和3D数据处理功能。不同于其他3D视觉应用系统,该软件开发平台和开发方法支持模块化开发,插件式应用,能够满足不同应用场景需求,维护简单,易于升级。同时,本发明实施例的3D视觉应用开发平台和开发方法同时支持2D图像处理、3D点云处理,可以通过TCP\IP协议与外部设备通信。应用开发人员可以根据实际项目需求基于该平台进行功能插件开发,实现多功能场景应用的目的。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明一个实施例提供的3D视觉应用开发平台的结构示意图;
图2为本发明另一个实施例提供的3D视觉应用开发方法的流程图;
图3为一个示例提供的3D视觉应用开发方法对待测物体检测输出3D点云数据和深度图像的运行流程;
图4为一个示例提供的3D点云数据计算示意图;
图5为一个示例提供的3D视觉应用开发方法中项目工程配置的流程图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整地传达给本领域的技术人员。
图1为本发明一个实施例提供的3D视觉应用开发平台的结构示意图。如图1所示,该实施例的3D视觉应用开发平台100包括3D成像单元110、3D数据处理单元120和项目工程配置单元130。
3D成像单元110用于获取并输出物体表面的3D点云数据和深度图像。3D成像单元可以包括单目结构光模块和与单目结构光模块连接的输出模块。3D成像单元集成了单目结构光模块。单目结构光模块用于控制光机投影不同的条纹图案到待测物体表面,待测物体表面对条纹图像进行调制,同时触发相机对待测物体拍照获取图像,获取被物体表面调制后的条纹图像信息并解码实现对物体表面深度的测量。输出模块用于输出物体表面的3D点云数据和深度图像。
3D数据处理单元120用于接收物体表面的3D点云数据和深度图像,并提供至少一种功能插件。至少一种功能插件可以包括3D点云输入输出(IO)插件、3D点云数据滤波插件、3D点云数据分割提取插件、3D点云数据与模板点云匹配识别插件、以及3D点云边界提取与中心提取插件中至少一种插件。TCP/IP协议下的客户端包括服务器端插件和/或相关2D图像数据处理插件。
项目工程配置单元130用于根据不同的项目需求实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。作为一种可选实施方式,项目工程配置单元进一步用于根据不同的项目需求,通过界面拖拽功能插件和/或在功能插件之间连线的方式实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。
应用开发人员可以基于该平台100提供的功能插件进行不同配置以实现不同的项目需求。此外,应用开发人员也可以自行开发功能插件,添加到该实施例的3D视觉应用开发平台100,实现功能扩展和维护。
该实施例的3D视觉应用开发平台支持用户以流程图的方式配置项目工程,用户通过在UI界面拖拽所需的功能插件到工程,并可设置功能插件自身参数,通过功能插件间连线的方式完成各功能模块的组合。对于不同的项目,所需的功能插件组合方式不同,用户可以根据项目所需自由组合配置,进而基于该3D视觉应用开发平台实现不同的应用场景需求。
该实施例的3D视觉应用开发平台可以基于Windows环境开发,集成了OpenCV和/或PCL等主流开源视觉算法库。
图2为本发明另一个实施例提供的3D视觉应用开发方法的流程图。
如图2所示,在步骤S210,获取并输出物体表面的3D点云数据和深度图像。获取物体表面的3D点云数据和深度图像可以包括:通过单目结构光方案获取物体表面的3D点云数据和深度图像。单目结构光方案可以包括:控制光机投影不同的条纹图案到待测物体表面,待测物体表面对条纹图像进行调制,同时触发相机对待测物体拍照取图,获取被物体表面调制后的条纹图像信息并解码实现对物体表面深度的测量。单目结构光解决方案可以实现对待测物体3D信息的采集,输出待测物体的3D点云数据和深度图像。用户可以通过界面实现对相机和投影仪的配置和控制。图3为一个示例提供的3D视觉应用开发方法对待测物体检测输出3D点云数据和深度图像的运行流程。如图3所示,通过控制光机投影不同的条纹图案到待测物体表面,待测物体表面对条纹图像进行调制,同时触发相机对待测物体拍照取图,获取被物体表面调制后的条纹图像信息并按照标定后的视觉软件算法解码,实现对物体表面深度的测量,输出物体表面的3D点云数据和深度图像。
图4为一个示例提供的3D点云数据计算示意图。如图4所示,投影仪将设定好的光栅条纹投影到待测场景中,其中被测物体表面的条纹被其外部形状调制,例如在相机图像中显示为向左偏移。条纹的偏移量可以通过相机图像处理计算所得,设为d。相机到场景平面的距离可通过标定相机所得,设为m。根据三角形AO1O3与三角形AP1P2相似性质,即可计算P1点处的深度。
在步骤S220,接收物体表面的3D点云数据和深度图像,并提供至少一种功能插件。至少一种功能插件可以包括3D点云输入输出(IO)插件、3D点云数据滤波插件、3D点云数据分割提取插件、3D点云数据与模板点云匹配识别插件、以及3D点云边界提取与中心提取插件中至少一种插件。3D视觉应用开发平台可以集成经典的OpenCV和/或PCL等开源视觉算法库,可以支持开发人员基于该平台提供的接口,设计开发不同功能的算法插件模块,进而满足不同场景下不同项目需求的应用开发。通过数据处理界面可以实现不同功能插件的加载和卸载,根据实际项目需求搭建数据处理工程。前一过程的3D成像功能用于获取被测物体及场景的3D点云数据,该过程的数据处理界面用于实现对获取的3D点云数据进行后处理,根据不同的项目需求编写合适的功能插件算法,例如对于使用机器人抓取场景中被测物体的项目需求,可搭建一个包括滤波处理插件、目标点云分割提取插件、点云姿态匹配插件、与机器人通信的Socket插件以及其他辅助功能插件的工程,该工程可以实现对被测物体在场景中的分割提取和姿态匹配,进而获得被测物体的最佳抓取坐标点和姿态,然后将位姿信息发送到机器人实现对被测物体的精准抓取。
在步骤S230,根据不同的项目需求实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。根据不同的项目需求实现功能插件的配置可以包括:根据不同的项目需求,通过界面拖拽功能插件和/或在功能插件之间连线的方式实现功能插件的配置。
各个功能插件按照基础IO类、2D视觉处理类、3D视觉处理类、以及工具类进行分类显示,开发人员可以根据不同需求通过界面拖拽功能插件和在功能插件之间连线的方式实现项目工程配置。图5为一个示例提供的3D视觉应用开发方法中项目工程配置的流程图。如图5所示,系统启动和初始化后,系统将插件以界面控件的方式显示在UI插件列表中。用户可以通过鼠标拖拽的方式,将项目中需要的插件拖入项目配置窗体,后台会自动生成该插件的唯一的实例化对象,并注册到插件管理器,以供插件管理器检索。用户可以通过鼠标点击对象控件实现插件对象的参数设置,以完成对功能插件中各数据处理算法的参数设置。后续,用户使用画线工具将不同功能插件连接,通过获取连线两端的对象完成功能插件间关系建立。如此,通过不同功能插件的组合使用,即可实现不同应用场景中不同的项目需求的开发。
该发明实施例的3D视觉应用开发平台和开发方法支持开发人员基于所提供的开发接口进行功能插件开发,而不需要开发软件系统,这极大地节省了项目开发时间,提升了项目开发效率。用户可以通过不同功能插件的组合配置实现不同场景的项目需求,如三维测量、无序抓取等应用。
以上所述仅为本发明的实施例,并非因此限制本发明的权利要求保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明权利要求的保护范围内。
Claims (10)
1.一种3D视觉应用开发平台,其特征在于,包括:
3D成像单元,用于获取并输出物体表面的3D点云数据和深度图像;
3D数据处理单元,用于接收物体表面的3D点云数据和深度图像,并提供至少一种功能插件;
项目工程配置单元,用于根据不同的项目需求实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。
2.如权利要求1所述的3D视觉应用开发平台,其特征在于,3D成像单元包括单目结构光模块和与单目结构光模块连接的输出模块。
3.如权利要求2所述的3D视觉应用开发平台,其特征在于,单目结构光模块用于控制光机投影不同的条纹图案到待测物体表面,待测物体表面对条纹图像进行调制,并触发相机对待测物体拍照获取图像,获取被物体表面调制后的条纹图像信息并解码实现对物体表面深度的测量。
4.如权利要求1所述的3D视觉应用开发平台,其特征在于,项目工程配置单元进一步用于根据不同的项目需求,通过界面拖拽功能插件和/或在功能插件之间连线的方式实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。
5.如权利要求1所述的3D视觉应用开发平台,其特征在于,至少一种功能插件包括3D点云输入输出插件、3D点云数据滤波插件、3D点云数据分割提取插件、3D点云数据与模板点云匹配识别插件、以及3D点云边界提取与中心提取插件中至少一种插件。
6.一种3D视觉应用开发方法,其特征在于,包括:
获取并输出物体表面的3D点云数据和深度图像;
接收物体表面的3D点云数据和深度图像,并提供至少一种功能插件;
根据不同的项目需求实现功能插件的配置,利用配置完成的功能插件处理所接收的物体表面的3D点云数据。
7.如权利要求6所述的3D视觉应用开发方法,其特征在于,获取物体表面的3D点云数据和深度图像包括:通过单目结构光方案获取物体表面的3D点云数据和深度图像。
8.如权利要求7所述的3D视觉应用开发方法,其特征在于,单目结构光方案包括:控制光机投影不同的条纹图案到待测物体表面,待测物体表面对条纹图像进行调制,同时触发相机对待测物体拍照取图,获取被物体表面调制后的条纹图像信息并解码实现对物体表面深度的测量。
9.如权利要求6所述的3D视觉应用开发方法,其特征在于,根据不同的项目需求实现功能插件的配置包括:根据不同的项目需求,通过界面拖拽功能插件和/或在功能插件之间连线的方式实现功能插件的配置。
10.如权利要求6所述的3D视觉应用开发方法,其特征在于,至少一种功能插件包括3D点云输入输出插件、3D点云数据滤波插件、3D点云数据分割提取插件、3D点云数据与模板点云匹配识别插件、以及3D点云边界提取与中心提取插件中至少一种插件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910957348.2A CN110764841B (zh) | 2019-10-10 | 2019-10-10 | 3d视觉应用开发平台和开发方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910957348.2A CN110764841B (zh) | 2019-10-10 | 2019-10-10 | 3d视觉应用开发平台和开发方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110764841A true CN110764841A (zh) | 2020-02-07 |
CN110764841B CN110764841B (zh) | 2024-01-19 |
Family
ID=69331756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910957348.2A Active CN110764841B (zh) | 2019-10-10 | 2019-10-10 | 3d视觉应用开发平台和开发方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110764841B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113703722A (zh) * | 2021-07-20 | 2021-11-26 | 南京邮电大学 | 一种图形化3d相机管理系统及其工作方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140132728A1 (en) * | 2012-11-12 | 2014-05-15 | Shopperception, Inc. | Methods and systems for measuring human interaction |
US20150022644A1 (en) * | 2013-07-16 | 2015-01-22 | Texas Instruments Incorporated | Adaptive Structured Light Patterns |
CN108151671A (zh) * | 2016-12-05 | 2018-06-12 | 杭州先临三维科技股份有限公司 | 一种三维数字成像传感器、三维扫描系统及其扫描方法 |
CN108269279A (zh) * | 2017-07-17 | 2018-07-10 | 杭州先临三维科技股份有限公司 | 基于单目三维扫描系统的三维重构方法和装置 |
CN108648222A (zh) * | 2018-04-27 | 2018-10-12 | 华中科技大学 | 结构光深度数据空间分辨率的提升方法及装置 |
CN109443202A (zh) * | 2018-11-05 | 2019-03-08 | 西安工业大学 | 一种三维场景数据的测量方法 |
-
2019
- 2019-10-10 CN CN201910957348.2A patent/CN110764841B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140132728A1 (en) * | 2012-11-12 | 2014-05-15 | Shopperception, Inc. | Methods and systems for measuring human interaction |
US20150022644A1 (en) * | 2013-07-16 | 2015-01-22 | Texas Instruments Incorporated | Adaptive Structured Light Patterns |
CN108151671A (zh) * | 2016-12-05 | 2018-06-12 | 杭州先临三维科技股份有限公司 | 一种三维数字成像传感器、三维扫描系统及其扫描方法 |
CN108269279A (zh) * | 2017-07-17 | 2018-07-10 | 杭州先临三维科技股份有限公司 | 基于单目三维扫描系统的三维重构方法和装置 |
WO2019015154A1 (zh) * | 2017-07-17 | 2019-01-24 | 先临三维科技股份有限公司 | 基于单目三维扫描系统的三维重构方法和装置 |
CN108648222A (zh) * | 2018-04-27 | 2018-10-12 | 华中科技大学 | 结构光深度数据空间分辨率的提升方法及装置 |
CN109443202A (zh) * | 2018-11-05 | 2019-03-08 | 西安工业大学 | 一种三维场景数据的测量方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113703722A (zh) * | 2021-07-20 | 2021-11-26 | 南京邮电大学 | 一种图形化3d相机管理系统及其工作方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110764841B (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3128289B1 (en) | System and method for automatic alignment and projection mapping | |
CN107784672B (zh) | 用于获取车载相机的外部参数的方法和装置 | |
US10255480B2 (en) | Monitoring object shape and deviation from design | |
EP2531980B1 (en) | Depth camera compatibility | |
EP2531979B1 (en) | Depth camera compatibility | |
US20170059305A1 (en) | Active illumination for enhanced depth map generation | |
CN108259744B (zh) | 图像采集控制方法及其装置、图像采集系统和tof相机 | |
CN108781267B (zh) | 图像处理设备和方法 | |
RU2627914C1 (ru) | Устройство вычисления собственной позиции и способ вычисления собственной позиции | |
CN109299662B (zh) | 深度数据计算设备与方法及人脸识别设备 | |
US10574956B2 (en) | System and method for automatic alignment and projection mapping | |
KR102472156B1 (ko) | 전자 장치 및 그 깊이 정보 생성 방법 | |
EP3547260B1 (en) | System and method for automatic calibration of image devices | |
CN108495113B (zh) | 用于双目视觉系统的控制方法和装置 | |
CN111429521B (zh) | 相机与激光雷达的外参标定方法、装置、介质及电子设备 | |
US11022435B2 (en) | Pattern projection depth value 3D scanning device and method | |
US20190325600A1 (en) | Determining a pose of a handheld object | |
CN110764841B (zh) | 3d视觉应用开发平台和开发方法 | |
CN112509058B (zh) | 外参的计算方法、装置、电子设备和存储介质 | |
JP6369897B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP2007315777A (ja) | 三次元形状計測システム | |
US20240104774A1 (en) | Multi-dimensional Object Pose Estimation and Refinement | |
EP3062516B1 (en) | Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium | |
CN111738906B (zh) | 室内路网生成方法、装置、存储介质及电子设备 | |
JP2019027894A (ja) | 位置情報取得システム、位置情報取得方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |