WO2011137596A1 - 结构光测量方法以及系统 - Google Patents

结构光测量方法以及系统 Download PDF

Info

Publication number
WO2011137596A1
WO2011137596A1 PCT/CN2010/072528 CN2010072528W WO2011137596A1 WO 2011137596 A1 WO2011137596 A1 WO 2011137596A1 CN 2010072528 W CN2010072528 W CN 2010072528W WO 2011137596 A1 WO2011137596 A1 WO 2011137596A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
matching
imaging position
laser
laser spot
Prior art date
Application number
PCT/CN2010/072528
Other languages
English (en)
French (fr)
Inventor
师丹玮
吴迪
赵文闯
谢琪
Original Assignee
深圳泰山在线科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳泰山在线科技有限公司 filed Critical 深圳泰山在线科技有限公司
Priority to EP10850965.4A priority Critical patent/EP2568253B1/en
Priority to JP2013509420A priority patent/JP5567738B2/ja
Priority to AU2010352828A priority patent/AU2010352828B2/en
Priority to US13/696,785 priority patent/US9360307B2/en
Priority to PCT/CN2010/072528 priority patent/WO2011137596A1/zh
Priority to CN201080066602.7A priority patent/CN102884397B/zh
Publication of WO2011137596A1 publication Critical patent/WO2011137596A1/zh

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Definitions

  • the present invention relates to a structured light measuring method and a structured light measuring system using the same, and more particularly to a structured light measuring method with high measurement accuracy and a structure using the same Light measurement system. Background technique
  • the structured light measurement system As long as the beam point and the corresponding z coordinate are known, the coordinates of the intersection of the object surface and the beam can be obtained. To this end, the structured light measurement system is calibrated to facilitate the determination of the beam by ensuring that the adjacent structural beams are imaged in the camera without overlapping regions, while recording the corresponding imaging locations at different depths (Z coordinates).
  • an imaging point is known, and the corresponding beam can be quickly determined by determining the beam corresponding to the calibration imaging point closest to the imaging position.
  • interpolation can be used.
  • the imaging distribution of the beam is required to be concentrated, that is, the small imaging displacement corresponds to a large physical depth difference, which results in low measurement accuracy.
  • the technical problem to be solved by the present invention is to provide a structured light measuring method and a structured light measuring system using the same for the defects of the prior art structured light measuring system with low measurement accuracy.
  • the technical solution adopted by the present invention to solve the technical problem thereof is: constructing a structured light measuring method, wherein: comprising: a matching process: using an imaging position of the laser spot on the first camera according to the first of the calibration database Corresponding relationship obtains the number of the laser spot and the low-precision depth, and queries the imaging position of the laser spot in the second camera according to the number of the laser spot and the low-precision depth to obtain candidate matching points, according to the The imaging position of the first camera and the imaging position of the first camera are matched at the candidate matching points in the second camera to obtain a matching result;
  • the calculation process obtaining an imaging position of the second camera that matches the imaging position of the first camera according to the matching result, and determining a precise position of the laser point by a second correspondence in the calibration database.
  • the structured light measuring method of the present invention wherein the calibration database is obtained by a calibration process: calibrating a first correspondence relationship between an imaging position of each laser spot in the first camera and a number of the laser spot and a low precision depth, Determining a second correspondence relationship between an imaging position of each laser spot in the second camera and the number and high-precision depth of the laser spot, and storing the first correspondence and the second correspondence of the calibration in a memory to form the calibration
  • a database is used by the matching process and the computing process.
  • the structured light measuring method of the present invention wherein, during the calibration process, the relative positions of the laser outlet and the first camera are adjusted such that the imaging positions of any two of the laser points in the first camera are Interval.
  • the distance between the second camera and the laser outlet is greater than the distance between the first camera and the laser outlet.
  • the structured light measuring method of the present invention wherein the calibration process and the matching process are performed using a geometric region surrounding an imaging position of the laser spot at different depths.
  • the precise position of the laser spot is obtained by using an interpolation method for the imaging position and the high-precision depth of the second camera.
  • the structured light measuring method of the present invention wherein the matching process is based on the The imaging position of a camera and the imaging position of the first camera are matched at candidate matching points in the second camera, including: finding a reference matching pair according to a difference in imaging brightness of the laser spot; Good match point.
  • the structured light measuring method wherein the matching position according to the imaging position of the first camera and the imaging position of the first camera in the matching process is matched in the second camera
  • the point completion matching, before the finding the reference matching pair according to the difference of the imaging brightness of the laser spot, further includes: performing three-dimensional reconstruction on the candidate matching point to obtain a depth value of the candidate matching point; and matching the candidate matching point according to the depth value of the candidate matching point Conduct a preliminary screening.
  • a structured light measuring system comprising a processing system, an imaging system and a projection system, wherein the imaging system comprises a first camera and a second camera, the projection system comprising a laser generator for generating laser light, the processing system comprising Matching module and computing module,
  • the matching module is configured to obtain a laser spot number and a low-precision depth according to a first correspondence relationship of the calibration database by using an imaging position of the laser spot on the first camera, according to the number of the laser point and the low-precision depth query.
  • the candidate matching points complete the matching to obtain a matching result;
  • the calculating module is configured to: obtain an imaging position of the second camera that matches an imaging position of the first camera according to a matching result, and determine the laser point by a second correspondence in the calibration database The exact location.
  • the structured light measuring system of the present invention wherein the calibration database is obtained by using a calibration module by: calibrating an imaging position of each laser spot in the first camera with a number of the laser point and a first depth of low precision Corresponding relationship, calibrating the imaging position and location of each laser spot in the second camera A second correspondence relationship between the number of the laser spot and the high-precision depth is stored, and the first correspondence and the second correspondence of the calibration are stored in a memory to form the calibration database for use by the matching process and the calculation process.
  • the structured light measuring system of the present invention wherein the calibration module performs calibration, adjusting a relative position of the laser outlet and the first camera such that any two of the laser points are in the first camera
  • the imaging positions are spaced apart from each other.
  • the distance between the second camera and the laser outlet is greater than the distance between the first camera and the laser outlet.
  • the structured light measuring system of the present invention wherein the function of the calibration module and the matching module is implemented using a geometric region surrounding an imaging position of the laser spot at different depths.
  • the precise position of the laser spot is obtained by using an interpolation method for the imaging position and the high-precision depth of the second camera.
  • the structured light measuring system of the present invention wherein the matching position of the matching module according to the imaging position of the first camera and the imaging position of the first camera in the second camera Completing the matching includes: finding a reference matching pair according to the difference of the laser spot imaging brightness; using the reference matching pair to solve the best matching point.
  • the structured light measuring system of the present invention wherein the matching position of the matching module according to the imaging position of the first camera and the imaging position of the first camera in the second camera Completing the matching, before searching for the reference matching pair according to the difference in imaging brightness of the laser spot, the method further comprises: performing three-dimensional reconstruction on the candidate matching point to obtain a depth value of the candidate matching point;
  • the calibration database through the calibration process makes the structured light measurement process simpler and more accurate; the arrangement of the imaging positions of any two laser points in the first camera is mutually spaced to ensure that each laser spot hit on the measured object during the calibration process
  • the accuracy of the correspondence between the imaging position and the depth in the first camera; the distance between the second camera and the laser exit is greater than the distance between the first camera and the laser outlet, so that the second The camera can give a more accurate correspondence between the imaging position and the depth than the first camera; using the geometric region to surround the imaging position of a laser spot at different depths to perform the calibration process and the matching process can speed up the matching speed;
  • the precise position of the laser spot is obtained by using the interpolation method for the imaging position and the depth sequence of the second camera, and a plurality of accurate depth values of the measured object can be obtained.
  • the process of completing the matching according to the sequence of imaging positions of the first camera and the candidate matching points in the second camera in the matching process makes it easier and simpler to obtain the matching result.
  • FIG. 1 is a schematic structural view of a preferred embodiment of a structured light measuring system of the present invention
  • FIG. 2 is a schematic view showing the imaging of a laser spot in a first camera of a preferred embodiment of the structured light measuring system of the present invention
  • FIG. 3 is a diagram showing an image area division of a laser spot in a first camera of a preferred embodiment of the structured light measuring system of the present invention; Imaging diagram of adjacent points;
  • Figure 5 is a diagram showing an image area division of adjacent points of a laser spot in a second camera of a preferred embodiment of the structured light measuring system of the present invention
  • FIG. 6 is a schematic structural view of a preferred embodiment of the structured light measuring system of the present invention.
  • Figure 7 is a block diagram showing a preferred embodiment of the structured light measuring system of the present invention. detailed description
  • a matching process and a calculation process are included, wherein the calibration process and the calibration database to be used in the calculation process are obtained through a calibration process.
  • the first correspondence relationship between the imaging position of each laser spot in the first camera 21 and the number of the laser spot and the low precision depth is firstly determined: For the first camera 21, when the depth is ⁇ , the laser spot i is in the first camera 21 The imaging position is to adjust the position of the laser exit 31 (as shown in FIG. 6) relative to the first camera 21, and to ensure that there is no intersection or mutual spacing between the imaging distributions of any two laser spots. .
  • each set of non-coincident points represents an imaging distribution of a laser spot at different depths
  • each point in the point set represents an imaging position of the laser spot corresponding to the point set at different depths.
  • the data to be recorded for i laser points is ⁇ ( ⁇ /;, ⁇ ⁇ , ⁇ , ⁇ ( ⁇ 7 ⁇ ), ⁇ , ⁇ , ⁇ ( , ), ⁇ . ⁇ , where is the calibration
  • the above-mentioned point set may be surrounded by a regular geometric region, and the shape of the geometric region may be a regular shape such as a rectangle or an ellipse.
  • the data to be recorded for i laser points is ⁇ , ⁇ , ⁇ , ⁇ ( , ), ⁇ , ⁇ , ⁇ ( , 4. ⁇ , where, to calibrate the different depth images of the i-th laser spot Number, which is the parameter of the divided area,
  • the maximum value of the horizontal and vertical coordinates in the vertices of the rectangle is recorded, and the minimum value is recorded; for the elliptical division, the center point and the long and short axis of the ellipse are recorded.
  • the schematic diagram of the square area division is shown in Figure 3.
  • the second corresponding relationship between the imaging position of each laser spot in the second camera 22 and the number and high-precision depth of the laser spot is calibrated:
  • the depth is ⁇ .
  • the laser point i is in the second
  • the imaging position in the camera 22 is this time, and the data to be recorded for the i-th laser point is the record ⁇ ( ⁇ , ⁇ , ⁇ , ⁇ ( , ), 4 ⁇ , ⁇ , ⁇ ( , ), ⁇ . ⁇ , where is the number of experimental data for calibrating the i-th laser point.
  • the imaging position distribution of the two laser points may have intersections, as shown in Figure 4.
  • the shape of the geometric region can be a regular shape such as a rectangle or an ellipse.
  • the data to be recorded for the i-th laser point is ⁇ Param ⁇ ( ⁇ , ⁇ ), ⁇ ⁇ , ⁇ , ⁇ (u), ⁇ ), ⁇ , ⁇ , ⁇ , ⁇ , where, to calibrate the number of experimental data of the i-th laser point, to divide the parameters of the region, For rectangular division, the maximum value of the horizontal and vertical coordinates in the vertices of the rectangle is recorded. Value; for dividing an ellipse, the minor axis length of the ellipse and the center point of the recording. Taking a square area as an example, a schematic diagram of a square area division is shown in FIG. 5.
  • the imaging position in the sequence provided in the head 21 a first imaging, ...,,), is provided a second imaging position of the camera 22 in sequence ( ⁇ ), ..., (, the imaging position of the head 21 to seek the first imaging Its possible matching points in the sequence of imaging positions in the second camera 22, the process is described as follows:
  • the laser spot corresponding to the position can be immediately determined according to the imaging position in the first camera 21. Number and low precision depth (ie the first correspondence).
  • the judgment method is as follows:
  • the imaging position in the first camera 21 be the search record table, and find the item with the largest image formation position and similarity in the entry, that is, ⁇ ⁇ , ⁇ , ⁇ ("; ⁇ , j), ⁇ , ⁇ , ⁇ ( , Ni ), ⁇ ⁇ .
  • the similarity calculation can be distance similarity:
  • Param i is ⁇ min_ if, max_ i , min_ , max_ V ⁇ , then it should satisfy: min_ if ⁇ uf ⁇ max — if, and min_ ⁇ v ⁇ max— ⁇ .
  • the laser point number and the number of the imaging position of the laser spot in the first camera 21 are denoted as Index and T, respectively, and the calibration point data obtained from the calibration data of the first camera 21 is:
  • the sequence of the calibration imaging distribution for finding the laser spot in the second camera 22 is:
  • a candidate calibration point is found from the laser imaging index in the calibration imaging distribution sequence in the second camera 22, and the searching method is: Get the depth of the calibration point within a range of 4"", ie:
  • is the matching search range set by man.
  • the judgment method is as follows:
  • the similarity calculation may be distance similarity:
  • the condition is R ⁇ Threshold, where Threshold is the preset value.
  • Pa is ⁇ min_ u Index
  • max_ ii ndex max_ strict ⁇
  • min_ u Index ⁇ Uj ⁇ max_ u Index
  • min_ ndex ⁇ v ⁇ ⁇ max_ ndex .
  • a preliminary measurement of the laser dot column depth captured by the first camera 21 has been completed before this step, and candidate matching points are found in the dot column of the second camera 22.
  • the candidate matching point of the point in the second camera 22 is ( z/ f, ) (with 3 candidate points)
  • the problem that needs to be solved at this stage is to find the best match of points ( ) from these candidate points.
  • a preliminary screening can be performed on the three depth values, assuming that the measurement accuracy measured by the first camera 21 is d, and the candidate points corresponding to the depth value exceeding the range of ⁇ - ⁇ +) will be rejected. .
  • an allowable range of variation such as 1-5 meters, can be set for the reconstructed depth value for screening. For the sake of convenience, assume that through this step, the points are removed.
  • the imaged spots are sorted according to the area from large to small, and a fixed number N of spots arranged in the front row are selected to calculate the geometry of the spots.
  • the center position finally finds the spot closest to the position through the geometric center, and obtains two spots in the first camera 21 and the second camera 22 as a datum reference that can be trusted.
  • the selection method of such reference matching points does not necessarily guarantee the reliability in the y direction, because some rows of bright spots on the same vertical line are similar when approaching the central area. However, it has high reliability in the X direction, because the difference in brightness in the horizontal direction is relatively large. By statistics, the X value of the center highlighted area can be completely obtained. Fortunately, in the y direction, we can use the outer pole line constraint, and in fact, because of the more regular laser lattice, the candidate points selected by calibration are usually in the same horizontal line, and their y value They are all very close, and we don't need to filter them in the y direction.
  • the steps B and B are a rough screening step, the execution can be selected according to the customer or actual needs.
  • the common positioning algorithm can be used to complete the matching of the imaging position sequence in the known first camera 21 and its candidate matching points in the second camera 22, the algorithm is as follows:
  • the similarity matrix C is calculated, and the similarity may be an attribute such as an imaging area, an imaging long axis, a short axis, or the like, and may also integrate information such as an outer polar line of the stereo vision system, which are technologies that can be implemented by those skilled in the art, and are not detailed. Description:
  • the 0 B method can use existing techniques such as the Hungarian algorithm, the branch and bound method, and the like.
  • the exact position of the laser spot is determined.
  • the imaging position of the second camera 22 is obtained, according to the second position corresponding to the imaging position of the laser spot obtained in the calibration process at the second camera 22 and the number of the laser spot and the high-precision depth. Relationship, the exact position is obtained by interpolation.
  • the distance between the second camera 22 and the laser outlet 31 is greater than the distance between the first camera 21 and the laser outlet 31, and the laser outlet 31 is on the side of the first camera 21 opposite to the second camera 22 or The laser exit 31 is between the first camera 21 and the second camera 22.
  • the laser exit is located on the side of the first camera 21 opposite to the second camera 22 and ensures that the distance between the second camera head 22 and the laser exit 31 is greater than the distance between the first camera 21 and the laser exit 31, as shown in the figure.
  • the laser exit 31 is between the first camera 21 and the second camera 22 and the distance between the second camera 22 and the laser exit 31 is greater than the distance between the first camera 21 and the laser outlet 31, so that the second camera 22 can be ensured. It is possible to give a more accurate correspondence relationship between the imaging position and the depth than the first camera 21, and the accuracy of the second camera 22 can be adjusted according to actual conditions. Of course, on the basis of ensuring that the distance between the second camera 22 and the laser outlet 31 is greater than the distance between the first camera 21 and the laser outlet 31, the laser outlet 31 can also be located at other positions requested by the customer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

说 明 书 结构光测量方法以及系统 技术领域 本发明涉及一种结构光测量方法以及运用该方法的结构光测量系统,更具 体地说,涉及一种高测量精度的结构光测量方法以及运用该方法的结构光测量 系统。 背景技术
在结构光测量系统中, 只要知道光束点及对应的 z坐标, 即可求出物体 表面与该光束交点的坐标。 为此, 结构光测量系统标定时, 通过保证相邻结构 光束在摄像机中成像分布无重合区域来方便确定光束, 同时在不同的深度 (Z 坐标)记录相应的成像位置。在实际测量中, 已知一个成像点, 可迅速确定其 所对应的光束, 确定方法为求距该成像位置最近的标定成像点对应的光束。求 该成像点对应的 3D坐标时, 可采用插值解决。 已有结构光测量系统中, 要保 证任意两光束在不同深度下成像分布没有重合区域,则要求光束的成像分布比 较集中, 即小的成像位移对应大的物理深度差, 这造成其测量精度低。 发明内容
本发明要解决的技术问题在于,针对现有技术的上述结构光测量系统测量 精度低的缺陷, 提供一种结构光测量方法以及运用该方法的结构光测量系统。 本发明解决其技术问题所采用的技术方案是: 构造一种结构光测量方法, 其中, 包括: 匹配过程:利用激光点在第一摄像头上的成像位置根据标定数据库的第一 对应关系得到激光点的编号及低精度深度,根据所述激光点的编号及低精度深 度查询所述的激光点在所述的第二摄像头中的成像位置以获取候选匹配点,根 据所述的第一摄像头的成像位置以及所述的第一摄像头的成像位置在所述的 第二摄像头中的候选匹配点完成匹配, 得到匹配结果; 和
计算过程:根据匹配结果得出所述的第一摄像头的成像位置匹配的所述的 第二摄像头的成像位置,再由所述标定数据库中的第二对应关系确定所述激光 点的精确位置。
本发明所述的结构光测量方法,其中,所述标定数据库通过标定过程获得: 标定各激光点在第一摄像头中的成像位置与所述激光点的编号及低精度深度 的第一对应关系,标定各激光点在第二摄像头中的成像位置与所述激光点的编 号及高精度深度的第二对应关系,并将标定的第一对应关系和第二对应关系储 存在存储器中形成所述标定数据库供所述匹配过程和所述计算过程使用。
本发明所述的结构光测量方法, 其中, 在标定过程中, 调整激光出口和所 述的第一摄像头的相对位置使得任意两个所述的激光点在所述的第一摄像头 中的成像位置相互间隔。
本发明所述的结构光测量方法, 其中,所述的第二摄像头与所述的激光出 口的距离大于所述的第一摄像头与所述的激光出口的距离。
本发明所述的结构光测量方法, 其中, 使用几何区域包围一个所述的激光 点在不同深度下的成像位置来进行所述标定过程和所述匹配过程。
本发明所述的结构光测量方法, 其中, 在计算过程中, 对所述的第二摄像 头的成像位置和高精度深度使用插值的方法获得所述的激光点的精确位置。
本发明所述的结构光测量方法, 其中,所述的匹配过程中的根据所述的第 一摄像头的成像位置以及所述的第一摄像头的成像位置在所述的第二摄像头 中的候选匹配点完成匹配,包括:根据激光点成像亮度的差异寻找基准匹配对; 利用基准匹配对求解最佳匹配点。
本发明所述的结构光测量方法, 其中,所述的匹配过程中的根据所述的第 一摄像头的成像位置以及所述的第一摄像头的成像位置在所述的第二摄像头 中的候选匹配点完成匹配,在所述的根据激光点成像亮度的差异寻找基准匹配 对之前还包括: 对候选匹配点进行三维重建, 得到候选匹配点的深度值; 根据 候选匹配点的深度值对候选匹配点进行初步筛选。
构造一种结构光测量系统, 包括处理系统、 成像系统和投影系统, 其中, 所述成像系统包括第一摄像头和第二摄像头,所述投影系统包括产生激光的激 光发生器, 所述处理系统包括匹配模块和计算模块,
所述匹配模块:用于利用激光点在第一摄像头上的成像位置根据标定数据 库的第一对应关系得到激光点的编号及低精度深度,根据所述的激光点的编号 及低精度深度查询所述的激光点在所述的第二摄像头中的成像位置以获取候 选匹配点,根据所述的第一摄像头的成像位置以及所述的第一摄像头的成像位 置在所述的第二摄像头中的候选匹配点完成匹配, 得到匹配结果; 和
所述计算模块:用于根据匹配结果得出所述的第一摄像头的成像位置匹配 的所述的第二摄像头的成像位置,再由所述标定数据库中的第二对应关系确定 所述激光点的精确位置。
本发明所述的结构光测量系统, 其中,所述标定数据库使用标定模块通过 以下方法获得:标定各激光点在第一摄像头中的成像位置与所述激光点的编号 及低精度深度的第一对应关系,标定各激光点在第二摄像头中的成像位置与所 述激光点的编号及高精度深度的第二对应关系,并将标定的第一对应关系和第 二对应关系储存在存储器中形成所述标定数据库供所述匹配过程和所述计算 过程使用。
本发明所述的结构光测量系统, 其中, 所述标定模块进行标定时, 调整激 光出口和所述的第一摄像头的相对位置使得任意两个所述的激光点在所述的 第一摄像头中的成像位置相互间隔。
本发明所述的结构光测量系统, 其中,所述的第二摄像头与所述的激光出 口的距离大于所述的第一摄像头与所述的激光出口的距离。
本发明所述的结构光测量系统, 其中, 使用几何区域包围一个所述的激光 点在不同深度下的成像位置来实现所述标定模块和所述匹配模块的功能。
本发明所述的结构光测量系统, 其中, 在计算过程中, 对所述的第二摄像 头的成像位置和高精度深度使用插值的方法获得所述的激光点的精确位置。
本发明所述的结构光测量系统, 其中,所述匹配模块中的根据所述的第一 摄像头的成像位置以及所述的第一摄像头的成像位置在所述的第二摄像头中 的候选匹配点完成匹配包括: 根据激光点成像亮度的差异寻找基准匹配对; 利 用基准匹配对求解最佳匹配点。
本发明所述的结构光测量系统, 其中,所述匹配模块中的根据所述的第一 摄像头的成像位置以及所述的第一摄像头的成像位置在所述的第二摄像头中 的候选匹配点完成匹配,在所述的根据激光点成像亮度的差异寻找基准匹配对 之前还包括: 对候选匹配点进行三维重建, 得到候选匹配点的深度值; 根据候 下有益效果:在原有的结构光的基础上增加一个精测量的第二摄像头, 大大提 高了该系统的测量精度。
通过标定过程建立标定数据库使得结构光测量过程更加简单准确;任意两 个激光点在所述的第一摄像头中的成像位置相互间隔的设置保证了标定过程 中打在被测物体上的各个激光点在第一摄像头中的成像位置与深度的对应关 系的准确度;所述的第二摄像头与所述的激光出口的距离大于所述的第一摄像 头与所述的激光出口的距离,使得第二摄像头能给出较第一摄像头更精确的成 像位置与深度的对应关系;使用几何区域包围一个激光点在不同深度下的成像 位置来进行所述标定过程和所述匹配过程,可以加快匹配速度;在计算过程中, 对第二摄像头的成像位置和深度序列使用插值的方法获得激光点的精确位置, 可以得到多个精确的被测物体的深度值。所述的匹配过程中的根据所述的第一 摄像头的成像位置序列以及其在所述的第二摄像头中的候选匹配点完成匹配 的过程使得更容易简单便捷的获取匹配结果。 附图说明
下面将结合附图及实施例对本发明作进一步说明, 附图中:
图 1是本发明结构光测量系统的较佳实施例的结构示意图;
图 2 是本发明结构光测量系统的较佳实施例的激光点在第一摄像头中的 成像示意图;
图 3 是本发明结构光测量系统的较佳实施例的激光点在第一摄像头中的 成像区域划分图; 相邻点的成像示意图;
图 5 是本发明结构光测量系统的较佳实施例的激光点在第二摄像头中的 相邻点的成像区域划分图;
图 6是本发明结构光测量系统的一个较佳实施例的结构示意图;
图 7是本发明结构光测量系统的一个较佳实施例的结构示意图。 具体实施方式
下面结合图示, 对本发明的优选实施例作详细介绍。
如图 1所示, 在本发明的结构光测量方法中, 包括匹配过程和计算过程, 其中匹配过程和计算过程中需要使用的标定数据库通过标定过程获得。
标定过程中:
首先标定各个激光点在第一摄像头 21中的成像位置与激光点的编号及低 精度深度的第一对应关系: 对第一摄像头 21, 设深度为 ^时, 激光点 i在第一 摄像头 21中的成像位置为 通过调整激光出口 31 (如图 6所示) 相对 于第一摄像头 21的位置, 保证任意两个激光点成像分布不存在交叉或相互间 隔区域, 该过程成像示意图如图 2所示。 图 2中, 每个互不重合点集代表一个 激光点在不同深度下的成像分布,点集中的每个点代表该点集对应的激光点在 不同深度下的成像位置, 此时, 对于第 i 个激光点需要记录的数据为 {{(ζ/;, τ ^},···,{(ζ7χ), },···,{( , ),^.}}, 其中, 为标定第 i个激光点的不同 深度图像的个数。 实际中, 为了加快匹配速度, 也可以用规则的几何区域包围 上述点集, 几何区域的形状可以为矩形、 椭圆等规则形体, 此时, 对于第 i个 激光点需要记录的数据为 τ ,Ο, ···,{( , ), },···,{( , 4.}},其中, 为标定第 i个激光点的不同深度图像的个数, 为划分区域的参数, 对 于矩形划分, 则记录矩形顶点中横、 纵坐标的极大值, 极小值; 对于椭圆形划 分, 则记录椭圆的中心点和长短轴。 方形区域划分示意图如图 3所示。
然后标定各个激光点在第二摄像头 22中的成像位置与所述激光点的编号 及高精度深度的第二对应关系: 对第二摄像头 22, 设深度为^.时, 激光点 i 在第二摄像头 22中的成像位置为 此时, 对于第 i个激光点需要记录的 数据为记录 {{( τ ,Ο, ···,{( , ), 4},···,{( , ),^.}}, 其中, 为标定第 i个激 光点的实验数据的个数。 需要指明的是, 两个激光点的成像位置分布可能有 交叉, 其示意图如图 4所示。 实际中, 为了加快匹配速度, 也可以用规则的几 何区域包围上述点集, 几何区域的形状可以为矩形、 椭圆等规则形体, 此时, 对 于 第 i 个 激 光 点 需 要 记 录 的 数 据 为 { Param { (^, τ ), ^ },···, { (u), ^), ^} ,···,{ , ^ ,其中, 为标定第 i个激光点的 实验数据的个数, 为划分区域的参数, 对于矩形划分, 则记录矩形顶点 中横、 纵坐标的极大值, 极小值; 对于椭圆形划分, 则记录椭圆的中心点和长 短轴。 以方形区域划分为例, 方形区域划分示意图如图 5所示。
匹配过程中:
设第一摄像头 21中的成像位置序列 ,···, , ), 设第二摄 像头 22中的成像位置序列 ( , ^),···,( , ,对第一摄像头 21中的成 像位置 求其在第二摄像头 22中的成像位置序列中可能的匹配点, 过 程描述如下:
( 1 )、根据第一摄像头 21中的成像位置和第一摄像头 21的记录表确定激 光点的编号及低精度深度;
对于第一摄像头 21, 由于各个激光点成像点集互不重合或互有间隔, 根 据第一摄像头 21 中的成像位置 可立即判断出该位置对应的激光点的 编号及低精度深度 (即第一对应关系)。
根据标定时记录表的数据不同, 判断方法如下:
A、 未使用几何区域包围点集的情况,
设第一摄像头 21中的成像位置为^ 搜索记录表,找到表项中成 像 位 置 与 相 似 度 最 大 的 那 个 表 项 , 即 {{ },···, { ("; ·, j), ·},···,{( , Ni ), } }。
相似度计算可以为距离相似度:
B、 使用几何区域包围点集的情况,
搜索记录表, 找出 ^, 落入划分区域中 的表项, 即 { Param ,… , { ( , ), ·},···,{( , ^ ), ^ }}。
以矩开区域为例, Parami为 {min_ if, max_ i , min_ , max_ V}, 则应满足: min_ if < uf < max— if, 且 min_ < v < max— ^。
(2)、 根据上述得到的激光点的编号和该激光点在第一摄像头 21中的成 像位置的编号, 查询该激光点在第二摄像头 22中的成像分布, 并根据分布情 况获取候选匹配点。
设激光点编号和该激光点在第一摄像头 21中的成像位置的编号, 分别记 为 Index 和 T, 则从第一摄像头 21 的标定数据中得到的标定点数据为:
K Index Index Index、
uT , ντ ), }。
查找得到激光点在第二摄像头 22中的标定成像分布序列为:
Figure imgf000010_0001
d , ···,{( , , ···,{( :,
从激光点 Index在第二摄像头 22中的标定成像分布序列中找出候选的标 定点, 查找方法为: 获得深度在以 4" "为中心某一个范围内标定点, 即:
dex -d< dex < 4^ + d
这里 ^为人为设定的匹配搜索范围。
设第二摄像头 22 中满足条件的标定点编号序列为 {inde^- ndex^- ndex.} , 对序列中的每个点, 求第二摄像头 22中的成像位置 (u , Λ · · ·, ( , ^), · · ·, (uN B, )中相似度满足要求的点。
根据标定时记录表的数据不同, 判断方法如下:
A、 未使用几何区域包围点集的情况,
对第二摄像头 22 中满足条件的标定成像序列中的每一个标定点 {iu^^Z ^Z 从成像序列 ( ,Λ···,( , 中找出相似度满 足要求点作为候选点。
所述相似度计算可以为距离相似度:
= - "=p _ + =厂 Φ
条件为 R≥ Threshold, 这里 Threshold为预先设定的值
B、 使用几何区域包围点集的情况,
从成像序列 ( , κ 、中落入划分区域 的成像 点。
以矩形区域为例, Pa 为 {min_ uIndex,max_ iindex,mm_ max_严}, 则应满足: min_ uIndex < Uj < max_ uIndex, 且 min_ ndex < v^< max_ ndex
(3)、 已知第一摄像头 21中的成像位置序列 « ,···,^4, 及 其在第二摄像头 22中的候选匹配点, 完成匹配。
此步骤之前已经完成了第一摄像头 21 所拍摄的激光点列深度的初步测 量, 并且在第二摄像头 22的点列中寻找出了候选匹配点。 对于第一摄像头 21 中的某个点^ 假设已知了该点在第一摄像头 21中求得的深度值为 , 该点在第二摄像头 22中的候选匹配点为 (z/f , ) (以 3个候选 点为例, 并不局限于此), 则本阶段需要解决的问题就是从这些候选点中找到 点 ( , 的最佳匹配。
A、 候选点三维重建
首先,我们可以利用的是双目立体视觉的技术。对第一摄像头 21和第二摄 像头 22进行双目标定之后, 即可完成高精度的三维重建。假设分别将 ( , v ), ("f, 与 « 配对, 进行三维重建, 可以得到 3个深度值 , z ,
B、 由深度进行筛选
之后,可以利用 对这 3个深度值进行一个初步的筛选,假定通过第一摄像 头 21测量出 的测量精度为 d, 则超出了 ^- ^+ )范围的深度值所对应的 候选点将被剔除。此外, 针对不同的应用场合, 如果被拍摄的场景深度范围有 限, 还可以为重建出的深度值设定一个允许的变动范围, 例如 1-5米, 来进行 筛选。 为了方便叙说, 假定, 通过此步骤, 点 被剔除。
C、 寻找基准匹配对
下一步, 我们需要从剩下的候选匹配点中, 为点 ( , 寻找出最佳匹配。 以前述情形为例, 我们需要从 中找出一个最佳匹配点。 这是一 个比较困难的问题, 因为这两个点都满足了我们的精度要求,都是比 精度更 高的测量值。 因此, 我们只能通过激光点在摄像头中的成像位置来考虑筛选。 这样的话,我们想到需要在第一摄像头 21和第二摄像头 22中找到一组值得信任 的基准匹配对。
当激光出口 31放置在两个摄像头之间时, 公共视野较大, 因此我们选用这 种情形。通常来说,规则的激光点列都是对点光源进行干涉和衍射的叠加产物, 一个重要的特征就是靠近光源中心的点由于更多的干涉,亮度会明显高于周边 的点, 反映到成像上就是点的成像面积要大于周边的点。利用这个特征, 加上 两摄像头的公共成像视野大,我们采用了一个统计的方法来寻找可信任的基准 匹配对。
在第一摄像头 21和第二摄像头 22的两幅图像中,分别对成像的光点按照面 积从大到小排序, 选出排在前列的固定数目 N个光点, 计算出这些光点的几何 中心位置, 最后通过这个几何中心寻找最接近此位置的光点,得到第一摄像头 21和第二摄像头 22中的两个光点作为可以信任的基准匹配。
这里需要说明的是, 这样的基准匹配点的选取方法, 并不一定能保证在 y 方向上的可靠性, 因为靠近中心区域时, 同一竖直线上的某几排亮斑是比较相 似的。 但是在 X方向上却拥有很高的可靠性, 因为水平方向的亮度差异是比较 大的, 通过统计, 完全可以得到中心高亮区域的 X值。 所幸的是, 在 y方向, 我 们可以利用外极线约束, 而且事实上, 由于打出的是较为规则的激光点阵, 通 过标定选取的这些候选点通常都是处于同一水平线上下的, 其 y值都是极其接 近的, 我们并不需要在 y方向对其进行筛选。
D、 利用基准匹配求解最佳匹配点
假设得到的基准匹配对为^ ax, L), (i,^ax) , 则剩下的工作就变得简单 了。通过前面的分析, 我们只需要在 X方向上进行比较, 即只需要将 |^ - |, x- 与 | -";1做比较即可, 与 最为接近的值, 意味着在 X方向, 第二摄像头 22中此候选点到基准匹配点的距离与第一摄像头 21中 到相 应基准匹配点的距离最为相近, 这个候选匹配点即是我们认为的最佳匹配点, 这里假设点^, 被选中。 以上, 即完成了从第一摄像头 21 的成像位置到第 二摄像头 22的成像位置的匹配, 而 即是第一摄像头 21 中点 « )的更高 精度的深度值。
由于所述 、 B步骤为一个粗筛选的步骤, 可根据客户或实际需要选择执 行。
同时也可用通用的指派算法完成已知第一摄像头 21 中的成像位置序列 及其在第二摄像头 22中的候选匹配点的匹配, 算法 如下:
设 { ···, ν···, ½}, { ,····, ·····, }为两个 2D标记序列, 首先求相似性矩 阵 C={ }, 这里 ^为 ;和 的相似性, 总相似度 F定义为:
M M
F =∑∑ CijXij 其中, = 1,2···,Μ, gxy =1,1 = 1,2···, Μ , xy为 0或 1。 其中, Xij
Figure imgf000014_0001
M*N的矩阵。
通过改变 Xij, 求总相似度 F的最大值, 若 Xij=l, 则判定 .和 .为配对, 反 之认为不是匹配。
前述的匹配过程, 假设任意 A和任意 都可能匹配, 故运算量比较大。 该 问题属于 N-P难题, 对于该问题有很多优化算法, 但所有优化算法的运算量 都随相似性矩阵 C尺寸的增大而迅速增大,
A 0
当相似性矩阵 C有如下特点时, C: 时,该问题可简化为分别对^ 4和
0 B
H进行前述处理, 运算量大大减小, 其中 A、 B为矩阵。 为此, 实际运行中,
A 0
一般都通过各种约束, 使 (有^ 的情形。 常用的约束条件有立体视觉
0 B 系统的外极线约束、 成像相似性等约束条件: 计算相似性矩阵 C, 相似性可以为成像面积、 成像长轴、 短轴等属性, 也 可以融合立体视觉系统的外极线等信息,这些为本领域技术人员均可实现的技 术, 不再详述:
A 0
可以得出 C, 如^ 的形式, 分别对 A、 B进行处理。 A、 B的处理
0 B 方法可以采用现有技术, 如匈牙利算法、 分支定界法等。
计算过程中:
根据匹配结果, 确定激光点的精确位置。
已知激光点的编号和低精度深度, 得到第二摄像机 22的成像位置, 根据 标定过程中得到的激光点在第二摄像机 22的成像位置和该激光点的编号和高 精度深度的第二对应关系, 通过插值的方法获得精确位置。
如图 6、 7所示, 第二摄像头 22与激光出口 31的距离大于第一摄像头 21 与激光出口 31 的距离, 且激光出口 31在第一摄像头 21 的与第二摄像头 22 相对的一侧或激光出口 31在第一摄像头 21和第二摄像头 22之间。 如图 6所 示,激光出口位于第一摄像头 21的与第二摄像头 22相对的一侧且保证第二摄 像头 22与激光出口 31的距离大于第一摄像头 21与激光出口 31的距离,如图
7所示, 激光出口 31在第一摄像头 21和第二摄像头 22之间且第二摄像头 22 与激光出口 31的距离大于第一摄像头 21与激光出口 31的距离, 这样做可以 保证第二摄像头 22能给出较第一摄像头 21更精确的成像位置与深度的对应关 系, 并且可以根据实际情况调整第二摄像头 22的精度。 当然在保证第二摄像 头 22与激光出口 31的距离大于第一摄像头 21与激光出口 31的距离的基础上, 激光出口 31也能位于客户要求的其他位置。
以上所述仅为本发明的实施例, 并非因此限制本发明的专利范围, 凡是利 用本发明说明书及附图内容所作的等效结构变换,或直接或间接运用在其他相 关的技术领域, 均同理包括在本发明的专利保护范围内。

Claims

权 利 要 求 书
1、 一种结构光测量方法, 其特征在于, 包括:
匹配过程: 利用激光点在第一摄像头(21 )上的成像位置根据标定数据库 的第一对应关系得到激光点的编号及低精度深度,根据所述激光点的编号及低 精度深度查询所述的激光点在所述的第二摄像头(22 )中的成像位置以获取候 选匹配点,根据所述的第一摄像头(21 )的成像位置以及所述的第一摄像头(21 ) 的成像位置在所述的第二摄像头(22 )中的候选匹配点完成匹配, 得到匹配结 果; 和
计算过程: 根据匹配结果得出与所述的第一摄像头(21 )的成像位置匹配 的所述的第二摄像头(22 )的成像位置, 再由所述标定数据库中的第二对应关 系确定所述激光点的精确位置。
2、 根据权利要求 1所述的结构光测量方法, 其特征在于, 所述标定数据 库通过标定过程获得:
标定各激光点在第一摄像头(21 )中的成像位置与所述激光点的编号及低 精度深度的第一对应关系, 标定各激光点在第二摄像头(22 )中的成像位置与 所述激光点的编号及高精度深度的第二对应关系,并将标定的第一对应关系和 第二对应关系储存在存储器中形成所述标定数据库供所述匹配过程和所述计 算过程使用。
3、 根据权利要求 2所述的结构光测量方法, 其特征在于, 在标定过程中, 调整激光出口 (31 )和所述的第一摄像头(21 ) 的相对位置使得任意两个所述 的激光点在所述的第一摄像头 (21 ) 中的成像位置相互间隔。
4、 根据权利要求 3所述的结构光测量方法, 其特征在于, 所述的第二摄 像头 (22 ) 与所述的激光出口 (31 ) 的距离大于所述的第一摄像头 (21 )与所 述的激光出口 (31 ) 的距离。
5、 根据权利要求 2所述的结构光测量方法, 其特征在于, 使用几何区域 包围一个所述的激光点在不同深度下的成像位置来进行所述标定过程和所述 匹配过程。
6、 根据权利要求 2所述的结构光测量方法, 其特征在于, 在计算过程中, 对所述的第二摄像头(22 )的成像位置和高精度深度使用插值的方法获得所述 的激光点的精确位置。
7、 根据权利要求 1所述的结构光测量方法, 其特征在于, 所述的匹配过 程中的根据所述的第一摄像头 (21 ) 的成像位置以及所述的第一摄像头 (21 ) 的成像位置在所述的第二摄像头 (22 ) 中的候选匹配点完成匹配, 包括:
根据激光点成像亮度的差异寻找基准匹配对;
利用基准匹配对求解最佳匹配点。
8、 根据权利要求 7所述的结构光测量方法, 其特征在于, 所述的匹配过程 中的根据所述的第一摄像头(21 ) 的成像位置以及所述的第一摄像头(21 ) 的 成像位置在所述的第二摄像头(22 )中的候选匹配点完成匹配, 在所述的根据 激光点成像亮度的差异寻找基准匹配对之前还包括:
对候选匹配点进行三维重建, 得到候选匹配点的深度值;
根据候选匹配点的深度值对候选匹配点进行初步筛选。
9、一种结构光测量系统,包括处理系统(1)、成像系统 (2)和投影系统 (3), 其特征在于, 所述成像系统 (2)包括第一摄像头 (21)和第二摄像头 (22), 所述 投影系统 (3)包括产生激光的激光发生器, 所述处理系统(1 )包括匹配模块和 计算模块,
所述匹配模块: 用于利用激光点在第一摄像头(21 )上的成像位置根据标 定数据库的第一对应关系得到激光点的编号及低精度深度,根据所述的激光点 的编号及低精度深度查询所述的激光点在所述的第二摄像头(22 )中的成像位 置以获取候选匹配点, 根据所述的第一摄像头(21 )的成像位置以及所述的第 一摄像头(21 ) 的成像位置在所述的第二摄像头(22 ) 中的候选匹配点完成匹 配, 得到匹配结果; 和
所述计算模块: 用于根据匹配结果得出所述的第一摄像头(21 )的成像位 置匹配的所述的第二摄像头(22 )的成像位置, 再由所述标定数据库中的第二 对应关系确定所述激光点的精确位置。
10、根据权利要求 9所述的结构光测量系统, 其特征在于, 所述标定数据 库使用标定模块通过以下方法获得:
标定各激光点在第一摄像头(21 )中的成像位置与所述激光点的编号及低 精度深度的第一对应关系, 标定各激光点在第二摄像头(22 )中的成像位置与 所述激光点的编号及高精度深度的第二对应关系,并将标定的第一对应关系和 第二对应关系储存在存储器中形成所述标定数据库供所述匹配过程和所述计 算过程使用。
11、 根据权利要求 10所述的结构光测量系统, 其特征在于, 所述标定模 块进行标定时, 调整激光出口 (31 )和所述的第一摄像头(21 ) 的相对位置使 得任意两个所述的激光点在所述的第一摄像头 (21 ) 中的成像位置相互间隔。
12、 根据权利要求 11所述的结构光测量系统, 其特征在于, 所述的第二 摄像头 (22 ) 与所述的激光出口 (31 ) 的距离大于所述的第一摄像头 (21 ) 与 所述的激光出口 (31 ) 的距离。
13、 根据权利要求 10所述的结构光测量系统, 其特征在于, 使用几何区 域包围一个所述的激光点在不同深度下的成像位置实现所述标定模块和所述 匹配模块的功能。
14、 根据权利要求 10所述的结构光测量系统, 其特征在于, 在计算过程 中, 对所述的第二摄像头(22 )的成像位置和高精度深度使用插值的方法获得 所述的激光点的精确位置。
15、根据权利要求 9所述的结构光测量系统, 其特征在于, 所述匹配模块 中的根据所述的第一摄像头(21 ) 的成像位置以及所述的第一摄像头(21 ) 的 成像位置在所述的第二摄像头 (22 ) 中的候选匹配点完成匹配, 包括:
根据激光点成像亮度的差异寻找基准匹配对;
利用基准匹配对求解最佳匹配点。
16、根据权利要求 15所述的结构光测量系统, 其特征在于, 所述匹配模块 中的根据所述的第一摄像头(21 ) 的成像位置以及所述的第一摄像头(21 ) 的 成像位置在所述的第二摄像头(22 )中的候选匹配点完成匹配, 在所述的根据 激光点成像亮度的差异寻找基准匹配对之前还包括:
对候选匹配点进行三维重建, 得到候选匹配点的深度值;
根据候选匹配点的深度值对候选匹配点进行初步筛选。
PCT/CN2010/072528 2010-05-07 2010-05-07 结构光测量方法以及系统 WO2011137596A1 (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP10850965.4A EP2568253B1 (en) 2010-05-07 2010-05-07 Structured-light measuring method and system
JP2013509420A JP5567738B2 (ja) 2010-05-07 2010-05-07 構造化光測定方法及びシステム
AU2010352828A AU2010352828B2 (en) 2010-05-07 2010-05-07 Structured-light based measuring method and system.
US13/696,785 US9360307B2 (en) 2010-05-07 2010-05-07 Structured-light based measuring method and system
PCT/CN2010/072528 WO2011137596A1 (zh) 2010-05-07 2010-05-07 结构光测量方法以及系统
CN201080066602.7A CN102884397B (zh) 2010-05-07 2010-05-07 结构光测量方法以及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2010/072528 WO2011137596A1 (zh) 2010-05-07 2010-05-07 结构光测量方法以及系统

Publications (1)

Publication Number Publication Date
WO2011137596A1 true WO2011137596A1 (zh) 2011-11-10

Family

ID=44903583

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2010/072528 WO2011137596A1 (zh) 2010-05-07 2010-05-07 结构光测量方法以及系统

Country Status (6)

Country Link
US (1) US9360307B2 (zh)
EP (1) EP2568253B1 (zh)
JP (1) JP5567738B2 (zh)
CN (1) CN102884397B (zh)
AU (1) AU2010352828B2 (zh)
WO (1) WO2011137596A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104918031A (zh) * 2014-03-10 2015-09-16 联想(北京)有限公司 深度恢复设备和方法
CN107860337A (zh) * 2017-10-11 2018-03-30 华天科技(昆山)电子有限公司 基于阵列相机的结构光三维重建方法与装置
WO2020019682A1 (zh) * 2018-07-25 2020-01-30 Oppo广东移动通信有限公司 激光投射模组、深度获取装置和电子设备
CN111983709A (zh) * 2020-07-02 2020-11-24 中科兴华(深圳)科技服务有限公司 一种激光检测器的多物体捕捉方法
CN116067305A (zh) * 2023-02-09 2023-05-05 深圳市安思疆科技有限公司 一种结构光测量系统和测量方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942802A (zh) * 2014-04-29 2014-07-23 西安电子科技大学 基于随机模板的结构光动态场景深度获取方法
DE102014113389A1 (de) 2014-09-17 2016-03-17 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern
CN106289092B (zh) * 2015-05-15 2020-10-27 高准国际科技有限公司 光学装置及其发光装置
CN105578173A (zh) * 2016-02-20 2016-05-11 深圳市晶源动力科技有限公司 一种快速三维空间投影摄像视觉识别系统
CN106767707B (zh) * 2016-12-16 2019-06-04 中南大学 一种基于结构光的储物状态检测方法及系统
CN108267097B (zh) * 2017-07-17 2020-07-10 先临三维科技股份有限公司 基于双目三维扫描系统的三维重构方法和装置
CN108257112B (zh) * 2017-12-27 2020-08-18 北京七鑫易维信息技术有限公司 过滤光斑的方法和装置
CN108428251A (zh) * 2018-03-09 2018-08-21 深圳市中捷视科科技有限公司 一种基于机器视觉技术激光结构光自动标定方法
CN111508012B (zh) * 2019-01-31 2024-04-19 先临三维科技股份有限公司 线条纹误配检测和三维重建的方法、装置
CN110702007B (zh) * 2019-10-31 2020-11-24 华中科技大学 一种基于mems扫描振镜的线结构光三维测量方法
CN112833816A (zh) * 2020-12-31 2021-05-25 武汉中观自动化科技有限公司 一种标志点定位与智能反向定位混合的定位方法和系统
CN113252603B (zh) * 2021-04-16 2022-03-01 清华大学 一种多层透明球床的最优折射率测量方法
CN116593282B (zh) * 2023-07-14 2023-11-28 四川名人居门窗有限公司 一种基于结构光的玻璃抗冲击反应测试系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1483999A (zh) * 2003-08-15 2004-03-24 清华大学 测量物体三维表面轮廊的方法及系统
WO2005010825A2 (en) * 2003-07-24 2005-02-03 Cognitens Ltd. Method and sytem for the three-dimensional surface reconstruction of an object
CN1595054A (zh) * 2004-07-14 2005-03-16 天津大学 双目线结构光传感器一致性精确标定方法及其实施装置
JP2006090896A (ja) * 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置
WO2007079805A1 (de) * 2006-01-08 2007-07-19 Hermann Tropf Erstellung eines abstandsbildes
CN101089547A (zh) * 2007-07-11 2007-12-19 华中科技大学 一种基于彩色结构光的二维三频解相测量方法
CN101689299A (zh) * 2007-06-20 2010-03-31 汤姆逊许可证公司 用于图像的立体匹配的系统和方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5061062A (en) * 1990-07-02 1991-10-29 General Electric Company Focus spot size controller for a variable depth range camera
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US6466305B1 (en) * 1999-05-24 2002-10-15 Lmi Technologies Inc. High speed laser triangulation measurements of shape and thickness
JP4337203B2 (ja) * 2000-01-24 2009-09-30 ソニー株式会社 距離画像生成装置および距離画像生成方法、並びにプログラム提供媒体
JP3677444B2 (ja) * 2000-10-16 2005-08-03 住友大阪セメント株式会社 三次元形状測定装置
US20030038933A1 (en) * 2001-04-19 2003-02-27 Dimensional Photonics Inc. Calibration apparatus, system and method
JP4761670B2 (ja) * 2001-08-27 2011-08-31 三洋電機株式会社 動立体モデル生成装置及び方法
US6856314B2 (en) * 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
WO2004011876A1 (en) * 2002-07-25 2004-02-05 Solutionix Corporation Apparatus and method for automatically arranging three dimensional scan data using optical marker
JP3624353B2 (ja) * 2002-11-14 2005-03-02 有限会社テクノドリーム二十一 3次元形状計測方法およびその装置
CA2435935A1 (en) * 2003-07-24 2005-01-24 Guylain Lemelin Optical 3d digitizer with enlarged non-ambiguity zone
JP4855749B2 (ja) * 2005-09-30 2012-01-18 株式会社トプコン 距離測定装置
JP5002144B2 (ja) * 2005-09-30 2012-08-15 株式会社トプコン 三次元計測用投影装置及びシステム
JP2007114168A (ja) * 2005-10-17 2007-05-10 Applied Vision Systems Corp 画像処理方法および装置、並びにプログラム
JP4986679B2 (ja) * 2007-03-29 2012-07-25 学校法人福岡工業大学 非静止物体の三次元画像計測装置、三次元画像計測方法および三次元画像計測プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005010825A2 (en) * 2003-07-24 2005-02-03 Cognitens Ltd. Method and sytem for the three-dimensional surface reconstruction of an object
CN1483999A (zh) * 2003-08-15 2004-03-24 清华大学 测量物体三维表面轮廊的方法及系统
CN1595054A (zh) * 2004-07-14 2005-03-16 天津大学 双目线结构光传感器一致性精确标定方法及其实施装置
JP2006090896A (ja) * 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置
WO2007079805A1 (de) * 2006-01-08 2007-07-19 Hermann Tropf Erstellung eines abstandsbildes
CN101689299A (zh) * 2007-06-20 2010-03-31 汤姆逊许可证公司 用于图像的立体匹配的系统和方法
CN101089547A (zh) * 2007-07-11 2007-12-19 华中科技大学 一种基于彩色结构光的二维三频解相测量方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104918031A (zh) * 2014-03-10 2015-09-16 联想(北京)有限公司 深度恢复设备和方法
CN107860337A (zh) * 2017-10-11 2018-03-30 华天科技(昆山)电子有限公司 基于阵列相机的结构光三维重建方法与装置
CN107860337B (zh) * 2017-10-11 2020-03-24 华天科技(昆山)电子有限公司 基于阵列相机的结构光三维重建方法与装置
WO2020019682A1 (zh) * 2018-07-25 2020-01-30 Oppo广东移动通信有限公司 激光投射模组、深度获取装置和电子设备
CN111983709A (zh) * 2020-07-02 2020-11-24 中科兴华(深圳)科技服务有限公司 一种激光检测器的多物体捕捉方法
CN116067305A (zh) * 2023-02-09 2023-05-05 深圳市安思疆科技有限公司 一种结构光测量系统和测量方法

Also Published As

Publication number Publication date
EP2568253B1 (en) 2021-03-10
EP2568253A1 (en) 2013-03-13
AU2010352828B2 (en) 2013-07-11
JP2013525821A (ja) 2013-06-20
EP2568253A4 (en) 2013-10-02
AU2010352828A1 (en) 2012-11-29
CN102884397A (zh) 2013-01-16
CN102884397B (zh) 2015-07-15
US20130050476A1 (en) 2013-02-28
JP5567738B2 (ja) 2014-08-06
US9360307B2 (en) 2016-06-07

Similar Documents

Publication Publication Date Title
WO2011137596A1 (zh) 结构光测量方法以及系统
JP6440730B2 (ja) 4カメラ組の平面アレイの特徴点の3次元測定システム及び測定方法
CN107730561B (zh) 深度相机温度误差校正方法及系统
US8452081B2 (en) Forming 3D models using multiple images
CN112634374B (zh) 双目相机的立体标定方法、装置、系统及双目相机
CN111121722A (zh) 结合激光点阵和偏振视觉的双目三维成像方法
RU2668404C2 (ru) Устройство для записи изображения в трехмерном масштабе, способ создания 3D-изображения и способ формирования устройства для записи изображения в трехмерном масштабе
JP6453908B2 (ja) 4カメラ組の平面アレイの特徴点のマッチング方法、及びそれに基づく測定方法
Zhou et al. A novel way of understanding for calibrating stereo vision sensor constructed by a single camera and mirrors
CN107084680A (zh) 一种基于机器单目视觉的目标深度测量方法
CN109658497B (zh) 一种三维模型重建方法及装置
JPWO2011125937A1 (ja) キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置
CN112381921A (zh) 一种边缘重建方法及系统
CN110542540A (zh) 结构光模组的光轴对齐矫正方法
CN111402309B (zh) 一种多目立体相机的校准及深度图像处理方法
JP6388806B2 (ja) 射影画像生成装置と射影画像生成プログラムと射影画像生成方法
CN114422653A (zh) 一种书籍展平线激光快速标定方法及激光扫描仪
JP2009210486A (ja) 奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラム
CN115661223B (zh) 光场深度估计方法、装置、计算机设备和存储介质
CN113689555B (zh) 一种双目图像特征匹配方法及系统
US11561088B2 (en) Modeling the topography of a three-dimensional surface
US11822287B1 (en) Binocular holographic machine vision system and method for identifying locations of target elements
CN114299129A (zh) 深度恢复方法、电子设备和计算机可读存储介质
CN115760750A (zh) Doe质量检测方法、系统、电子设备和存储介质
JP2000020720A (ja) 画像処理方法および画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080066602.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10850965

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010850965

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013509420

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13696785

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2010352828

Country of ref document: AU

Date of ref document: 20100507

Kind code of ref document: A