JP2003262510A - Method of measuring three-dimensional shape and three- dimensional scanner - Google Patents

Method of measuring three-dimensional shape and three- dimensional scanner

Info

Publication number
JP2003262510A
JP2003262510A JP2002064006A JP2002064006A JP2003262510A JP 2003262510 A JP2003262510 A JP 2003262510A JP 2002064006 A JP2002064006 A JP 2002064006A JP 2002064006 A JP2002064006 A JP 2002064006A JP 2003262510 A JP2003262510 A JP 2003262510A
Authority
JP
Japan
Prior art keywords
camera
point
image
images
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002064006A
Other languages
Japanese (ja)
Inventor
Satoshi Someya
聡 染矢
Masakazu Inaba
正和 稲葉
Koji Okamoto
孝司 岡本
Gentaro Tanaka
源太郎 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Todai TLO Ltd
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Todai TLO Ltd
Center for Advanced Science and Technology Incubation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST, Todai TLO Ltd, Center for Advanced Science and Technology Incubation Ltd filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2002064006A priority Critical patent/JP2003262510A/en
Publication of JP2003262510A publication Critical patent/JP2003262510A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional scanner that is simple in constitution, low in price, and high in resolution and accuracy. <P>SOLUTION: This three-dimensional scanner is provided with: a camera 1; a periscope 2 rotatably attached to the camera 1; and a three-dimensional shape analyzing section 5 which analyzes the movement of a desired point on a plurality of images of an object picked up by means of the camera 1 at every prescribed rotational angle synchronously to rotation between the images upon receiving the images, finds the parallax with respect to the desired point based on the analyzed results, and finds the distance to the point from the camera 1 based on the parallax. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物体の三次元形状
を簡便に測定するための三次元形状測定方法及び三次元
スキャナに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape measuring method and a three-dimensional scanner for easily measuring the three-dimensional shape of an object.

【0002】[0002]

【従来の技術】工業界では部品組み立てを正確に行うた
めに部品の寸法精度が定められている。その測定には主
に接触式の点位置精度の良い測定器あるいは定点計測用
精密センサが用いられている。この種の測定器はデザイ
ン・試作の分野にも流用されている。ところで、これら
の分野では主に自由曲面からなるモデル・試作品・製品
形状を忠実に測定することが必要であり、そのためには
大量の点データが必要である。従来の測定器ではそのよ
うな大量の点データを短時間で得ることは困難であると
ともにデータ処理用のコンピュータ性能の制約により、
少量の点データを元にしたCADの点補間処理で自由曲
面に対応せざるを得なかった。そのため、CAD入力後
にモデル形状が変化することが多かった。これによる問
題を回避するためには各段階の技術者間での綿密な打ち
合わせを要するとともに作業者の熟練、多くの作業時間
が不可欠であった。最近、特に自動車業界を中心にデザ
インを含む開発工程短縮がさけばれ、短時間で面計測を
実現する非接触計測器が求められている。さらに、従来
は少ない測定点で大まかな計測が行われていた部品にお
いても自由曲面を含むものが多くなり、詳細な前面検査
の取り組みが積極的に進行している。さらに、対象物を
動かしながら計測することも多くなってきている。
2. Description of the Related Art In the industry, dimensional accuracy of parts is defined in order to assemble parts accurately. For the measurement, a contact-type measuring instrument with good point position accuracy or a precision sensor for fixed point measurement is mainly used. This type of measuring instrument is also used in the fields of design and trial production. By the way, in these fields, it is necessary to faithfully measure models, prototypes, and product shapes mainly composed of free-form surfaces, and a large amount of point data is required for that purpose. With conventional measuring instruments, it is difficult to obtain such a large amount of point data in a short time, and due to the limitation of computer performance for data processing,
The CAD point interpolation process based on a small amount of point data had to correspond to a free-form surface. Therefore, the model shape often changed after CAD input. In order to avoid the problem caused by this, it was necessary to have a detailed meeting among the engineers at each stage, and the skill of the operator and a lot of working time were indispensable. Recently, especially in the automobile industry, non-contact measuring instruments that realize surface measurement in a short time have been demanded in order to shorten the development process including design. Further, even in the case of parts that have been roughly measured with a small number of measurement points in the past, many of them include free-form surfaces, and efforts for detailed front surface inspection are being actively promoted. Furthermore, it is becoming more common to measure objects while moving them.

【0003】[0003]

【発明が解決しようとする課題】現在、これらの要求に
対して、対象物に特化した大規模なシステムで対応して
いる。これらはいずれもポジティブ手法であるモアレ
法、CT法に基づいているため、解像度向上のためには
システムが高価で大掛かりなものとならざるを得ない。
Currently, these requirements are met by a large-scale system specialized for an object. Since all of these are based on the positive methods such as the moire method and the CT method, the system must be expensive and large-scaled for improving the resolution.

【0004】一方、工業界では形状計測に対する要求が
ますます高まり、高速・非接触・高精度な3次元形状測
定器が必要とされている。また、コンピュータグラフィ
ックス(CG)やインターネット通信、WWWにおいて
も3次元形状表示を行うためのツールの需要が高まって
いる。特に現在、政府主導で推進しているインターネッ
ト通信技術改革において、CGやWWW通信のための3
次元データ入力デバイスは革新的な技術となりえる。し
かしながら、そのためには計測機器の簡易化、小型化に
よる便宜性と、低価格化及び時空間解像度の大幅な向上
による信頼性が不可欠である。
On the other hand, in the industrial world, the demand for shape measurement is increasing more and more, and a high-speed, non-contact, highly accurate three-dimensional shape measuring instrument is required. In addition, there is an increasing demand for tools for displaying three-dimensional shapes in computer graphics (CG), internet communication, and WWW. In particular, in the Internet communication technology reform currently being promoted by the government, there are three areas for CG and WWW communication.
Dimensional data input device can be an innovative technology. However, for that purpose, convenience by simplification and miniaturization of measurement equipment and reliability by cost reduction and drastic improvement of spatiotemporal resolution are essential.

【0005】本発明は係る課題を解決するためになされ
たもので、簡易な三次元形状測定方法及び構成が簡単で
価格が安い三次元スキャナを提供することを目的とす
る。
The present invention has been made to solve the above problems, and an object of the present invention is to provide a simple three-dimensional shape measuring method and a three-dimensional scanner having a simple structure and a low price.

【0006】[0006]

【課題を解決するための手段】この発明に係る三次元形
状測定方法は、カメラ及びこのカメラに回転可能に取り
付けられたペリスコープを用意する第1ステップと、前
記ペリスコープを回転させる第2ステップと、回転に同
期して前記カメラで対象物を撮影し、所定の回転角毎に
複数の画像を得る第3ステップと、画像上の所望の点に
ついて前記複数の画像間における移動を分析して、前記
点についての視差を求める第4ステップと、前記視差に
基づき前記カメラから前記点までの距離を求める第5ス
テップとを備えるものである。
A three-dimensional shape measuring method according to the present invention comprises a first step of preparing a camera and a periscope rotatably attached to the camera, and a second step of rotating the periscope. The third step of capturing an image of an object with the camera in synchronization with rotation and obtaining a plurality of images at each predetermined rotation angle, and analyzing the movement between the plurality of images at a desired point on the image, It comprises a fourth step of obtaining a parallax for a point and a fifth step of obtaining a distance from the camera to the point based on the parallax.

【0007】この発明に係る三次元形状測定方法は、カ
メラを移動させる円弧あるいは閉曲線を定義する第1ス
テップと、前記円弧あるいは閉曲線に沿って前記カメラ
を移動させる第2ステップと、前記カメラの移動に応じ
て前記カメラで対象物を撮影し、所定の回転角毎に複数
の画像を得る第3ステップと、画像上の所望の点につい
て前記複数の画像間における移動を分析して、前記点に
ついての視差を求める第4ステップと、前記視差に基づ
き前記カメラから前記点までの距離を求める第5ステッ
プとを備えるものである。
The three-dimensional shape measuring method according to the present invention comprises a first step of defining an arc or a closed curve for moving the camera, a second step of moving the camera along the arc or the closed curve, and a movement of the camera. According to the third step of photographing an object with the camera to obtain a plurality of images at each predetermined rotation angle, and analyzing the movement between the plurality of images for a desired point on the image, And a fifth step of obtaining the distance from the camera to the point based on the parallax.

【0008】この発明に係る三次元形状測定方法は、カ
メラと、このカメラに回転可能に取り付けられたペリス
コープを用意する第1ステップと、スペックル光を測定
対象物に投影する第2ステップと、前記ペリスコープを
回転させる第3ステップと、回転に同期してスペックル
パターンを撮影し、所定の回転角毎に複数の画像を得る
第4ステップと、画像上の所望の点について前記複数の
画像間における移動を分析して、前記点についての視差
を求める第5ステップと、前記視差に基づき前記カメラ
から前記点までの距離を求める第6ステップとを備える
ものである。
A three-dimensional shape measuring method according to the present invention comprises a camera, a first step of preparing a periscope rotatably attached to the camera, and a second step of projecting speckle light onto an object to be measured. A third step of rotating the periscope, a fourth step of capturing a speckle pattern in synchronization with the rotation to obtain a plurality of images for each predetermined rotation angle, and a step between the plurality of images at a desired point on the image. And a sixth step of analyzing the movement in the above to obtain a parallax about the point, and a sixth step of obtaining a distance from the camera to the point based on the parallax.

【0009】この発明に係る三次元形状測定方法は、カ
メラを移動させる円弧あるいは閉曲線を定義する第1ス
テップと、スペックル光を測定対象物に投影する第2ス
テップと、前記円弧あるいは閉曲線に沿って前記カメラ
を移動させる第3ステップと、前記カメラの移動に応じ
てスペックルパターンを撮影し、所定の回転角毎に複数
の画像を得る第4ステップと、画像上の所望の点につい
て前記複数の画像間における移動を分析して、前記点に
ついての視差を求める第5ステップと、前記視差に基づ
き前記カメラから前記点までの距離を求める第6ステッ
プとを備えるものである。
A three-dimensional shape measuring method according to the present invention comprises a first step of defining a circular arc or a closed curve for moving a camera, a second step of projecting speckle light onto an object to be measured, and a straight line along the circular arc or the closed curve. And a third step of moving the camera, a fourth step of photographing a speckle pattern according to the movement of the camera to obtain a plurality of images at predetermined rotation angles, and a plurality of desired points on the image. The fifth step of analyzing the movement between the images to obtain the parallax for the point and the sixth step of obtaining the distance from the camera to the point based on the parallax.

【0010】好ましくは、所定の大きさの検索窓を用意
し、前記ペリスコープ又は前記カメラの移動方向に沿っ
て検索を行い、前記複数の画像間の相互相関を求め、前
記相互相関の結果に基づき前記点の移動に係る円弧の半
径又は直径を求め、前記円弧の半径又は直径に基づき前
記カメラから前記点までの距離を求める。
Preferably, a search window having a predetermined size is prepared, a search is performed along the moving direction of the periscope or the camera, cross-correlation between the plurality of images is obtained, and based on the result of the cross-correlation. The radius or diameter of the arc relating to the movement of the point is determined, and the distance from the camera to the point is determined based on the radius or diameter of the arc.

【0011】好ましくは、いずれかの画像の前記点を基
点として回転中心を固定し、半径のみの自由度をもつ扇
型を与え、この条件の下で前記点の移動を前記扇型に対
応づけることにより円弧の半径又は直径を求める。
Preferably, the center of rotation is fixed with the point of any one of the images as a base point, and a fan shape having a degree of freedom of radius only is given, and the movement of the point is associated with the fan shape under this condition. To obtain the radius or diameter of the arc.

【0012】好ましくは、回転中心のXY座標と半径の
3自由度を与え、この条件の下で前記点の移動を前記扇
型に対応づけることにより円弧の半径又は直径を求め
る。
Preferably, the XY coordinates of the center of rotation and three degrees of freedom of the radius are given, and the radius or diameter of the arc is obtained by associating the movement of the point with the sector shape under this condition.

【0013】好ましくは、前記複数の画像間における変
位量を加算して周長とし、この周長から円弧の半径又は
直径を求める。
Preferably, the displacement amount between the plurality of images is added to obtain the circumference, and the radius or diameter of the arc is obtained from this circumference.

【0014】この発明に係る三次元形状測定方法は、カ
メラで対象物を撮影して第1画像を得る第1ステップ
と、前記カメラを所定の軌跡に沿って移動させる第2ス
テップと、前記カメラで対象物を撮影して第2画像を得
る第3ステップと、前記第1画像と前記第2画像間でオ
プティカルフローを求める第4ステップと、前記オプテ
ィカルフローに含まれるベクトルに基づき前記対象物上
の点までの距離情報を求める第5ステップと、前記距離
情報にアフィン変換を施して前記対象物を特定の方向か
ら見た空間に統合する第6ステップと、前記カメラを所
定の軌跡に沿って移動させつつ、前記第1ステップ乃至
前記第6ステップを繰り返すステップと、統合された複
数の距離情報を平均化することにより前記対象物上の点
までの距離を求めるステップとを備えるものである。
In the three-dimensional shape measuring method according to the present invention, a first step of obtaining a first image by photographing an object with a camera, a second step of moving the camera along a predetermined locus, and the camera On the object based on a vector included in the optical flow, a third step of capturing an object to obtain a second image in step 4, a fourth step of obtaining an optical flow between the first image and the second image, and The fifth step of obtaining the distance information to the point, the sixth step of affine transforming the distance information to integrate the object into the space viewed from a specific direction, and the camera along a predetermined trajectory. A step of repeating the first step to the sixth step while moving and averaging a plurality of integrated distance information to obtain a distance to a point on the object. It is intended and a step.

【0015】上記方法(請求項9に係る方法)において
は撮影時のカメラの位置情報が(好ましくは厳密に)わ
かっている必要がある。本発明に係る他の手法には、カ
メラを円弧あるいは閉曲線(円、楕円を含む)に沿って
移動させる必要があるものの、「カメラの位置情報など
の撮影条件に関する情報の精度が低くても解(形状)を
得ることができる」「カメラが一つなのでカメラの位置
情報に関する情報が少なくてよい」という利点があり、
WWW通信などに利用する際の比較的低精度の応用に適
しているといえる。もし、カメラの位置情報などの撮影
条件を正確に捉えることができるのであれば、上記方法
(請求項9に係る方法)においてはカメラの移動軌跡の
制限を緩和できて、カメラの任意の動き(軌跡)につい
て適用することができる(例えばカメラが直線的な縦や
横の動きをする場合でも本発明を適用できる)。
In the above method (the method according to claim 9), the position information of the camera at the time of photographing needs to be known (preferably strictly). Other techniques according to the present invention require the camera to move along a circular arc or a closed curve (including a circle and an ellipse). However, even if the accuracy of the information regarding the shooting conditions such as the camera position information is low, (Shape) can be obtained. "There is an advantage that there is only one camera so there is little information about the camera position information."
It can be said that it is suitable for relatively low precision applications when used for WWW communication and the like. If the shooting conditions such as the position information of the camera can be accurately grasped, in the above method (method according to claim 9), the restriction of the movement locus of the camera can be relaxed, and any movement of the camera ( (Trajectory) (for example, the present invention can be applied even when the camera makes a linear vertical or horizontal motion).

【0016】この発明に係る三次元スキャナは、カメラ
と、このカメラに回転可能に取り付けられたペリスコー
プと、前記ペリスコープの所定の回転角毎に撮影された
対象物の画像を前記カメラから受けて、前記画像上の所
望の点について前記複数の画像間における移動を分析
し、分析結果に基づき前記点についての視差を求め、前
記視差に基づき前記カメラから前記点までの距離を求め
る三次元形状解析部とを備えるものである。
The three-dimensional scanner according to the present invention receives from the camera an image of a camera, a periscope rotatably attached to the camera, and an object photographed at each predetermined rotation angle of the periscope, A three-dimensional shape analysis unit that analyzes movement between the plurality of images for a desired point on the image, obtains parallax for the point based on the analysis result, and obtains a distance from the camera to the point based on the parallax. And with.

【0017】この発明に係る三次元スキャナは、カメラ
と、このカメラを所定の円弧あるいは閉曲線上に沿って
移動させる移動手段と、所定の回転角毎に撮影された対
象物の画像を前記カメラから受けて、前記画像上の所望
の点について前記複数の画像間における移動を分析し、
分析結果に基づき前記点についての視差を求め、前記視
差に基づき前記カメラから前記点までの距離を求める三
次元形状解析部とを備えるものである。
A three-dimensional scanner according to the present invention includes a camera, a moving means for moving the camera along a predetermined arc or a closed curve, and an image of an object taken at a predetermined rotation angle from the camera. Receiving and analyzing movement between the plurality of images for a desired point on the image,
And a three-dimensional shape analysis unit that obtains the parallax for the point based on the analysis result and the distance from the camera to the point based on the parallax.

【0018】さらに、光源と、前記光源からの光を拡散
して前記光の強度分布が粒状に分布するスペックルパタ
ーンを発生させる拡散手段とを備え、前記スペックルパ
ターンは前記対象物上に投影され、前記三次元形状解析
部は、前記対象物上のスペックルパターンについて処理
を行うようにしてもよい。
Further, the light source, and a diffusing means for diffusing the light from the light source to generate a speckle pattern in which the intensity distribution of the light is distributed in a granular form, and the speckle pattern is projected on the object. Then, the three-dimensional shape analysis unit may process the speckle pattern on the object.

【0019】カメラの移動手段として、対象物の方向を
向いた回転軸と、この回転軸に取り付けられたアーム
と、回転軸を駆動するモータとを備えるものが考えられ
る。回転角度の信号を得るために回転軸にロータリーエ
ンコーダーなどのセンサを設けるとよい。もっともこれ
は必須ではない。アームの端にカメラが取り付けられ
る。カメラのレンズの光軸は前記回転軸と平行であるこ
とが望ましいが、これに限定されない。
As a means for moving the camera, it is conceivable to provide a rotating shaft facing the object, an arm attached to the rotating shaft, and a motor for driving the rotating shaft. A sensor such as a rotary encoder may be provided on the rotation shaft to obtain a rotation angle signal. However, this is not mandatory. A camera is attached to the end of the arm. The optical axis of the camera lens is preferably parallel to the rotation axis, but is not limited thereto.

【0020】本発明(請求項9の発明を除く。以下この
段落において同じ)におけるカメラの移動軌跡について
説明する。本発明においてカメラの移動軌跡は円あるい
は円弧が好ましいが、本発明はこれに限定されない。例
えば、カメラが楕円運動する場合にも適用できる。より
一般的には、カメラの移動軌跡は閉曲線、つまり軌跡が
任意形状であっても起点と終点が同じであれば同様の効
果を奏する。円運動のときは、多くの画像ペアで特定の
点、特定の移動量(オプティカルフローでのベクトルの
大きさ)に帰着することが自明なベクトルが存在するた
め有効な移動量予測が比較的容易であるが、当該予測は
円以外の軌跡であっても可能だからである。
The locus of movement of the camera in the present invention (excluding the invention of claim 9 and the same in the following paragraphs) will be described. In the present invention, the movement locus of the camera is preferably a circle or an arc, but the present invention is not limited to this. For example, it can be applied when the camera makes an elliptical motion. More generally, the movement locus of the camera has a closed curve, that is, even if the locus has an arbitrary shape, the same effect can be obtained if the starting point and the end point are the same. In the case of circular motion, it is relatively easy to predict the effective amount of movement because there are vectors that are obvious to reduce to a certain point and a certain amount of movement (the magnitude of the vector in the optical flow) in many image pairs. This is because the prediction is possible even with a trajectory other than a circle.

【0021】[0021]

【発明の実施の形態】発明の実施の形態1.図1にこの
発明の実施の形態1に係る三次元スキャナの概略図を示
す。CCDカメラ1の出力は三次元形状・色解析部5に
入力され、ここで後述の処理がなされ物体10の三次元
形状が求められる。CCDカメラ1のレンズにはペリス
コープ(潜望鏡)2が取り付けられている。ペリスコー
プ2は、離れた位置に視線をおくために使われる光学器
械である。視線を離すために、装置内部にミラーやプリ
ズムが設けられる。具体的には、ペリスコープ2内には
互いに例えば平行な2枚の鏡21、22が設けられる。
もっとも鏡21,22は平行である必要はなく、比較的
小さい物体を対象とする場合はむしろ平行でないことが
好ましい。カメラ正面の鏡22は45度であると設計そ
の他の点で好ましい。物体10からの光は鏡21、22
により反射され、図1の光路Lに沿ってカメラ1のレン
ズに導かれる。鏡21から物体10への光路は、カメラ
1のレンズの光軸と平行であることが望ましい(本発明
はこれに限定されない)。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiment 1 of the Invention FIG. 1 shows a schematic diagram of a three-dimensional scanner according to a first embodiment of the present invention. The output of the CCD camera 1 is input to the three-dimensional shape / color analysis unit 5, where the processing described below is performed to obtain the three-dimensional shape of the object 10. A periscope (periscope) 2 is attached to the lens of the CCD camera 1. The periscope 2 is an optical instrument used to place a line of sight at a distant position. Mirrors and prisms are provided inside the device to separate the line of sight. Specifically, in the periscope 2, for example, two mirrors 21 and 22 that are parallel to each other are provided.
However, the mirrors 21 and 22 do not have to be parallel, and are preferably not parallel when a relatively small object is targeted. The mirror 22 on the front of the camera is preferably 45 degrees in terms of design and others. The light from the object 10 is reflected by the mirrors 21 and 22.
Is reflected by and is guided to the lens of the camera 1 along the optical path L in FIG. The optical path from the mirror 21 to the object 10 is preferably parallel to the optical axis of the lens of the camera 1 (the invention is not limited to this).

【0022】ペリスコープ2はカメラ1の光軸を中心と
して図1に示すように回転可能であり、図示しない駆動
機構により所定の速度で回転する。あるいはステッピン
グモータにより所定時間間隔(例えば処理時間に応じ
て)で回転する。なお、ペリスコープ2の回転軸には図
示しないロータリーエンコーダを設けるようにしてもよ
い。これによりペリスコープ2の位置(回転角)を知る
ことができる。回転角の情報は必要に応じて三次元形状
・色解析部5に送られる。
The periscope 2 is rotatable about the optical axis of the camera 1 as shown in FIG. 1, and is rotated at a predetermined speed by a drive mechanism (not shown). Alternatively, the stepping motor rotates at a predetermined time interval (for example, according to the processing time). A rotary encoder (not shown) may be provided on the rotary shaft of the periscope 2. This allows the position (rotation angle) of the periscope 2 to be known. The information on the rotation angle is sent to the three-dimensional shape / color analysis unit 5 as necessary.

【0023】図1において、ペリスコープ2の鏡21側
の開口部はカメラ1のレンズの光軸を中心として半径r
の円(円弧)Cを描く。すなわち、カメラ1は本来のレ
ンズの位置からrだけ離れた位置から見た物体10の画
像を撮影することができる。ペリスコープ2の回転に伴
い、カメラ1は最大2r離れた位置から撮影した、視差
のある2つ以上の画像を撮影することができる。つま
り、単一のCCDカメラ1の中央正面にπ/4度に傾けた
ミラー22を設置し、その外側に任意の角度(簡単のた
めπ/4)に傾けたミラー21を置き、このミラーシス
テム(ペリスコープ2)をカメラの視線を軸に回転させ
ることにより、あたかもカメラを視線方向一定のまま回
転させた、あるいは対象物をカメラの軸に垂直に回転さ
せたかのような連続する複数の画像を撮影できる。
In FIG. 1, the opening of the periscope 2 on the side of the mirror 21 has a radius r around the optical axis of the lens of the camera 1.
Draw a circle (arc) C of. That is, the camera 1 can take an image of the object 10 viewed from a position r away from the original lens position. With the rotation of the periscope 2, the camera 1 can capture two or more images with parallax captured from a position separated by a maximum of 2r. That is, a mirror 22 tilted by π / 4 degrees is installed in front of the center of a single CCD camera 1, and a mirror 21 tilted at an arbitrary angle (π / 4 for simplicity) is placed outside the mirror 22. By rotating the (periscope 2) around the line of sight of the camera, multiple continuous images are taken as if the camera were rotated while keeping the line of sight constant or the object was rotated vertically to the axis of the camera. it can.

【0024】図2はステレオ視の原理図である。焦点距
離f、焦点から対象物までの奥行き方向距離をzとする
と、カメラの移動量がr(図1の直径2rに相当)のと
き得られる視差はdである。距離zが小さいほど視差d
は大きい。この視差dはペリスコープ2が一回転する間
に対象物の各点が描く円軌跡の直径であり、画像を解析
することにより得られる。視差dから対象物までの距離
zを算出できる。
FIG. 2 is a principle diagram of stereoscopic vision. When the focal length is f and the depth direction distance from the focus to the object is z, the parallax obtained when the amount of camera movement is r (corresponding to the diameter 2r in FIG. 1) is d. The smaller the distance z is, the parallax d
Is big. This parallax d is the diameter of the circular locus drawn by each point of the object while the periscope 2 makes one rotation, and is obtained by analyzing the image. Distance from parallax d to object
z can be calculated.

【0025】要するに、カメラを平行に回転させると、
スクリーン上の各点は円を描くがその半径は近くの物ほ
ど大きく、遠くの物ほど小さい。そこで、まずカメラを
一度ずつ回転させて、得られる複数の画像(例えば360
枚)にPIV(粒子画像流速測定法)を適用して変移解析
することにより各画像間の変移ベクトルを得る。次に、
これを合成することによりスクリーン上各点の軌跡(円
又は円弧)が得られる。この半径から次のように各点ま
での距離が求められる。 z=rf/d ただし、z:カメラから対象点までの奥行き(距離)、
r:カメラの回転半径(又は直径)、d:測定された円の
半径、f:カメラの焦点距離
In short, when the camera is rotated in parallel,
Each point on the screen draws a circle, but the radius is larger for closer objects and smaller for farther objects. Therefore, first rotate the camera once to obtain multiple images (for example, 360
PIV (particle image velocimetry) is applied to one sheet) and the transition vector is obtained by performing the transition analysis. next,
By combining these, the locus (circle or arc) of each point on the screen can be obtained. From this radius, the distance to each point is obtained as follows. z = rf / d where z: depth (distance) from the camera to the target point,
r: radius of gyration (or diameter) of camera, d: radius of measured circle, f: focal length of camera

【0026】PIVにより画像上における対象物の各点の
軌跡を求めるためにオプティカルフローという考え方が
用いられる。図3にその原理図を示す。オプティカルフ
ローとは、マッチングによって得た画像上の点の移動前
後における変化の情報であり、見かけの速度ベクトルを
示す。図3において、第1画像P1には円C1が、第1画像
P2から所定時間後に撮影された第2画像P2には円C2が写
っている。第1画像P1と第2画像P2を比較すると円Cが
左から右へ移動したことが分かる。このことを示すオプ
ティカルフローがP3であり、ベクトルVが円Cの移動を示
す。単なる点は移動がなかったことを示す。
The concept of optical flow is used to obtain the trajectory of each point of the object on the image by PIV. FIG. 3 shows the principle diagram. The optical flow is information on changes before and after movement of points on the image obtained by matching, and indicates an apparent velocity vector. In FIG. 3, the circle C1 is the first image P1
The circle C2 is shown in the second image P2 taken a predetermined time after P2. Comparing the first image P1 and the second image P2, it can be seen that the circle C has moved from left to right. The optical flow showing this is P3, and the vector V shows the movement of the circle C. A mere dot indicates no movement.

【0027】静止した外界を、光軸に垂直に一定速度で
並進運動しているカメラの撮像面上に写し出される画像
中の物体による濃淡パターンの移動方向はすべて同じだ
が、遠くにある物体ほどゆっくりと、近くにある物体ほ
ど速く動く。すなわち、このオプティカルフローは距離
情報を持っており、カメラに近いものはベクトル量が大
きくなり、遠くにあるものはベクトル量が小さくなる。
撮像面上に写し出された物体の見かけの速度の大きさが
3次元空間中での物体の奥行き情報を与える。
The moving directions of the light and shade patterns by the objects in the image projected on the image pickup surface of the camera that is translating the stationary outside world at a constant speed perpendicular to the optical axis are all the same, but the farther the object is, the slower it moves. And the closer the object is, the faster it moves. That is, this optical flow has distance information, and the vector amount becomes large in the one near the camera and becomes small in the one far from the camera.
The apparent velocity of the object projected on the imaging surface provides depth information of the object in the three-dimensional space.

【0028】次に、図4のフローチャートを用いてこの
発明の実施の形態1に係る三次元形状測定方法について
説明する。
Next, the three-dimensional shape measuring method according to the first embodiment of the present invention will be described with reference to the flowchart of FIG.

【0029】S1:ペリスコープ2を所定の角度(例え
ば1度)間隔で回転させる。全体で1回転以上させても
よいし、部分的に回転(回転角度<360°)に留めて
もよい。
S1: The periscope 2 is rotated at a predetermined angle (for example, 1 degree). It may be rotated once or more as a whole, or may be partially rotated (rotation angle <360 °).

【0030】S2:対象物をCCDカメラ1により撮影
する。カメラレンズ前部に取り付けられたペリスコープ
2の回転はCCDカメラ1のフレームと同期され、微小
回転角ごとに画像が記録される。各画像は、それぞれ微
妙に異なる視点から撮影された画像となり、その視差が
情報として記録される。この画像のパターン移動を相互
相関法を用いて追跡することにより、対象物体表面まで
の距離を算出することができる(S3〜S7)。なお、
2枚の鏡がともに45度でない場合には、好ましくは3
次元空間上で座標変換を施すことにより2枚の鏡が平行
である場合に得られるはずの画像へ変換する。
S2: The object is photographed by the CCD camera 1. The rotation of the periscope 2 attached to the front part of the camera lens is synchronized with the frame of the CCD camera 1, and an image is recorded for each minute rotation angle. Each image is an image captured from a slightly different viewpoint, and the parallax is recorded as information. By tracking the pattern movement of this image using the cross-correlation method, the distance to the target object surface can be calculated (S3 to S7). In addition,
If the two mirrors are not both 45 degrees, preferably 3
By performing coordinate transformation in the dimensional space, it is transformed into an image that should be obtained when the two mirrors are parallel.

【0031】S3:画像上の所望の領域を選択する。画
像(例えば 512x512 pixel)を適当なサイズの格子(5x5 o
r 10x10 etc.) で分割し、当該領域について相関法で対
応点を検索する。一般的なステレオ視の手法と異なり、
本手法では都合の良い点を予め与えたり、あるいは探し
てこれらについて処理をすることを行っていない。
S3: Select a desired area on the image. An image (for example 512x512 pixels) can be displayed on a grid (5x5 o
r 10x10 etc.), and search for corresponding points in the area by the correlation method. Unlike general stereo vision methods,
In this method, convenient points are not given in advance or searched for and processed.

【0032】S4:相互相関法を用いて複数の画像間に
おけるパターン移動を追跡する。得られた画像間の移動
ベクトルの算出には、PIV(粒子画像流速測定法)で
良く用いられている相互相関法を適用する。相互相関法
とは、2枚の画像間のパターンマッチングを行う手法の
ひとつである。具体的には、画像Aと画像Bがあると仮
定したとき、画像Aの一部を切り出して、それと似たパ
ターンが画像Bのどこにあるかを探す手法である。切り
出した画像Aの一部と、画像Bの任意の同サイズの画像
との相互相関係数を算出し、この相関係数が最大となる
位置を取得することで、パターンマッチングを行う手法
である。前記複数の画像間で相互相関法PIVを適用す
ることで、両画像間のパターンマッチングを行い、移動
ベクトルを算出することができる。
S4: Track the pattern movement between a plurality of images using the cross-correlation method. The cross-correlation method often used in PIV (Particle Image Velocity Measurement Method) is applied to the calculation of the movement vector between the obtained images. The cross-correlation method is one of the methods for performing pattern matching between two images. Specifically, when it is assumed that the image A and the image B are present, a part of the image A is cut out and a pattern similar to the image A is searched for in the image B. This is a method for performing pattern matching by calculating a cross-correlation coefficient between a part of the cut-out image A and an image of arbitrary same size of the image B, and acquiring the position where this correlation coefficient is maximum. . By applying the cross-correlation method PIV between the plurality of images, it is possible to perform pattern matching between the two images and calculate the movement vector.

【0033】相関法による移動ベクトル解析についてさ
らに詳しく説明する。所定の画素(例えば5×5pixel)
の検索窓を用いて既知の移動方向(1次元)についての
み相関を計算する。ペリスコープ2の回転方向は既知で
あるから検索の方向を1次元に限定することができる。
1次元の探索ですむので計算量を節約できる。計算量の
節約は画像総数が多い本システムにとって有効である。
また、ステレオ法に見られるエピポーラ線探索の必要が
ない点も本システムのメリットである。
The movement vector analysis by the correlation method will be described in more detail. Predetermined pixel (for example, 5 × 5 pixel)
The correlation is calculated only for the known moving direction (one-dimensional) using the search window of. Since the rotation direction of the periscope 2 is known, the search direction can be limited to one dimension.
Since only one-dimensional search is required, the amount of calculation can be saved. Saving the amount of calculation is effective for this system with many images.
Another advantage of this system is that it does not require the search for epipolar lines as seen in the stereo method.

【0034】(参考:エピポーラジオメトリ(Epipolar
geometory) 三次元空間の対象物を複数のカメラで投
影した場合には複数の画像間に特有な幾何が現れる。こ
のような幾何のことをエピポーラジオメトリと呼ぶ。図
12において、Xは三次元空間中の点、C,C‘は視
点、π、π’は投影面、ΣはC,C’,Xにより定義さ
れるエピポーラ平面、エピポーラ平面と画像面πが交差
してできる直線Lはエピポーラ線、視点CとC‘を結ぶ
直線が画像面π、π’と交差してできる点e、e‘はエ
ピポール(Epipole)である)
(Reference: Epipolar geometry
When an object in three-dimensional space is projected by multiple cameras, a unique geometry appears between multiple images. Such a geometry is called an epipolar geometry. In FIG. 12, X is a point in a three-dimensional space, C and C ′ are viewpoints, π and π ′ are projection planes, Σ is an epipolar plane defined by C, C ′, and X, and an epipolar plane and an image plane π. The straight line L formed by the intersection is the epipolar line, and the line e, e ′ formed by the line connecting the viewpoints C and C ′ with the image plane π, π ′ is the epipole.

【0035】上記検索において精度を向上させるために
サブピクセル解析を行う。そのために線形またはスプラ
イン法によるピクセル補間を行う。併せて、各画像ペア
の検索窓ごとに算出した移動ベクトルについて線形補間
を行う。サブピクセル解析は、対応点がピクセルの中心
にない場合、その輝度を補間して演算する処理である。
検索において、ピクセル中心(又は検索窓)の単位で対
応を求めるというやり方では対応づけの精度が低下す
る。そのためピクセル中心間で輝度の補正を行い、ピク
セル中心上に限定しない対応づけを行う。これをサブピ
クセル解析という。この際の補間として、線形補間ある
いはスプライン補間を適用できる。スプライン補間の方
がやや精度が高くなる。
Subpixel analysis is performed in order to improve accuracy in the above search. Therefore, pixel interpolation by the linear or spline method is performed. At the same time, linear interpolation is performed on the movement vector calculated for each search window of each image pair. The sub-pixel analysis is a process of interpolating and calculating the brightness when the corresponding point is not in the center of the pixel.
In the search, if the correspondence is obtained in the unit of pixel center (or search window), the correspondence accuracy decreases. Therefore, the brightness is corrected between the pixel centers, and the correspondence is not limited to the pixel centers. This is called subpixel analysis. As the interpolation at this time, linear interpolation or spline interpolation can be applied. Spline interpolation is slightly more accurate.

【0036】また、画素単位の変位量計測による変位量
を用いて輝度の時間微分と空間微分を求めて演算するこ
とにより、画素以下の変位量を求めるようにしてもよ
い。
Further, the displacement amount below the pixel may be obtained by calculating and calculating the time differential and the spatial differential of the brightness using the displacement amount obtained by measuring the displacement amount in pixel units.

【0037】陰線があった場合には相関法による追跡が
困難になるが、この確率を低減するために回転の正逆両
方向からそれぞれ移動ベクトル計算を行う。信頼性の高
い対応点が得られない場合には計算を打ち切る。なお、
得られた対応付けベクトルはピクセル中心に存在すると
は限らない。また、対象(又はカメラ)の回転にあわせ
て軌跡を追跡するにあたり、例えば、1〜2枚目間での
移動ベクトルの終点が、2〜3枚目で求めたベクトルの
始点と一致しない限り、ベクトルを補間する必要があ
る。
If there is a hidden line, tracking by the correlation method becomes difficult, but in order to reduce this probability, movement vector calculation is performed from both forward and reverse directions of rotation. The calculation is aborted when a reliable corresponding point cannot be obtained. In addition,
The obtained correspondence vector does not always exist at the pixel center. Further, in tracking the locus in accordance with the rotation of the target (or the camera), unless the end point of the movement vector between the first and second sheets matches the start point of the vector obtained for the second and third sheets, for example, The vector needs to be interpolated.

【0038】なお、流れの可視化などで通常行われてい
るように検索窓を徐々に小さくしながら対応を求める方
法や検索窓をオーバーラップさせながら計算する方法を
用いても、距離解析手法、または対象とする物体などに
よって効果が見られる(特に撮影条件が悪い、撮影枚数
が少ない、といった場合)。再帰的相関法も使用可能で
ある。
It should be noted that the distance analysis method, or the method of calculating the correspondence while the search window is gradually reduced or the calculation is performed while the search windows are overlapped, as is commonly used in flow visualization, is also possible. The effect can be seen depending on the target object (especially when the shooting conditions are bad, the number of shots is small, etc.). A recursive correlation method can also be used.

【0039】また、いずれの解析手法を用いる場合で
も、移動量予測を行う際、同時に検索窓を小さくする、
及び/又はグリッドを細かくするようにしてもよい。つ
まり相関計算によって得られたベクトルやその分散では
なく、仮に算出した距離情報から格子点の移動量予測を
行いつつ同時に格子間隔を狭めるようにしてもよい。
In addition, whichever analysis method is used, the search window is made small at the same time when the movement amount is predicted.
And / or the grid may be fine. That is, the lattice spacing may be narrowed at the same time while predicting the movement amount of the lattice points from the distance information that is temporarily calculated, instead of the vector obtained by the correlation calculation and the variance thereof.

【0040】以上のように、対応点間を結ぶベクトル
(オプティカルフロー)を線形補間またはスプライン補
間しながら、画面上の対象物の任意点について1回転分
(1回転以上あるいは1回転未満でもよい)の軌跡を追
跡する。
As described above, one rotation (one rotation or more or less than one rotation) may be performed on an arbitrary point of the object on the screen while performing linear interpolation or spline interpolation on the vector (optical flow) connecting the corresponding points. Track the trajectory of.

【0041】S5:指定された点におけるパターン移動
の円弧の直径(視差)を求める。円弧の直径を算出する
手法として、例えば、1自由度扇形フィッティング法、
3自由度扇形フィッティング法及び変位直接計算法を適
用可能である。もっとも本発明はこれらに限定されな
い。
S5: The diameter (parallax) of the arc of the pattern movement at the designated point is obtained. As a method of calculating the diameter of the arc, for example, a 1-degree-of-freedom fan-shaped fitting method,
The 3-degree-of-freedom sector fitting method and the displacement direct calculation method can be applied. However, the present invention is not limited to these.

【0042】(1)1自由度扇形フィッティング法 開始フレームを基点に回転中心を固定し、半径Rのみの
1自由度を与える手法である。計算開始フレームを基点
に正逆両方向に1/2周ずつ移動ベクトルを追跡し軌跡を
算出する。この軌跡に対して、同じく開始フレームを基
点に半径(視差に相当)rのみが未知の扇形を考え、最小
二乗法で扇形にフィッティングする。この方法は自由度
が少ないため陰線を回避しやすく、また、軌跡の追跡に
よる移動ベクトル誤差の積算もある程度は緩和できると
考えられる。ただし開始フレームを基点とした正逆計算
のため、ミラーの回転のぶれなどによって始点=終点が
成立しない場合は大きな誤差を生じる。
(1) One-degree-of-freedom fan-shaped fitting method This is a method in which the center of rotation is fixed with the start frame as a base point and only one radius of radius R is given. The locus is calculated by tracing the movement vector every 1/2 turn in both the forward and reverse directions with the calculation start frame as the base point. With respect to this locus, a fan shape in which only the radius (corresponding to parallax) r is unknown with the start frame as a base point is also considered, and the fan shape is fitted by the least square method. Since this method has few degrees of freedom, it is considered that hidden lines can be easily avoided, and the integration of the movement vector error due to the tracking of the trajectory can be relaxed to some extent. However, since the forward / backward calculation is performed with the start frame as the base point, a large error occurs when the start point = end point does not hold due to the shake of the rotation of the mirror.

【0043】(2)3自由度扇形フィッティング 回転中心のXY座標と半径Rの3自由度を与える手法で
ある。正方向の1回転について移動ベクトルを追跡す
る。始点と終点の間でずれが多少生じても距離計算誤差
は少なくてすむ。
(2) Three-degree-of-freedom fan-shaped fitting This is a method of giving three-degrees of freedom of the XY coordinates of the rotation center and radius R. Track the movement vector for one rotation in the positive direction. Even if some deviation occurs between the start point and the end point, the distance calculation error can be small.

【0044】(3)変位直接計算 各フレームでの変位量を単純加算して全周長とし、回転
半径を決定する。正方向に1回転だけ計算する。1回転
において対応付けベクトルの大きさを加算する。この和
は2πrに相当するので、2πで割ることによりrを求
めることができる。
(3) Direct displacement calculation The displacement amount in each frame is simply added to obtain the total circumference, and the radius of gyration is determined. Calculate only one rotation in the positive direction. The size of the association vector is added in one rotation. Since this sum corresponds to 2πr, r can be obtained by dividing by 2π.

【0045】S6:直径(視差)に基づきカメラから指
定された点までの距離を求める(図2及びその説明参
照)。円弧の直径はカメラ1からの距離に対応する(距
離に反比例して直径が小さくなる)。
S6: Obtain the distance from the camera to the designated point based on the diameter (parallax) (see FIG. 2 and its description). The diameter of the arc corresponds to the distance from the camera 1 (the diameter decreases in inverse proportion to the distance).

【0046】S7:以上の処理を画像の任意の点で繰り
返すことにより、対象物体表面の3次元形状をとらえる
ことができる。すなわち対象物体を可視化できる。
S7: By repeating the above processing at any point of the image, the three-dimensional shape of the target object surface can be captured. That is, the target object can be visualized.

【0047】発明の実施の形態1に係る回転潜望鏡式の
3次元形状計測器/方法によれば、人の顔などについて
簡易な形状計測を行うことができる。
According to the rotary periscope type three-dimensional shape measuring instrument / method according to the first embodiment of the present invention, simple shape measurement can be performed on a human face or the like.

【0048】発明の実施の形態1に係る装置及び方法
は、単一のカメラを用いた回転潜望鏡式の3次元形状計
測器及び方法である。本装置及び方法においてカメラは
1台ですみ、システムの小型化及び簡易化が可能であ
る。本装置/方法の用途として、例えば3次元WWW通
信など、あまり厳密な校正を必要としない3次元解析が
考えられる。
The apparatus and method according to the first embodiment of the invention is a rotary periscope type three-dimensional shape measuring instrument and method using a single camera. With this device and method, only one camera is required, and the system can be downsized and simplified. As an application of the present apparatus / method, three-dimensional analysis that does not require very strict calibration, such as three-dimensional WWW communication, is conceivable.

【0049】対象物とその状態が解析に適していて、カ
メラやミラーなどのシステムの情報が厳密に求まってい
る場合は、これら2枚の画像のみから3D形状解析は可
能である。しかしながら照明による陰影、テクスチャの
気薄さなどの問題を解決しなくてはならない。これに対
して発明の実施の形態1に係る装置/方法において、微
小角度ずつシフトさせた複数の画像を用いること、カメ
ラ(ミラー)の移動方向と移動量がほぼわかっていること
から、陰影やテクスチャなどにあまり影響されずにす
む。
When the object and its state are suitable for the analysis and the information of the system such as the camera and the mirror is exactly obtained, the 3D shape analysis can be performed from only these two images. However, problems such as shading due to lighting and thinness of texture must be solved. On the other hand, in the device / method according to the first embodiment of the invention, since a plurality of images shifted by a small angle are used and the moving direction and the moving amount of the camera (mirror) are almost known, the shadow and It is not affected much by textures and so on.

【0050】本発明に係る手法では形状算出値からのフ
ィードバックを行うことにより、対応付け問題の精度を
大幅に向上させている。また、一次元検索で十分機能す
る。
In the method according to the present invention, the accuracy of the association problem is significantly improved by feeding back the shape calculation value. Also, one-dimensional search works well.

【0051】公知の手法はいずれもオクルージョンに弱
いが、本手法はオクルージョンに強い。本発明に係る手
法は既知の移動方向で撮影した微小角ごとの画像を利用
するためである(微小角ずれただけの画像では「隠れ」
がほとんど発生しないため)。
All known methods are weak in occlusion, but this method is strong in occlusion. This is because the method according to the present invention uses an image for each minute angle captured in a known moving direction (“hidden” in an image with only a minute angle shift).
Because it hardly occurs).

【0052】(参考:オクルージョン問題とは図11に
示すように、異なる視点から同じ対象物を見たときに、
視点の違いに起因してそれぞれの視点から見えている部
分が異なるという問題である。図11においてA及びB
の部分はそれぞれひとつのカメラの画像にしか表示され
ない。)
(Reference: What is the occlusion problem? As shown in FIG. 11, when the same object is viewed from different viewpoints,
The problem is that the parts seen from each viewpoint differ due to the difference in viewpoints. In FIG. 11, A and B
Each part of is only displayed on the image of one camera. )

【0053】また、本発明に係る手法ではエピポーラ拘
束条件を探す必要もない。
Further, in the method according to the present invention, it is not necessary to search for the epipolar constraint condition.

【0054】発明の実施の形態2.相関計算では誤ベク
トル除去や検索範囲絞込みが非常に重要である。この課
題を解決するために、距離計算結果をフィードバックす
ることで誤ベクトルを除去したり検索範囲を絞込むこと
ができる。例えば、1回目の相関計算結果から得た距離
情報から得た移動量予測値を参照して再度相関計算を行
う。この処理を何度か繰り返す。移動量予測とは、得ら
れた距離に基づき対応するベクトルを上記アルゴリズム
で逆算する処理である。なお、移動予測の範囲を小さく
しすぎると(スムージングフィルタと同様の)単に形状
を丸めるだけの結果になり、この範囲は予測ベクトルの
大きさの所定の比率とする(例えばこの範囲を予測ベク
トルの大きさの5倍)。これにより、スムージングを避
けつつ相関計算の精度を上げることができるとともに、
何度も繰り返して相関計算することを避けることが可能
となる。
Embodiment 2 of the Invention Eliminating false vectors and narrowing the search range are very important in correlation calculation. In order to solve this problem, by feeding back the distance calculation result, an erroneous vector can be removed or the search range can be narrowed down. For example, the correlation calculation is performed again with reference to the movement amount predicted value obtained from the distance information obtained from the first correlation calculation result. This process is repeated several times. The movement amount prediction is a process in which the corresponding vector is back-calculated by the above algorithm based on the obtained distance. It should be noted that if the range of movement prediction is made too small, the result is simply rounding the shape (similar to the smoothing filter), and this range is set to a predetermined ratio of the magnitude of the prediction vector (for example, this range 5 times the size). This makes it possible to improve the accuracy of correlation calculation while avoiding smoothing.
It is possible to avoid repeating the correlation calculation many times.

【0055】発明の実施の形態3.前述の3つのアルゴ
リズム、1自由度扇形フィッティング法、3自由度扇形
フィッティング法及び変位直接計算法、には軌跡追跡の
際に対応付けの誤差を積算する性質がある。また、オク
ルージョン回避能力を100%発揮できない。
Third Embodiment of the Invention The above-mentioned three algorithms, the one-degree-of-freedom sector fitting method, the three-degree-of-freedom sector fitting method, and the displacement direct calculation method, have the property of accumulating matching errors during trajectory tracking. Also, the ability to avoid occlusion cannot be fully exhibited.

【0056】このような点を改善するために、(1周3
60枚の画像全体について処理するのではなく)1組の
画像ペア毎に処理を行い対応ベクトルを求め、これに基
づき距離を計算した後、直ちにアフィン変換することに
より、特定の方向から見たアフィン空間(例えばカメラ
真正面)に統合する、という手法が考えられる。いわば
対象物の特定の点について多数の距離情報を得て、これ
らを統合することにより最終的な距離を求めようとする
ものである。この処理フローチャートを図5に示す。
In order to improve such a point, (1 round 3
An affine viewed from a specific direction is obtained by processing each image pair (rather than processing the entire 60 images) to obtain a corresponding vector, calculating the distance based on this, and immediately performing affine transformation. A method of integrating into a space (for example, directly in front of the camera) can be considered. In other words, it seeks to obtain a final distance by obtaining a large amount of distance information about a specific point of an object and integrating them. This processing flowchart is shown in FIG.

【0057】この手法によれば、2つの画像から求めた
1つの移動ベクトルに基づき距離を求めるため最小自乗
法を使用する必要はない。回転角と扇の端点が分かって
いるから、これらから半径を求めることができる。もっ
ともこの段階においてそれぞれのベクトルの精度は上記
アルゴリズムの場合よりも悪い。しかし、多数のベクト
ルに基づく多数の距離情報を1つのアフィン空間に加算
し(S18)、その微小空間毎に距離の平均を求める
(S19)ことにより正確な距離を求めることができ
る。この場合、大きすぎる距離あるいは小さすぎる距離
は除いて平均することが望ましい。当該空間をポリゴン
として扱うため、ボクセル(体積画素)のように見える
点と見えない点の判別は不要である。
According to this method, it is not necessary to use the least square method because the distance is obtained based on one movement vector obtained from two images. Since the rotation angle and the end point of the fan are known, the radius can be obtained from them. However, at this stage, the accuracy of each vector is worse than that of the above algorithm. However, an accurate distance can be obtained by adding a large number of distance information based on a large number of vectors to one affine space (S18) and obtaining an average of the distances for each of the minute spaces (S19). In this case, it is desirable to average out the distances that are too large or too small. Since the space is treated as a polygon, it is not necessary to distinguish between points that look like voxels (volume pixels) and points that do not.

【0058】本発明の実施の形態3に係る方法におい
て、発明の実施の形態1の場合の軌跡の追跡を行わない
ので、1組の画像ペアから得られた点が特定の点に帰着
するということが自明ではない。そこで、本発明の実施
の形態3においては、アフィン変換により一旦3D空間
上に投影し、そのうえでその平均を求め、そして再度ア
フィン変換する、という処理を行うことにより移動予測
を行っているのである。
In the method according to the third embodiment of the present invention, since the trajectory tracking in the case of the first embodiment of the invention is not performed, it is said that the points obtained from one image pair result in a specific point. That is not obvious. Therefore, in the third embodiment of the present invention, movement prediction is performed by performing a process of temporarily projecting in a 3D space by affine transformation, then obtaining the average thereof, and performing affine transformation again.

【0059】発明の実施の形態4.図1の装置におい
て、ペリスコープ2が回転している間においてその光軸
は平行であった。この構成によればカメラの配置が簡単
であり、各点の回転の軌跡(合成オプティカルフロー)
は物体までの距離に応じた半径をもつ円となる。対象物
の大小に関わらず使用可能である。
Fourth Embodiment of the Invention In the apparatus of FIG. 1, the optical axes thereof were parallel while the periscope 2 was rotating. According to this configuration, the camera can be easily arranged, and the locus of rotation of each point (synthetic optical flow)
Is a circle with a radius according to the distance to the object. It can be used regardless of the size of the object.

【0060】他方、ペリスコープ2の光軸を常に対象物
に向けるようにしてもよい。この注視点一定の構成によ
れば、光軸平行の場合よりカメラパラメータが増加し、
軌跡は直接は円にならないが、物体を比較的近くから、
より広範囲に観察できる利点がある。
On the other hand, the optical axis of the periscope 2 may be always directed toward the object. According to this fixed gaze point configuration, the camera parameters increase compared to the case where the optical axis is parallel,
The locus does not directly become a circle, but the object is relatively close,
There is an advantage that it can be observed in a wider range.

【0061】発明の実施の形態5.上記発明の実施の形
態1に係る装置/方法にスペックル法を適用することに
より、物体の三次元情報を高解像度かつ高精度で測定す
ることもできる。スペックル法は物体の微小変動を計測
する手法として知られている。
Fifth Embodiment of the Invention By applying the speckle method to the apparatus / method according to the first embodiment of the present invention, it is possible to measure three-dimensional information of an object with high resolution and high accuracy. The speckle method is known as a method for measuring minute fluctuations in an object.

【0062】図6にこの発明の実施の形態5に係る三次
元スキャナの概略図を示す。CCDカメラ1、ペリスコ
ープ2及び三次元形状・色解析部5は図1に示されたも
のと同じものである。
FIG. 6 shows a schematic diagram of a three-dimensional scanner according to the fifth embodiment of the present invention. The CCD camera 1, the periscope 2, and the three-dimensional shape / color analysis unit 5 are the same as those shown in FIG.

【0063】物体10にはスペックルパターンが投影さ
れる。レーザー発振器(laser)3からの出射光は、デ
ィフューザー(diffuser)4により広げられ、スペック
ルパターンが発生される。レーザー発振器3はレーザー
光を連続発振することができる。このレーザー光を光フ
ァイバーなどのディフューザー4を通して測定対象10
に照射する。ディフューザー4を通過したレーザー光は
内部の多重散乱や微小欠陥によりランダムなスペックル
ノイズを含んだレーザー光となる。スペックル(speckl
e)とは、あらい表面や不均質な媒質をレーザーのよう
な非常に干渉性のよい光で照射してその散乱光を観測す
るとき,光の強度分布がランダムになり表面や媒質が粒
状の外見を呈する現象である。ディフューザー4とし
て、光ファイバを用いることができる。物体10にはレ
ーザーのスペックルパターン(LS)が映し出され、こ
れをカメラ1により撮影する。
A speckle pattern is projected on the object 10. Light emitted from a laser oscillator (laser) 3 is spread by a diffuser 4 to generate a speckle pattern. The laser oscillator 3 can continuously oscillate laser light. This laser light is passed through a diffuser 4 such as an optical fiber to be measured 10
To irradiate. The laser light passing through the diffuser 4 becomes a laser light containing random speckle noise due to multiple scattering and minute defects inside. Speckle
e) means that when irradiating a rough surface or an inhomogeneous medium with highly coherent light such as a laser and observing the scattered light, the intensity distribution of the light becomes random and the surface or medium becomes granular. It is a phenomenon of appearance. An optical fiber can be used as the diffuser 4. A laser speckle pattern (LS) is projected on the object 10, and this is photographed by the camera 1.

【0064】スペックルパターン(LS)について簡単
に説明する。物体10上には白い斑点が全域にわたりラ
ンダムに存在する。これを、ペリスコープ2を回転させ
つつカメラ1で撮影すると、スペックルパターンの粒は
それぞれカメラ1から物体10のスペックルパターンま
での距離に応じて変位する。具体的には、ペリスコープ
2の回転に応じてスペックルパターンはそれぞれ円弧を
描くが、その直径はカメラ1からの距離に対応する(距
離に反比例して直径が小さくなる)。この様子を図7に
示す。図7において、スペックルパターンLS1の描く
円弧P1の直径は、スペックルパターンLS2による円
弧P2よりも小さい。したがって、スペックルパターン
LS1(正確にはLS1が投影されている物体10の部
分)までの距離は、スペックルパターンLS2までの距
離より大きい。この発明はこの性質を利用する。カメラ
画素数の100倍の解像度を得ることができる高精度サ
ブピクセル解法を利用することにより、スペックルパタ
ーンまでの距離の絶対値を高精度で求めることができ
る。
The speckle pattern (LS) will be briefly described. White spots randomly exist on the object 10 over the entire area. When this is photographed by the camera 1 while rotating the periscope 2, the particles of the speckle pattern are displaced according to the distance from the camera 1 to the speckle pattern of the object 10. Specifically, the speckle patterns each draw an arc according to the rotation of the periscope 2, but the diameter thereof corresponds to the distance from the camera 1 (the diameter decreases in inverse proportion to the distance). This state is shown in FIG. In FIG. 7, the diameter of the arc P1 drawn by the speckle pattern LS1 is smaller than the arc P2 of the speckle pattern LS2. Therefore, the distance to the speckle pattern LS1 (more precisely, the portion of the object 10 on which the LS1 is projected) is larger than the distance to the speckle pattern LS2. This invention utilizes this property. The absolute value of the distance to the speckle pattern can be obtained with high accuracy by using the high-precision sub-pixel solution method capable of obtaining a resolution 100 times the number of camera pixels.

【0065】次に、図8のフローチャートを用いてこの
発明の実施の形態に係る三次元形状測定方法について説
明する。 S21:スペックル光を物体10上に投影して物体表面
にランダムなスペックルパターンLSを生成する。 S22:ペリスコープ2を回転させる。1回転以上させ
てもよいし、部分的に回転(回転角度<360°)させ
てもよい。
Next, the three-dimensional shape measuring method according to the embodiment of the present invention will be described with reference to the flowchart of FIG. S21: The speckle light is projected onto the object 10 to generate a random speckle pattern LS on the object surface. S22: The periscope 2 is rotated. It may be rotated once or more, or may be partially rotated (rotation angle <360 °).

【0066】S23:この状態でスペックルパターンを
CCDカメラ1により撮影する。カメラレンズ前部に取
り付けられたペリスコープ2の回転はCCDカメラ1の
フレームと同期され、微小回転角ごとに画像が記録され
る。各画像は、それぞれ微妙に異なる視点から撮影され
た画像となり、その視差が情報として記録される。この
画像のパターン移動を相互相関法を用いて追跡すること
により、対象物体表面までの距離を算出することができ
る(S24〜S28)。
S23: In this state, the speckle pattern is photographed by the CCD camera 1. The rotation of the periscope 2 attached to the front part of the camera lens is synchronized with the frame of the CCD camera 1, and an image is recorded for each minute rotation angle. Each image is an image captured from a slightly different viewpoint, and the parallax is recorded as information. By tracking the pattern movement of this image using the cross-correlation method, the distance to the target object surface can be calculated (S24 to S28).

【0067】S24:画像上の所望の点(スペックルパ
ターン)を指定する。 S25:相互相関法を用いて複数の画像間におけるパタ
ーン移動を追跡する。スペックルパターンの移動量の算
出には、PIV(粒子画像流速測定法)で良く用いられ
ている相互相関法を適用する。前記複数の画像間で相互
相関法PIVを適用することで、両画像間のスペックル
ノイズのパターンマッチングを行い、スペックルの移動
量を算出することができる。
S24: Designate a desired point (speckle pattern) on the image. S25: Track the pattern movement between a plurality of images using the cross-correlation method. The cross-correlation method often used in PIV (Particle Image Velocity Measurement Method) is applied to the calculation of the movement amount of the speckle pattern. By applying the cross-correlation method PIV between the plurality of images, it is possible to perform pattern matching of speckle noise between both images and calculate the amount of speckle movement.

【0068】なお、相互相関値を補間することにより、
サブピクセル精度の移動量(ベクトル)を算出すること
ができる。例えば、画素単位の変位量計測による変位量
を用いて輝度の時間微分と空間微分を求めて演算するこ
とにより、画素以下の変位量を求めることができる。
By interpolating the cross-correlation value,
A movement amount (vector) with sub-pixel accuracy can be calculated. For example, the displacement amount of pixels or less can be obtained by calculating and calculating the time derivative and the spatial derivative of the luminance using the displacement amount obtained by measuring the displacement amount in pixel units.

【0069】S26:指定された点におけるパターン移
動の円弧の直径(視差)を求める(発明の実施の形態1
の場合と同様)。 S27:直径(視差)に基づきカメラから指定された点
までの距離を求める。円弧の直径はカメラ1からの距離
に対応する(距離に反比例して直径が小さくなる)。
(発明の実施の形態1の場合と同様) S28:以上の処理を画像の任意の点で繰り返すことに
より、対象物体表面の3次元形状をとらえることができ
る。
S26: Find the diameter (parallax) of the arc of pattern movement at the specified point (first embodiment of the invention)
As in the case of). S27: The distance from the camera to the designated point is calculated based on the diameter (parallax). The diameter of the arc corresponds to the distance from the camera 1 (the diameter decreases in inverse proportion to the distance).
(Similar to the case of the first embodiment of the invention) S28: By repeating the above processing at any point of the image, the three-dimensional shape of the target object surface can be captured.

【0070】以上のように、本発明の実施の形態5は、
スペックル法に基づいて物体の表面・界面変動の3次元
計測を実現するものである。スペックル法は対象物に能
動的に光パターンを与え、このパターンの時間変化を単
一の視野をもつ1台のカメラで観測し、曲率や奥行き方
向長さの比較的小さな3次元形状を得るのに利用されて
きた手法である。これに対して、本発明は、スペックル
法を基礎としつつ、潜望鏡式の回転鏡を導入してひつつ
の対象物を多くの視点からとらえることにより、1台の
カメラでより複雑で曲率や奥行き方法に長い3次元形状
にも十分適応できる。また、本発明は、モアレ法や従来
のスペックル法のように能動的に特定の光パターンを与
えるのではなく、1台のカメラに複数の視野を持たせる
ことによって対象物が本来有する色情報を用いた受動型
3次元形状・色計測システムを提供するものである。
As described above, the fifth embodiment of the present invention is
It realizes three-dimensional measurement of surface and interface fluctuations of an object based on the speckle method. The speckle method actively gives a light pattern to an object and observes the time change of this pattern with a single camera with a single field of view to obtain a three-dimensional shape with a relatively small curvature and length in the depth direction. This is the method that has been used for. On the other hand, the present invention is based on the speckle method and introduces a periscope-type rotating mirror to capture an object to be caught from many viewpoints, thereby making it possible to obtain more complicated curvature and depth with a single camera. The method can be well adapted to a long three-dimensional shape. In addition, the present invention does not actively give a specific light pattern as in the Moire method or the conventional speckle method, but the color information originally possessed by the object is obtained by allowing a single camera to have a plurality of visual fields. It is intended to provide a passive three-dimensional shape / color measurement system using the.

【0071】本発明の実施の形態5によれば、潜望鏡型
回転鏡を用いて撮影した「既知の微小角度ずれた画像」
に対してこのスペックル法を応用することにより、静止
物体・移動物体のいずれに対しても精度良く形状データ
を取得することができる。
According to the fifth embodiment of the present invention, the "known minute angle-shifted image" photographed using the periscope type rotary mirror is used.
On the other hand, by applying this speckle method, it is possible to accurately obtain shape data for both a stationary object and a moving object.

【0072】スペックル法による、流れの可視化技術は
非接触手法であるため、計測対象に外乱を与えることな
く、かつ、計測対象・環境を選ぶことなく高精度なデー
タを瞬時に得ることが可能である。本発明の実施の形態
によれば、この3次元流動可視化技術のもつ優位性を一
般的なコンピュータ情報入力デバイス技術分野へ応用す
ることができる。これにより、インターネット技術分野
における3次元画像通信を確立するほか、CGやCAD
のためのデータ取得といった工業生産・デザインプロセ
スの革新的な改善・短縮を実現し、これらの信頼性向上
・自動化促進だけでなく、高効率・低コスト化による経
済社会の安定的発展が期待できる。
Since the flow visualization technology by the speckle method is a non-contact method, it is possible to instantly obtain highly accurate data without giving disturbance to the measurement target and without selecting the measurement target or environment. Is. According to the embodiment of the present invention, the superiority of the three-dimensional flow visualization technique can be applied to the general computer information input device technical field. This will establish three-dimensional image communication in the field of Internet technology, as well as CG and CAD.
Innovative improvement / shortening of industrial production / design process such as data acquisition for realization can be expected, and not only reliability improvement and automation promotion but also stable development of economic society by high efficiency / cost reduction can be expected. .

【0073】発明の実施の形態6.発明の実施の形態1
及び5において視差のある複数の画像を得るためにペリ
スコープ2を回転させていた。これに代えて、予め半径
rの円を定め、この円周上に沿ってカメラ1を移動させ
てもよい。図9にこの発明の実施の形態6の概略を示
す。図示しない駆動装置によりカメラ1を円周Cに沿っ
て移動させながら、スペックルパターンLSを次々に撮
影する。移動中のカメラ1のレンズの光軸は、回転軸に
平行であることが望ましい。
Sixth Embodiment of the Invention First Embodiment of the Invention
In 5 and 5, the periscope 2 was rotated to obtain a plurality of images with parallax. Instead of this, a circle having a radius r may be determined in advance, and the camera 1 may be moved along this circumference. FIG. 9 schematically shows a sixth embodiment of the present invention. The speckle pattern LS is photographed one after another while the camera 1 is moved along the circumference C by a driving device (not shown). The optical axis of the lens of the moving camera 1 is preferably parallel to the rotation axis.

【0074】図10に処理フローチャートを示す。 S31:スペックル光を測定対象物に投影する。なお、
このステップと次のステップS32を入れ替えてもよ
い。 S32:物体上のスペックルパターンを撮影する際の円
弧Cを定義する。その半径rは物体10までの距離、要
求される測定精度に応じて定められる。遠くの物体を高
い精度で測定するとき、半径rは大きいほうが望まし
い。 S33:円弧C上をカメラを移動させつつ、スペックル
パターンを撮影して連続的に撮影された複数の画像を得
る。
FIG. 10 shows a processing flowchart. S31: Project speckle light on the measurement object. In addition,
This step may be replaced with the next step S32. S32: Define an arc C for capturing the speckle pattern on the object. The radius r is determined according to the distance to the object 10 and the required measurement accuracy. A large radius r is desirable when measuring a distant object with high accuracy. S33: The speckle pattern is photographed while moving the camera on the arc C to obtain a plurality of continuously photographed images.

【0075】これ以降の処理S34〜S38は発明の実
施の形態1及び5の場合と同様であるので、その説明は
省略する。
Since the subsequent steps S34 to S38 are the same as those in the first and fifth embodiments of the invention, the description thereof will be omitted.

【0076】本発明は、以上の実施の形態に限定される
ことなく、特許請求の範囲に記載された発明の範囲内
で、種々の変更が可能であり、それらも本発明の範囲内
に包含されるものであることは言うまでもない。
The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. It goes without saying that this is what is done.

【0077】また、本明細書において、手段とは必ずし
も物理的手段を意味するものではなく、各手段の機能
が、ソフトウェアによって実現される場合も包含する。
さらに、一つの手段の機能が、二つ以上の物理的手段に
より実現されても、若しくは、二つ以上の手段の機能
が、一つの物理的手段により実現されてもよい。
Further, in the present specification, the means does not necessarily mean a physical means, but also includes the case where the function of each means is realized by software.
Further, the function of one means may be realized by two or more physical means, or the functions of two or more means may be realized by one physical means.

【図面の簡単な説明】[Brief description of drawings]

【図1】 発明の実施の形態1に係る三次元スキャナの
概略図である。
FIG. 1 is a schematic diagram of a three-dimensional scanner according to a first embodiment of the invention.

【図2】 発明の実施の形態1に係る三次元スキャナの
動作原理の説明図である。
FIG. 2 is an explanatory diagram of an operation principle of the three-dimensional scanner according to the first embodiment of the invention.

【図3】 オプティカルフローの説明図である。FIG. 3 is an explanatory diagram of an optical flow.

【図4】 発明の実施の形態1に係る三次元形状測定方
法の処理フローチャートである。
FIG. 4 is a processing flowchart of a three-dimensional shape measuring method according to the first embodiment of the invention.

【図5】 発明の実施の形態3に係る三次元形状測定方
法の処理フローチャートである。
FIG. 5 is a processing flowchart of a three-dimensional shape measuring method according to a third embodiment of the invention.

【図6】 発明の実施の形態5に係る三次元スキャナの
概略図である。
FIG. 6 is a schematic diagram of a three-dimensional scanner according to a fifth embodiment of the invention.

【図7】 発明の実施の形態5に係る三次元スキャナの
動作原理の説明図である。
FIG. 7 is an explanatory diagram of the operation principle of the three-dimensional scanner according to the fifth embodiment of the invention.

【図8】 発明の実施の形態5に係る三次元形状測定方
法の処理フローチャートである。
FIG. 8 is a processing flowchart of a three-dimensional shape measuring method according to a fifth embodiment of the invention.

【図9】 発明の実施の形態6に係る三次元スキャナの
概略図である。
FIG. 9 is a schematic diagram of a three-dimensional scanner according to a sixth embodiment of the invention.

【図10】 発明の実施の形態6に係る三次元形状測定
方法の処理フローチャートである。
FIG. 10 is a processing flowchart of a three-dimensional shape measuring method according to a sixth embodiment of the invention.

【図11】 オクルージョンの説明図である。FIG. 11 is an explanatory diagram of occlusion.

【図12】 エピポーラジオメトリの説明図である。FIG. 12 is an explanatory diagram of epipolar geometry.

【符号の説明】[Explanation of symbols]

1 CCDカメラ 2 ペリスコープ 21、22 鏡 3 レーザー光源 4 ディフューザー 5 三次元形状・色解析部 10 対象物 1 CCD camera 2 Periscope 21, 22 Mirror 3 laser light source 4 diffuser 5 3D shape / color analysis section 10 objects

───────────────────────────────────────────────────── フロントページの続き (72)発明者 染矢 聡 茨城県つくば市東1−1−1 産業技術総 合研究所 つくばセンター内 (72)発明者 稲葉 正和 東京都世田谷区南烏山6−33−7−107 (72)発明者 岡本 孝司 茨城県那珂郡東海村白方91東大やよい宿舎 203号室 (72)発明者 田中 源太郎 茨城県那珂郡東海村白方91東大やよい宿舎 501号室 Fターム(参考) 2F065 AA53 BB05 FF04 FF56 GG04 HH01 JJ03 JJ26 LL00 LL02 MM25 MM28 QQ24 QQ31 QQ38   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Satoshi Someya             1-1-1 East, Tsukuba City, Ibaraki Prefecture             Joint Research Center Tsukuba Center (72) Inventor Masakazu Inaba             6-33-7-107 Minamikarasuyama, Setagaya-ku, Tokyo (72) Inventor Koji Okamoto             91 Shirahata 91 Tokai-mura, Naka-gun, Ibaraki Prefecture Todai Yayoi Dormitory             Room 203 (72) Inventor Gentaro Tanaka             91 Shirahata 91 Tokai-mura, Naka-gun, Ibaraki Prefecture Todai Yayoi Dormitory             Room 501 F term (reference) 2F065 AA53 BB05 FF04 FF56 GG04                       HH01 JJ03 JJ26 LL00 LL02                       MM25 MM28 QQ24 QQ31 QQ38

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 カメラ及びこのカメラに回転可能に取り
付けられたペリスコープを用意する第1ステップと、 前記ペリスコープを回転させる第2ステップと、 回転に同期して前記カメラで対象物を撮影し、所定の回
転角毎に複数の画像を得る第3ステップと、 画像上の所望の点について前記複数の画像間における移
動を分析して、前記点についての視差を求める第4ステ
ップと、 前記視差に基づき前記カメラから前記点までの距離を求
める第5ステップとを備える三次元形状測定方法。
1. A first step of preparing a camera and a periscope rotatably attached to the camera, a second step of rotating the periscope, and an object being photographed by the camera in synchronization with the rotation, and a predetermined step. A third step of obtaining a plurality of images for each rotation angle of, a fourth step of analyzing movement between the plurality of images with respect to a desired point on the image, and obtaining a parallax of the point, based on the parallax And a fifth step of obtaining a distance from the camera to the point.
【請求項2】 カメラを移動させる円弧あるいは閉曲線
を定義する第1ステップと、 前記円弧あるいは閉曲線に沿って前記カメラを移動させ
る第2ステップと、 前記カメラの移動に応じて前記カメラで対象物を撮影
し、所定の回転角毎に複数の画像を得る第3ステップ
と、 画像上の所望の点について前記複数の画像間における移
動を分析して、前記点についての視差を求める第4ステ
ップと、 前記視差に基づき前記カメラから前記点までの距離を求
める第5ステップとを備える三次元形状測定方法。
2. A first step of defining an arc or a closed curve for moving the camera, a second step of moving the camera along the arc or the closed curve, and an object being moved by the camera according to the movement of the camera. A third step of capturing and obtaining a plurality of images for each predetermined rotation angle; a fourth step of analyzing movement between the plurality of images at a desired point on the image to obtain a parallax for the point; A fifth step of obtaining a distance from the camera to the point based on the parallax.
【請求項3】 カメラと、このカメラに回転可能に取り
付けられたペリスコープを用意する第1ステップと、 スペックル光を測定対象物に投影する第2ステップと、 前記ペリスコープを回転させる第3ステップと、 回転に同期してスペックルパターンを撮影し、所定の回
転角毎に複数の画像を得る第4ステップと、 画像上の所望の点について前記複数の画像間における移
動を分析して、前記点についての視差を求める第5ステ
ップと、 前記視差に基づき前記カメラから前記点までの距離を求
める第6ステップとを備えるスペックル法を用いた三次
元形状測定方法。
3. A camera, a first step of preparing a periscope rotatably attached to the camera, a second step of projecting speckle light onto an object to be measured, and a third step of rotating the periscope. , A fourth step of capturing a speckle pattern in synchronization with rotation and obtaining a plurality of images at each predetermined rotation angle, and analyzing movement between the plurality of images at a desired point on the image, The three-dimensional shape measuring method using the speckle method, which comprises a fifth step of obtaining a parallax of the image and a sixth step of obtaining a distance from the camera to the point based on the parallax.
【請求項4】 カメラを移動させる円弧あるいは閉曲線
を定義する第1ステップと、 スペックル光を測定対象物に投影する第2ステップと、 前記円弧あるいは閉曲線に沿って前記カメラを移動させ
る第3ステップと、 前記カメラの移動に応じてスペックルパターンを撮影
し、所定の回転角毎に複数の画像を得る第4ステップ
と、 画像上の所望の点について前記複数の画像間における移
動を分析して、前記点についての視差を求める第5ステ
ップと、 前記視差に基づき前記カメラから前記点までの距離を求
める第6ステップとを備えるスペックル法を用いた三次
元形状測定方法。
4. A first step of defining a circular arc or a closed curve for moving the camera, a second step of projecting speckle light onto an object to be measured, and a third step of moving the camera along the circular arc or the closed curve. And a fourth step of capturing a speckle pattern according to the movement of the camera to obtain a plurality of images at each predetermined rotation angle, and analyzing movement between the plurality of images at a desired point on the image. A three-dimensional shape measuring method using the speckle method, which comprises a fifth step of obtaining a parallax for the point, and a sixth step of obtaining a distance from the camera to the point based on the parallax.
【請求項5】 所定の大きさの検索窓を用意し、前記ペ
リスコープ又は前記カメラの移動方向に沿って検索を行
い、前記複数の画像間の相互相関を求め、 前記相互相関の結果に基づき前記点の移動に係る円弧の
半径又は直径を求め、 前記円弧の半径又は直径に基づき前記カメラから前記点
までの距離を求める、ことを特徴とする請求項1乃至請
求項4いずれかに記載の三次元形状測定方法。
5. A search window having a predetermined size is prepared, a search is performed along the moving direction of the periscope or the camera, cross-correlation between the plurality of images is obtained, and the cross-correlation is performed based on the result of the cross-correlation. The tertiary according to any one of claims 1 to 4, wherein a radius or a diameter of an arc relating to the movement of the point is obtained, and a distance from the camera to the point is obtained based on the radius or the diameter of the arc. Original shape measuring method.
【請求項6】 いずれかの画像の前記点を基点として回
転中心を固定し、半径のみの自由度をもつ扇型を与え、
この条件の下で前記点の移動を前記扇型に対応づけるこ
とにより円弧の半径又は直径を求めることを特徴とする
請求項5記載の三次元形状測定方法。
6. A fan shape having a degree of freedom of radius only, in which the center of rotation is fixed with the point of any image as a base point,
The three-dimensional shape measuring method according to claim 5, wherein the radius or diameter of the arc is obtained by associating the movement of the point with the sector shape under this condition.
【請求項7】 回転中心のXY座標と半径の3自由度を
与え、この条件の下で前記点の移動を前記扇型に対応づ
けることにより円弧の半径又は直径を求めることを特徴
とする請求項5記載の三次元形状測定方法。
7. The radius or diameter of an arc is obtained by giving XY coordinates of a center of rotation and three degrees of freedom of radius, and by making the movement of the point correspond to the sector shape under this condition. Item 3. The three-dimensional shape measuring method according to Item 5.
【請求項8】 前記複数の画像間における変位量を加算
して周長とし、この周長から円弧の半径又は直径を求め
ることを特徴とする請求項5記載の三次元形状測定方
法。
8. The three-dimensional shape measuring method according to claim 5, wherein the displacement amount between the plurality of images is added to obtain a perimeter, and the radius or diameter of the arc is obtained from the perimeter.
【請求項9】 カメラで対象物を撮影して第1画像を得
る第1ステップと、 前記カメラを所定の軌跡に沿って移動させる第2ステッ
プと、 前記カメラで対象物を撮影して第2画像を得る第3ステ
ップと、 前記第1画像と前記第2画像間でオプティカルフローを
求める第4ステップと、 前記オプティカルフローに含まれるベクトルに基づき前
記対象物上の点までの距離情報を求める第5ステップ
と、 前記距離情報にアフィン変換を施して前記対象物を特定
の方向から見た空間に統合する第6ステップと、 前記カメラを所定の軌跡に沿って移動させつつ、前記第
1ステップ乃至前記第6ステップを繰り返すステップ
と、 統合された複数の距離情報を平均化することにより前記
対象物上の点までの距離を求めるステップとを備える三
次元形状測定方法。
9. A first step of photographing a target object with a camera to obtain a first image, a second step of moving the camera along a predetermined locus, and a second step of photographing the target object with the camera. A third step of obtaining an image, a fourth step of obtaining an optical flow between the first image and the second image, and a step of obtaining distance information to a point on the object based on a vector included in the optical flow. 5 steps, 6th step of subjecting the object to a space viewed from a specific direction by affine transformation of the distance information, and 1st step through moving the camera along a predetermined trajectory. Three-dimensional shape measurement, comprising: repeating the sixth step; and averaging a plurality of integrated distance information to obtain a distance to a point on the object. Method.
【請求項10】 カメラと、このカメラに回転可能に取
り付けられたペリスコープと、前記ペリスコープの所定
の回転角毎に撮影された対象物の画像を前記カメラから
受けて、前記画像上の所望の点について前記複数の画像
間における移動を分析し、分析結果に基づき前記点につ
いての視差を求め、前記視差に基づき前記カメラから前
記点までの距離を求める三次元形状解析部とを備える三
次元スキャナ。
10. A camera, a periscope rotatably attached to the camera, and an image of an object taken at each predetermined rotation angle of the periscope, the image being received from the camera, and a desired point on the image. A three-dimensional shape analysis unit for analyzing the movement between the plurality of images, obtaining the parallax for the point based on the analysis result, and obtaining the distance from the camera to the point based on the parallax.
【請求項11】 カメラと、このカメラを所定の円弧あ
るいは閉曲線上に沿って移動させる移動手段と、所定の
回転角毎に撮影された対象物の画像を前記カメラから受
けて、前記画像上の所望の点について前記複数の画像間
における移動を分析し、分析結果に基づき前記点につい
ての視差を求め、前記視差に基づき前記カメラから前記
点までの距離を求める三次元形状解析部とを備える三次
元スキャナ。
11. A camera, a moving means for moving the camera along a predetermined arc or a closed curve, and an image of an object photographed for each predetermined rotation angle from the camera, and the image on the image is received. A three-dimensional shape analysis unit that analyzes the movement between the plurality of images for a desired point, obtains the parallax for the point based on the analysis result, and obtains the distance from the camera to the point based on the parallax. Original scanner.
【請求項12】 光源と、前記光源からの光を拡散して
前記光の強度分布が粒状に分布するスペックルパターン
を発生させる拡散手段とを備え、前記スペックルパター
ンは前記対象物上に投影され、前記三次元形状解析部
は、前記対象物上のスペックルパターンについて処理を
行うことを特徴とする請求項10又は請求項11記載の
三次元スキャナ。
12. A light source, and a diffusing means for diffusing light from the light source to generate a speckle pattern in which the intensity distribution of the light is distributed in a granular form, and the speckle pattern is projected on the object. The three-dimensional scanner according to claim 10 or 11, wherein the three-dimensional shape analysis unit processes the speckle pattern on the object.
JP2002064006A 2002-03-08 2002-03-08 Method of measuring three-dimensional shape and three- dimensional scanner Pending JP2003262510A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002064006A JP2003262510A (en) 2002-03-08 2002-03-08 Method of measuring three-dimensional shape and three- dimensional scanner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002064006A JP2003262510A (en) 2002-03-08 2002-03-08 Method of measuring three-dimensional shape and three- dimensional scanner

Publications (1)

Publication Number Publication Date
JP2003262510A true JP2003262510A (en) 2003-09-19

Family

ID=29196997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002064006A Pending JP2003262510A (en) 2002-03-08 2002-03-08 Method of measuring three-dimensional shape and three- dimensional scanner

Country Status (1)

Country Link
JP (1) JP2003262510A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312360A (en) * 2003-04-07 2004-11-04 Yoshiaki Takahashi Tool for photographing with camera
WO2005036097A1 (en) * 2003-10-14 2005-04-21 Japan Science And Technology Agency Three-dimensional measuring instrument and three-dimensional measuring method
JP2006220425A (en) * 2005-02-08 2006-08-24 Matsushita Electric Ind Co Ltd Visual inspection device and visual inspection method for printed circuit board
JP2010071922A (en) * 2008-09-22 2010-04-02 Yamatake Corp Apparatus for measuring three-dimensional position
JP2010513927A (en) * 2006-12-20 2010-04-30 ゼネラル・エレクトリック・カンパニイ Object measurement method and system
JP2011169727A (en) * 2010-02-18 2011-09-01 Shimadzu Corp Material testing apparatus
JP2012122917A (en) * 2010-12-10 2012-06-28 Fujitsu Ltd Three dimensional position measurement system, three dimensional position measurement device, and three dimensional position measurement method
US20120307046A1 (en) * 2011-05-30 2012-12-06 Axis Ab Methods and apparatus for thermographic measurements
WO2013051645A1 (en) * 2011-10-05 2013-04-11 株式会社ニコン Electronic apparatus and moving speed calculating system
KR20140073383A (en) * 2012-12-06 2014-06-16 광주과학기술원 Lane change guiding method and apparatus performing the same
JP2015203594A (en) * 2014-04-11 2015-11-16 国立大学法人 東京大学 Distance image generation device
WO2017057016A1 (en) * 2015-09-29 2017-04-06 ソニー株式会社 Measurement device and method, and program
CN110044266A (en) * 2019-06-03 2019-07-23 易思维(杭州)科技有限公司 Digital Photogrammetric System based on speckle projection
CN112254676A (en) * 2020-10-15 2021-01-22 天目爱视(北京)科技有限公司 Portable intelligent 3D information acquisition equipment
JP2021182396A (en) * 2018-08-30 2021-11-25 コグネックス・コーポレイション Methods and apparatus for generating three-dimensional reconstruction of object with reduced distortion
CN116503586A (en) * 2023-06-27 2023-07-28 钜宝(深圳)智能有限公司 Gold spot detector and detection method

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312360A (en) * 2003-04-07 2004-11-04 Yoshiaki Takahashi Tool for photographing with camera
USRE43463E1 (en) 2003-10-14 2012-06-12 Japan Science And Technology Agency Three-dimensional measuring apparatus and three-dimensional measuring method
WO2005036097A1 (en) * 2003-10-14 2005-04-21 Japan Science And Technology Agency Three-dimensional measuring instrument and three-dimensional measuring method
JP2006220425A (en) * 2005-02-08 2006-08-24 Matsushita Electric Ind Co Ltd Visual inspection device and visual inspection method for printed circuit board
JP2010513927A (en) * 2006-12-20 2010-04-30 ゼネラル・エレクトリック・カンパニイ Object measurement method and system
JP2010071922A (en) * 2008-09-22 2010-04-02 Yamatake Corp Apparatus for measuring three-dimensional position
JP2011169727A (en) * 2010-02-18 2011-09-01 Shimadzu Corp Material testing apparatus
JP2012122917A (en) * 2010-12-10 2012-06-28 Fujitsu Ltd Three dimensional position measurement system, three dimensional position measurement device, and three dimensional position measurement method
US20120307046A1 (en) * 2011-05-30 2012-12-06 Axis Ab Methods and apparatus for thermographic measurements
WO2013051645A1 (en) * 2011-10-05 2013-04-11 株式会社ニコン Electronic apparatus and moving speed calculating system
KR20140073383A (en) * 2012-12-06 2014-06-16 광주과학기술원 Lane change guiding method and apparatus performing the same
KR102030359B1 (en) * 2012-12-06 2019-10-10 광주과학기술원 Lane change guiding method and apparatus performing the same
JP2015203594A (en) * 2014-04-11 2015-11-16 国立大学法人 東京大学 Distance image generation device
WO2017057016A1 (en) * 2015-09-29 2017-04-06 ソニー株式会社 Measurement device and method, and program
JPWO2017057016A1 (en) * 2015-09-29 2018-08-09 ソニー株式会社 Measuring apparatus and method, and program
CN108139211A (en) * 2015-09-29 2018-06-08 索尼公司 For the device and method and program of measurement
US10508911B2 (en) 2015-09-29 2019-12-17 Sony Corporation Apparatus and method for measurement, and program
CN108139211B (en) * 2015-09-29 2021-01-15 索尼公司 Apparatus and method for measurement and program
JP2021182396A (en) * 2018-08-30 2021-11-25 コグネックス・コーポレイション Methods and apparatus for generating three-dimensional reconstruction of object with reduced distortion
JP7421518B2 (en) 2018-08-30 2024-01-24 コグネックス・コーポレイション Method and apparatus for producing a three-dimensional reconstruction of an object with reduced distortion
US11954767B2 (en) 2018-08-30 2024-04-09 Cognex Corporation Methods and apparatus for generating a three-dimensional reconstruction of an object with reduced distortion
CN110044266A (en) * 2019-06-03 2019-07-23 易思维(杭州)科技有限公司 Digital Photogrammetric System based on speckle projection
CN110044266B (en) * 2019-06-03 2023-10-31 易思维(杭州)科技有限公司 Photogrammetry system based on speckle projection
CN112254676A (en) * 2020-10-15 2021-01-22 天目爱视(北京)科技有限公司 Portable intelligent 3D information acquisition equipment
CN116503586A (en) * 2023-06-27 2023-07-28 钜宝(深圳)智能有限公司 Gold spot detector and detection method
CN116503586B (en) * 2023-06-27 2023-09-05 钜宝(深圳)智能有限公司 Gold spot detector and detection method

Similar Documents

Publication Publication Date Title
US20230237680A1 (en) Three-dimensional stabilized 360-degree composite image capture
US8848201B1 (en) Multi-modal three-dimensional scanning of objects
JP6525459B2 (en) System and method for improved scoring and false point removal of 3D poses in 3D image data
JP2003262510A (en) Method of measuring three-dimensional shape and three- dimensional scanner
US6529627B1 (en) Generating 3D models by combining models from a video-based technique and data from a structured light technique
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
JP5230131B2 (en) Method and system for detecting the shape of the surface of a reflective object
KR101601331B1 (en) System and method for three-dimensional measurment of the shape of material object
US7271377B2 (en) Calibration ring for developing and aligning view dependent image maps with 3-D surface data
US7098435B2 (en) Method and apparatus for scanning three-dimensional objects
US8705846B2 (en) Position measuring apparatus, position measuring method, image processing apparatus and image processing method
CN106959078A (en) A kind of contour measuring method for measuring three-dimensional profile
CN111060023A (en) High-precision 3D information acquisition equipment and method
JP2017528727A (en) Augmented reality camera used in combination with a 3D meter to generate a 3D image from a 2D camera image
Larsson et al. Path planning for laser scanning with an industrial robot
Vidas et al. Real-time mobile 3D temperature mapping
CA2910649A1 (en) Automated texturing mapping and animation from images
Teutsch Model-based analysis and evaluation of point sets from optical 3D laser scanners
JP2011123051A (en) Three-dimensional measurement method
US6219063B1 (en) 3D rendering
CN111156921A (en) Contour data processing method based on sliding window mean filtering
JP2004272515A (en) Interface method, device, and program
US20020008701A1 (en) 3D rendering
JPWO2020075213A1 (en) Measuring equipment, measuring methods and microscope systems
Takimoto et al. 3D reconstruction of large point clouds with a new point correspondence algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20050223

Free format text: JAPANESE INTERMEDIATE CODE: A621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071226