JP2019012070A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2019012070A
JP2019012070A JP2018145040A JP2018145040A JP2019012070A JP 2019012070 A JP2019012070 A JP 2019012070A JP 2018145040 A JP2018145040 A JP 2018145040A JP 2018145040 A JP2018145040 A JP 2018145040A JP 2019012070 A JP2019012070 A JP 2019012070A
Authority
JP
Japan
Prior art keywords
pattern
camera
unit
projection
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018145040A
Other languages
Japanese (ja)
Other versions
JP6701277B2 (en
Inventor
小竹 大輔
Daisuke Kotake
大輔 小竹
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
小林 一彦
Kazuhiko Kobayashi
一彦 小林
修一 三瓶
Shuichi Sanpei
修一 三瓶
片山 昭宏
Akihiro Katayama
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018145040A priority Critical patent/JP6701277B2/en
Publication of JP2019012070A publication Critical patent/JP2019012070A/en
Application granted granted Critical
Publication of JP6701277B2 publication Critical patent/JP6701277B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To increase measurement accuracy of a three-dimensional measurement device configured of one projector and a plurality of cameras.SOLUTION: An information processing device connected to projection means and a plurality of imaging parts 1 to 4 comprises: projection control means for causing the projection means to project bright/dark stripe patterns several number of times; acquisition means for acquiring an image obtained by imaging a measurement object on which the stripe patterns have been projected by the projection means by at least one of the plurality of imaging parts 1 to 4; and measurement means for performing three-dimensional measurement of the measurement object on the basis of the image acquired by the acquisition means.SELECTED DRAWING: Figure 2

Description

本発明は、画像を用いる三次元計測技術に関する。   The present invention relates to a three-dimensional measurement technique using an image.

画像を利用する三次元計測技術は、実物からの三次元モデル生成や物体の位置姿勢計測など様々な目的に利用することができる。代表的な方法の一つであるステレオ法では、相対的な位置及び姿勢が既知な二台のカメラ(ステレオカメラ)により撮影された画像から三角測量の原理に基づいて三次元計測を行う。ステレオカメラを利用する場合、画像上での輝度変化が少ない領域ではカメラ間で対応する点を探索するのが困難である。そのため、プロジェクタなどの照明装置によって計測対象にスリット光やパターン光を投影することで対応点探索を容易にすることが広く行われている。また、ステレオカメラの一方のカメラをプロジェクタなどの照明装置に置き換え、カメラと照明装置をステレオペアとして利用する三次元計測も広く行われている。   The three-dimensional measurement technique using an image can be used for various purposes such as generating a three-dimensional model from an actual object and measuring the position and orientation of an object. In the stereo method, which is one of the representative methods, three-dimensional measurement is performed based on the principle of triangulation from images taken by two cameras (stereo cameras) whose relative positions and orientations are known. When using a stereo camera, it is difficult to search for a corresponding point between the cameras in an area where the luminance change on the image is small. For this reason, it is widely performed to facilitate the search for corresponding points by projecting slit light or pattern light onto a measurement target using an illumination device such as a projector. In addition, three-dimensional measurement is widely performed in which one of the stereo cameras is replaced with an illumination device such as a projector, and the camera and the illumination device are used as a stereo pair.

金属などの鏡面反射成分が多い物体の三次元計測を行う場合、少ないカメラの台数ではプロジェクタの投影パターンの物体表面上での反射光を撮影することが困難である。これに対し、カメラの台数を増やし様々な方向から観察することで鏡面反射成分が多い物体の三次元計測を安定化することができる。ただし、投影パターンとカメラやプロジェクタの配置の組合せによっては高精度に計測を行うことができない場合がある。例えば、投影パターンが複数の平行な直線から構成されるパターンであり、ステレオペアを構成するカメラとプロジェクタ(またはカメラとカメラ)のエピポーラ線の方向が投影パターンの方向に近い場合には計測精度が低下する。そのため、特許文献1では、1台の照明装置と3台のカメラを用いる場合に、カメラの光軸と照明装置の光軸のずれとに応じてストライプ状の投影パターンの方向を切り替える方法が開示されている。   When performing three-dimensional measurement of an object having a large amount of specular reflection components such as metal, it is difficult to photograph reflected light on the object surface of the projection pattern of the projector with a small number of cameras. On the other hand, by increasing the number of cameras and observing from various directions, it is possible to stabilize the three-dimensional measurement of an object having many specular reflection components. However, depending on the combination of the projection pattern and the arrangement of the camera or projector, there are cases where measurement cannot be performed with high accuracy. For example, if the projection pattern is a pattern composed of a plurality of parallel straight lines, and the direction of the epipolar line of the camera and projector (or camera and camera) that make up the stereo pair is close to the direction of the projection pattern, the measurement accuracy is high. descend. For this reason, Patent Document 1 discloses a method of switching the direction of a stripe-shaped projection pattern in accordance with the deviation of the optical axis of the camera and the optical axis of the illumination device when one illumination device and three cameras are used. Has been.

特許第4525240号明細書Japanese Patent No. 45525240

しかしながら、特許文献1に開示されている方法のように、カメラごとに、カメラの向きとプロジェクタの向きとを考慮して、エピポーラ線の方向が投影パターンの方向に近くならないように設定することは簡便な作業ではなかった。   However, like the method disclosed in Patent Document 1, for each camera, setting the direction of the epipolar line so as not to be close to the direction of the projection pattern in consideration of the direction of the camera and the direction of the projector It was not a simple task.

本発明は以上の課題に鑑みてなされたものであり、パターンを投影するプロジェクタと任意の台数の複数台のカメラによって構成される三次元計測装置において、精度よく計測可能なパターンをより簡便に設定することを目的とする。   The present invention has been made in view of the above problems, and in a three-dimensional measurement apparatus constituted by a projector that projects a pattern and an arbitrary number of cameras, it is possible to more easily set a pattern that can be measured accurately. The purpose is to do.

本発明の情報処理装置は、投影手段と複数の撮像部とに接続され、投影手段と、複数の撮像部と、前記投影手段に明暗の縞パターンを複数回投影させる投影制御手段と、前記投影手段によって前記縞パターンが投影された計測対象を前記複数の撮像部の少なくとも1つにより撮像した画像を取得する取得手段と、前記取得手段によって取得される画像に基づいて、前記計測対象の三次元計測を行う計測手段とを備える。   The information processing apparatus of the present invention is connected to a projection unit and a plurality of imaging units, and has a projection unit, a plurality of imaging units, a projection control unit that causes the projection unit to project a bright and dark stripe pattern a plurality of times, and the projection An acquisition unit that acquires an image obtained by capturing the measurement target on which the fringe pattern is projected by at least one of the plurality of imaging units, and a three-dimensional measurement target based on the image acquired by the acquisition unit Measuring means for measuring.

本発明により、パターンを投影するプロジェクタと任意の台数の複数台のカメラによって構成される三次元計測装置において、精度よく計測可能なパターンをより簡便に設定することを目的とする。   An object of the present invention is to more easily set a pattern that can be measured with high accuracy in a three-dimensional measurement apparatus that includes a projector that projects a pattern and an arbitrary number of cameras.

第1の実施形態における情報処理装置1の構成を示す図である。It is a figure which shows the structure of the information processing apparatus 1 in 1st Embodiment. 三次元計測装置を構成する投影部及び撮像部の実利用場面における配置を示す図である。It is a figure which shows arrangement | positioning in the actual utilization scene of the projection part and imaging part which comprise a three-dimensional measuring device. 第1の実施形態に係るGUIについて説明する図である。It is a figure explaining GUI which concerns on 1st Embodiment. 第1の実施形態における投影パターン決定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the projection pattern determination in 1st Embodiment. 第2の実施形態に係るGUIについて説明する図である。It is a figure explaining GUI which concerns on 2nd Embodiment. 第3の実施形態における投影パターン決定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the projection pattern determination in 3rd Embodiment. 変形例1に係るGUIについて説明する図である。It is a figure explaining GUI which concerns on the modification 1. FIG. カメラープロジェクタの配置を確認するGUIを説明する図である。It is a figure explaining GUI which confirms arrangement | positioning of a camera projector. 変形例4に係るGUIについて説明する図である。It is a figure explaining GUI which concerns on the modification 4. FIG. 変形例5に係るGUIについて説明する図である。It is a figure explaining GUI which concerns on the modification 5. FIG. 第4の実施形態に係るGUIについて説明する図である。It is a figure explaining GUI which concerns on 4th Embodiment. 変形例6に係るGUIについて説明する図である。It is a figure explaining GUI which concerns on the modification 6. FIG. 本発明の情報処理装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of the information processing apparatus of this invention.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings.

本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図13を用いて説明する。   Prior to describing each embodiment according to the present invention, a hardware configuration in which the information processing apparatus shown in each embodiment is mounted will be described with reference to FIG.

図13は、本実施形態における情報装置1のハードウェア構成図である。同図において、CPU1010は、バス1000を介して接続する各デバイスを統括的に制御する。CPU1010は、読み出し専用メモリ(ROM)1020に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1020に記憶されており、ランダムアクセスメモリ(RAM)1030に一時記憶され、CPU1010によって適宜実行される。また、入力I/F1040は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1050は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。   FIG. 13 is a hardware configuration diagram of the information device 1 in the present embodiment. In the figure, a CPU 1010 comprehensively controls devices connected via a bus 1000. The CPU 1010 reads and executes processing steps and programs stored in a read only memory (ROM) 1020. In addition to the operating system (OS), each processing program, device driver, and the like according to the present embodiment are stored in the ROM 1020, temporarily stored in a random access memory (RAM) 1030, and appropriately executed by the CPU 1010. The input I / F 1040 is input as an input signal in a format that can be processed by the information processing apparatus 1 from an external device (display device, operation device, or the like). The output I / F 1050 is output as an output signal in a format that can be processed by the display device to an external device (display device).

これらの各機能部は、CPU1010が、ROM1020に格納されたプログラムをRAM1030に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1010を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。   Each of these functional units is realized by the CPU 1010 expanding a program stored in the ROM 1020 in the RAM 1030 and executing processing according to each flowchart described later. Further, for example, when hardware is configured as an alternative to software processing using the CPU 1010, arithmetic units and circuits corresponding to the processing of each functional unit described here may be configured.

(第1の実施形態)
第1の実施形態では、プロジェクタと複数台のカメラによって構成される三次元計測装置のうち、カメラとプロジェクタをステレオペアとして三次元計測を行う三次元計測装置に本発明を適用した場合について説明する。三次元計測方法として、複数台のカメラの夫々についてカメラ毎に設定されたパターンをプロジェクタが投影し、選択されたカメラによって撮像された画像に基づいて三次元計測を行うことを逐次的に行う方法を想定する。本実施形態では、そのような三次元計測方法を実施する前に行うカメラ毎のパターンの設定方法について説明する。具体的には、カメラ毎に最も適したパターンの方向をユーザが選択する。
(First embodiment)
In the first embodiment, a case will be described in which the present invention is applied to a three-dimensional measurement apparatus that performs three-dimensional measurement using a camera and a projector as a stereo pair, among three-dimensional measurement apparatuses including a projector and a plurality of cameras. . As a three-dimensional measurement method, a projector sequentially projects a pattern set for each of a plurality of cameras and performs three-dimensional measurement based on an image captured by the selected camera. Is assumed. In the present embodiment, a method for setting a pattern for each camera before performing such a three-dimensional measurement method will be described. Specifically, the user selects the most suitable pattern direction for each camera.

図1は、本実施形態における情報処理装置1の構成を示す図である。本実施形態の情報処理装置1は、投影部10、パターン情報設定部30、パターン情報保持部40、撮像部50、画像取得部70、三次元計測部80、カメラ選択部90、ユーザ操作取得部110、を備えている。また、情報処理装置1は、外部の表示部100、操作部120に接続されている。なお、表示部100、操作部120を情報処理装置1の機能に集約し、一体として構成してもかまわない。   FIG. 1 is a diagram illustrating a configuration of an information processing apparatus 1 according to the present embodiment. The information processing apparatus 1 according to the present embodiment includes a projection unit 10, a pattern information setting unit 30, a pattern information holding unit 40, an imaging unit 50, an image acquisition unit 70, a three-dimensional measurement unit 80, a camera selection unit 90, and a user operation acquisition unit. 110. The information processing apparatus 1 is connected to an external display unit 100 and an operation unit 120. Note that the display unit 100 and the operation unit 120 may be integrated into the functions of the information processing apparatus 1 and configured as a single unit.

図2は、三次元計測装置を構成する投影部及び撮像部の実利用場面における配置を示す図であり、カメラが4台から構成される場合を示している。図2において、カメラ1〜カメラ4は撮像部、プロジェクタは投影部に相当する。以下、図2を参照しながら情報処理装置1を構成する各部について説明する。   FIG. 2 is a diagram showing the arrangement of the projection unit and the imaging unit that constitute the three-dimensional measurement apparatus in an actual usage scene, and shows a case where four cameras are configured. In FIG. 2, the cameras 1 to 4 correspond to an imaging unit, and the projector corresponds to a projection unit. Hereafter, each part which comprises the information processing apparatus 1 is demonstrated, referring FIG.

投影部10は、計測対象物に三次元計測用のパターン光を投影するプロジェクタであり、任意の2次元の画像をパターン光として投影可能であるものとする。図2に示すように、本実施形態では、投影部10(プロジェクタ)は複数の平行な直線が等間隔で配置されたマルチラインパターン(線パターン)を投影するものとする。マルチラインパターンとして、例えば以下の非特許文献に記載のDurdleのパターンを用いる。
N. G. Durdle, J. Thayyoor, and V. J. Raso, “An improved structured light technique for surface reconstruction of the human trunk,” IEEE Canadian Conference on Electrical and Computer Engineering 1998, vol.2, pp.874−877, 1998.
The projection unit 10 is a projector that projects pattern light for three-dimensional measurement onto a measurement object, and can project an arbitrary two-dimensional image as pattern light. As shown in FIG. 2, in this embodiment, the projection unit 10 (projector) projects a multiline pattern (line pattern) in which a plurality of parallel straight lines are arranged at equal intervals. As the multiline pattern, for example, the Durdle pattern described in the following non-patent document is used.
N. G. Durdle, J.M. Thayyoor, and V.A. J. et al. Raso, “An improved structured light technical for surface restructuring of the human truncation,” IEEE Canadian Conference on Electric. Electr. 2, pp. 874-877, 1998.

Durdleらのパターンは、撮像画像上で直線を同定するために各直線が複数の明るさの値のうちいずれかの値を有するように構成されるモノクロのパターンであり、1枚の撮影画像からの三次元計測が可能である。投影部10は、カメラ選択部90に選択されたカメラに対応するパターンを設定するために、ユーザは表示部100に設定されたグラフィカルユーザインタフェース(以下、GUIと省略する)を介してパターンに関する情報を入力する。そして入力されたパターン光に関する情報をもとに投影部10が投影する2次元パターン画像を決定し、決定した2次元パターン画像を投影する。投影部10の表示は、CPU1010によって制御(投影制御)される。   The Durdle et al. Pattern is a monochrome pattern configured so that each straight line has one of a plurality of brightness values in order to identify the straight line on the captured image. 3D measurement is possible. In order for the projection unit 10 to set a pattern corresponding to the camera selected by the camera selection unit 90, the user uses the graphical user interface (hereinafter abbreviated as GUI) set in the display unit 100 to obtain information regarding the pattern. Enter. Based on the input pattern light information, the projection unit 10 determines a two-dimensional pattern image to be projected, and projects the determined two-dimensional pattern image. The display of the projection unit 10 is controlled (projection control) by the CPU 1010.

パターン情報設定部30は、セットアップの際に表示部100に設定されたGUIを介してパターンに関する情報を投影部10に設定する。本実施形態では、パターンに関する情報は、プロジェクタが投影するパターンの向きであるとする。パターン情報設定部30は、パターン情報保持部40から2次元パターン画像を取得し、該パターン画像を設定されたパターンの向きに応じて回転したパターン画像を、投影部10に送出することにより、投影部10の投影制御を行う。   The pattern information setting unit 30 sets information related to the pattern in the projection unit 10 via the GUI set in the display unit 100 during setup. In the present embodiment, it is assumed that the information regarding the pattern is the direction of the pattern projected by the projector. The pattern information setting unit 30 acquires a two-dimensional pattern image from the pattern information holding unit 40, and sends the pattern image rotated according to the set pattern direction to the projection unit 10, thereby projecting the pattern image. Projection control of the unit 10 is performed.

パターン情報保持部40は、プロジェクタが投影するパターンに関する情報を保持する。本実施形態では、撮像部50を構成する複数のカメラの各カメラについて、プロジェクタが投影する2次元パターン画像を保持する。   The pattern information holding unit 40 holds information related to the pattern projected by the projector. In the present embodiment, a two-dimensional pattern image projected by the projector is held for each of a plurality of cameras constituting the imaging unit 50.

撮像部50は、複数カメラより構成されている。カメラはモノクロカメラでもよいしカラーカメラでもよい。本実施形態では、投影パターンがモノクロパターンであるためカメラはモノクロであるとする。図2に示すように、本実施形態では、撮像部50は4台のカメラによって構成されているものとする。撮像部50を構成する各カメラ及び投影部10であるプロジェクタの焦点距離や画像中心、レンズ歪みパラメータといった内部パラメータは予めキャリブレーションされているものとする。また、プロジェクタに対する各カメラの相対的な位置及び姿勢(外部パラメータ)も予めキャリブレーションされているものとする。   The imaging unit 50 includes a plurality of cameras. The camera may be a monochrome camera or a color camera. In the present embodiment, since the projection pattern is a monochrome pattern, the camera is assumed to be monochrome. As shown in FIG. 2, in this embodiment, the imaging part 50 shall be comprised by four cameras. It is assumed that internal parameters such as focal lengths, image centers, and lens distortion parameters of the cameras constituting the imaging unit 50 and the projector that is the projection unit 10 are calibrated in advance. It is also assumed that the relative position and orientation (external parameters) of each camera with respect to the projector have been calibrated in advance.

画像取得部70は、カメラ選択部90によって選択されたカメラが撮像した画像を取得し、三次元計測部80に入力する。   The image acquisition unit 70 acquires an image captured by the camera selected by the camera selection unit 90 and inputs it to the three-dimensional measurement unit 80.

三次元計測部80は、画像取得部70から入力された画像のうち、カメラ選択部90において選択されたカメラが撮像した画像及びパターン情報保持部40に保持されているパターンの情報に基づいて、計測対象物の三次元計測を行う。三次元計測は、不図示の記憶装置に保持されているカメラ及びプロジェクタの内部パラメータ及び外部パラメータを利用して行う。三次元計測部80は、不図示のインターフェースを介して、外部の表示部100が表示可能な形式で、表示部に計測結果を送出する。なお、計測結果だけでなく、撮像部や投影部の配置情報や撮像部が撮像した画像なども合わせて送出してもよい。   The three-dimensional measurement unit 80 is based on the image captured by the camera selected by the camera selection unit 90 among the images input from the image acquisition unit 70 and the pattern information held in the pattern information holding unit 40. 3D measurement of the measurement object is performed. Three-dimensional measurement is performed using internal parameters and external parameters of a camera and a projector held in a storage device (not shown). The three-dimensional measuring unit 80 sends the measurement result to the display unit in a format that can be displayed by the external display unit 100 via an interface (not shown). In addition to the measurement result, arrangement information of the imaging unit and the projection unit, an image captured by the imaging unit, and the like may be sent together.

カメラ選択部90は、ユーザ操作取得部110からの信号を受信して、パターンを設定する対象のカメラの識別情報を撮像部50に入力する。識別情報は、各カメラに固有の番号であるとする。   The camera selection unit 90 receives a signal from the user operation acquisition unit 110 and inputs identification information of a target camera for setting a pattern to the imaging unit 50. The identification information is a number unique to each camera.

表示部100では、三次元計測部80において得られた計測対象物表面の三次元座標群を表示する。例えば、表示部100は液晶ディスプレイやCRTディスプレイが用いられる。表示部100の表示は、CPU1010によって制御(表示制御)される。   The display unit 100 displays a three-dimensional coordinate group on the surface of the measurement object obtained by the three-dimensional measurement unit 80. For example, the display unit 100 is a liquid crystal display or a CRT display. The display of the display unit 100 is controlled (display control) by the CPU 1010.

ユーザ操作取得部110は、外部の操作部120からの操作信号を受信するためのインターフェースとして機能する。取得した操作信号をパターン情報設定部30とカメラ選択部90にそれぞれが受信可能な形式で送出する。   The user operation acquisition unit 110 functions as an interface for receiving an operation signal from the external operation unit 120. The acquired operation signal is sent to the pattern information setting unit 30 and the camera selection unit 90 in a receivable format.

操作部120は、ユーザがUIを操作するためのマウスやキーボードである。また、表示部100がボタンや、タッチパネルを備える場合には、該ボタンやタッチパネルも操作部120に該当する。操作部120は、ユーザによって操作された信号をユーザ操作取得部110が受信可能な形式でユーザ操作取得部110に送出する。   The operation unit 120 is a mouse or a keyboard for the user to operate the UI. Further, when the display unit 100 includes a button or a touch panel, the button or the touch panel also corresponds to the operation unit 120. The operation unit 120 sends a signal operated by the user to the user operation acquisition unit 110 in a format that the user operation acquisition unit 110 can receive.

次に、図3を用いて本実施形態に係るGUIについて説明する。GUIは不図示のモニタ上に表示されているものとする。   Next, the GUI according to the present embodiment will be described with reference to FIG. It is assumed that the GUI is displayed on a monitor (not shown).

カメラ選択UI(1100)はカメラ選択部90に相当する。カメラ選択UI(1100)にはカメラを識別するための情報が表示されている。ユーザはカメラ選択UI(1100)を用いてカメラの選択を行う。ユーザはラジオボタンを操作部120であるマウスでクリックすることでカメラの選択を行う。このUIによって、ユーザはカメラ毎に相応しいパターンを設定することが可能になる。   The camera selection UI (1100) corresponds to the camera selection unit 90. Information for identifying the camera is displayed in the camera selection UI (1100). The user selects a camera using the camera selection UI (1100). The user selects the camera by clicking the radio button with the mouse which is the operation unit 120. With this UI, the user can set an appropriate pattern for each camera.

情報表示UI(1110)は表示部100に相当する。情報表示UI(1110)は、三次元計測部80において得られた計測対象物表面の三次元座標群を、三次元空間に各計測点を分布させた様子の画像としてユーザに提示する。ユーザは、選択されたカメラと選択されたパターンを用いたときの三次元計測結果の計測性能が十分かどうかを、可視化された分布や精度や計測点数などから確認することで選択されたカメラに相応しいパターンを判定することが可能になる。このUIでは、ユーザは操作部120であるのマウス等により三次元点群を観察する視点位置・方向や画角などを自由に設定できるものとする。   An information display UI (1110) corresponds to the display unit 100. The information display UI (1110) presents the three-dimensional coordinate group on the surface of the measurement object obtained in the three-dimensional measurement unit 80 to the user as an image of a state in which each measurement point is distributed in the three-dimensional space. The user can check whether the measurement performance of the 3D measurement result when using the selected camera and the selected pattern is sufficient from the visualized distribution, accuracy, number of measurement points, etc. A suitable pattern can be determined. In this UI, the user can freely set the viewpoint position / direction, the angle of view, etc. for observing the three-dimensional point group with the mouse or the like as the operation unit 120.

例えば、情報表示UI(1110)上でマウスを左クリックしながらドラッグすると観察方向が変わり、右クリックしながらドラッグすると平行移動がなされるような機能があってもよい。また、マウスのホイールを回転させることによりズームが可能であってもよい。   For example, there may be a function in which the observation direction changes when the mouse is left-clicked on the information display UI (1110) and dragged while the mouse is dragged while the mouse is right-clicked. Further, zooming may be possible by rotating a mouse wheel.

図3では二次元画像の表示(camera view)と三次元点群の表示(virtual view)を切り替えるラジオボタンが配置されている。エピポーララインの方向と投影パターンの方向とが平行に近いと高精度な三次元計測が行われないため、二次元画像上にカメラとプロジェクタの配置から決定されるエピポーララインを重畳表示し、パターンの方向の決定に際して利用することもできる。三次元点群の表示を行う際には、得られた三次元点群をすべて同一の色で提示したり、計測精度や計測安定性などによって点毎に色を変えて表示したりする。計測精度は、形状が既知の対象の撮像・三次元計測を行い、三次元計測結果と理想値との比較を行うことで求める。例えば、作業台の上に計測対象物を何も置かずに作業台(平面)だけが撮影されるようにして、得られた三次元点群に平面フィッティングを行ったときの各点の平面からの距離に応じて色を変えて表示する。   In FIG. 3, radio buttons for switching between display of a two-dimensional image (camera view) and display of a three-dimensional point group (virtual view) are arranged. If the direction of the epipolar line and the direction of the projection pattern are close to parallel, highly accurate three-dimensional measurement is not performed.Therefore, the epipolar line determined from the camera and projector arrangement is superimposed on the two-dimensional image, and the pattern It can also be used to determine the direction. When displaying a three-dimensional point group, all the obtained three-dimensional point groups are presented in the same color, or the color is changed for each point according to measurement accuracy, measurement stability, or the like. The measurement accuracy is obtained by performing imaging and three-dimensional measurement of an object whose shape is known, and comparing the three-dimensional measurement result with an ideal value. For example, from the plane of each point when plane fitting is performed on the obtained 3D point cloud so that only the workbench (plane) is photographed without placing any measurement object on the workbench The color is changed according to the distance of the display.

パターン情報入力UI(1120)はパターン情報設定部30に相当する。パターン情報入力UI(1120)にはパターンの向きを識別するための情報が表示されている。パターン情報入力UI(1120)を用いてユーザはパターンの選択を行う。図3に示すGUIでは、ユーザは予め決まっている複数のパターンから一つのパターンを選択する。ユーザはラジオボタンを操作部120のマウスでクリックすることでパターンの選択を行う。しかしながら、パターンの選択方法はこれに限るものではなく、複数の選択可能なパターンから1つのパターンを選択する方法であればいかなる方法であってもよい。例えば、ラジオボタンではなくチェックボックスにより選択してもよいし、リストボックスやドロップダウンリストから選択してもよい。また図3に示すように各パターンを同時に提示してもよい。   The pattern information input UI (1120) corresponds to the pattern information setting unit 30. The pattern information input UI (1120) displays information for identifying the pattern direction. The user uses the pattern information input UI (1120) to select a pattern. In the GUI shown in FIG. 3, the user selects one pattern from a plurality of predetermined patterns. The user selects a pattern by clicking a radio button with the mouse of the operation unit 120. However, the pattern selection method is not limited to this, and any method may be used as long as one pattern is selected from a plurality of selectable patterns. For example, it may be selected by a check box instead of a radio button, or may be selected from a list box or a drop-down list. Moreover, as shown in FIG. 3, each pattern may be presented simultaneously.

プレビューボタン(1130)をマウスでクリックすると、プロジェクタはパターン情報入力UI(1120)を用いて選択されたパターンを投影し、カメラ選択UI(1100)によって選択されたカメラが画像を撮影する。撮影された画像をもとに三次元計測部80が三次元計測を行い、情報表示UI(1110)に提示する。選択したカメラについて、ユーザはパターンの設定とプレビューを繰り返すことで、パターンを変えた時の三次元計測結果を視覚的に確認し、選択すべきパターンを決定することができる。所望のパターンが設定されている場合に適用ボタン(1140)をマウスでクリックすると、選択されたカメラで撮影を行う時に投影するパターンとしてパターン情報保持部40に登録する。   If preview button (1130) is clicked on with a mouse, the projector projects a pattern selected using pattern information input UI (1120), and the camera selected by camera selection UI (1100) captures an image. Based on the photographed image, the three-dimensional measuring unit 80 performs three-dimensional measurement and presents it on the information display UI (1110). By repeating pattern setting and preview for the selected camera, the user can visually confirm the three-dimensional measurement result when the pattern is changed and determine the pattern to be selected. If the application button (1140) is clicked with the mouse when a desired pattern is set, it is registered in the pattern information holding unit 40 as a pattern to be projected when shooting with the selected camera.

次に、三次元計測を行う前に実施する各カメラの投影パターンを決定する処理手順について説明する。図4は、第1の実施形態における投影パターン決定の処理手順を示すフローチャートである。   Next, a processing procedure for determining the projection pattern of each camera to be performed before performing the three-dimensional measurement will be described. FIG. 4 is a flowchart illustrating a processing procedure for determining a projection pattern in the first embodiment.

(ステップS1000)
ステップS1000において、カメラ選択部90は、初期化を行う。初期化では、全てのカメラについて対応する投影パターンが未決定の状態にする。
(Step S1000)
In step S1000, the camera selection unit 90 performs initialization. In the initialization, the projection patterns corresponding to all the cameras are in an undecided state.

(ステップS1010)
ステップS1010において、カメラ選択部90は、カメラの選択を行う。具体的には、まず、ユーザ操作取得部110が操作部120からの操作信号を受信し、受信した信号をカメラ選択部90が受信可能な形式で送信する。そして、カメラ選択部90は、受信した信号に基づいて、パターンを設定する対象のカメラの識別情報を撮像部50に送出することにより、カメラの選択を行う。ユーザによる操作部120の操作(カメラの選択)は、図3のカメラ選択UI(1100)を操作部120で操作することにより行う。ユーザは、ランタイムの計測時に投影するパターンが決定されていないカメラを選択する。本実施形態では、カメラ選択UIへのユーザ指示によりカメラの選択が行われるが、予めカメラ選択の順番を決めておき、その決められた順番で自動的に選択を行ってもよい。
(Step S1010)
In step S1010, the camera selection unit 90 selects a camera. Specifically, first, the user operation acquisition unit 110 receives an operation signal from the operation unit 120, and transmits the received signal in a format that can be received by the camera selection unit 90. And the camera selection part 90 selects a camera by sending the identification information of the camera which sets the pattern to the imaging part 50 based on the received signal. The operation of the operation unit 120 by the user (selection of the camera) is performed by operating the camera selection UI (1100) of FIG. The user selects a camera whose pattern to be projected is not determined during runtime measurement. In this embodiment, a camera is selected by a user instruction to the camera selection UI. However, a camera selection order may be determined in advance, and the selection may be automatically performed in the determined order.

(ステップS1020)
ステップS1020では、パターン情報設定部30は、ステップS1010で選択したカメラに対してパターンを設定する。つまり、選択したカメラが撮像する際に投影部から投影するパターンをカメラごとに設定する。まず、ユーザ操作取得部110が操作部120からの操作信号を受信し、受信した信号をパターン情報設定部30が受信可能な形式で送信する。ユーザによる操作部120の操作(パターンの設定)は、は図3のパターン情報設定UI(1120)を操作部120で操作することにより行う。パターン情報設定部30は、設定されたパターンの情報を、投影部10に送出する。
(Step S1020)
In step S1020, the pattern information setting unit 30 sets a pattern for the camera selected in step S1010. That is, the pattern projected from the projection unit when the selected camera captures an image is set for each camera. First, the user operation acquisition unit 110 receives an operation signal from the operation unit 120, and transmits the received signal in a format that can be received by the pattern information setting unit 30. The operation of the operation unit 120 by the user (pattern setting) is performed by operating the pattern information setting UI (1120) of FIG. The pattern information setting unit 30 sends the set pattern information to the projection unit 10.

(ステップS1030)
ステップS1030において、三次元計測部80は、三次元計測を行う。具体的には、まず、投影部10は、ステップS1020で設定されたパターンを投影する。そして、画像取得部70は、パターンが投影されたシーンを、ステップS1010で選択されたカメラで撮像した画像を入力する。そして、撮影された画像をもとに三次元計測を行う。三次元計測は次のように行う。
(Step S1030)
In step S1030, the three-dimensional measurement unit 80 performs three-dimensional measurement. Specifically, first, the projection unit 10 projects the pattern set in step S1020. Then, the image acquisition unit 70 inputs an image obtained by capturing the scene on which the pattern is projected with the camera selected in step S1010. Then, three-dimensional measurement is performed based on the photographed image. Three-dimensional measurement is performed as follows.

まず、入力された画像から線検出を行い、隣接する線の輝度値を用いて入力画像上の線に相当するパターン画像上の線を特定する対応付け処理を行う。次に前述の内部・外部パラメータを利用して、対応付けがなされた線を構成する入力画像上の各画素を三次元空間中の直線に、対応するパターン画像上の線を三次元空間中の平面に変換し、直線と平面の交点を求めることで注目画素の三次元座標を算出する。この処理を、画像上で検出された線及び線を構成する各画素について繰返すことで計測対象物表面の三次元点群を得る。   First, line detection is performed from the input image, and association processing for specifying a line on the pattern image corresponding to the line on the input image is performed using the luminance value of the adjacent line. Next, using the above-mentioned internal and external parameters, each pixel on the input image that constitutes the associated line is a straight line in the three-dimensional space, and the corresponding line on the pattern image is in the three-dimensional space. The three-dimensional coordinates of the target pixel are calculated by converting to a plane and obtaining the intersection of the straight line and the plane. This process is repeated for the line detected on the image and each pixel constituting the line to obtain a three-dimensional point group on the surface of the measurement object.

(ステップS1040)
ステップS1040では、表示部100は、ステップS1030での三次元計測の結果を各カメラと関連付けて表示する。ユーザは表示部100中の図3の3次元点群表示UI(1110)に表示される三次元計測結果を確認して、選択されているパターンが妥当か否かの判定を行う。この判定は、前述したように、三次元計測結果が実際の値(実際の形状)とどれだけずれているかをユーザが判断して行う。そして、ユーザは選択されたパターンが妥当であると判断した場合には、操作装置110により妥当であることを示す信号をユーザ操作取得部110に入力する。ユーザは視点位置や方向を変えて三次元点群を観察してもよい。また、ユーザは精度を示す色によって三次元計測が精度よく行われているかを確認してもよい。また、カメラ選択部90が、所定の値からのずれを自動的に判断してもよい。
(Step S1040)
In step S1040, the display unit 100 displays the result of the three-dimensional measurement in step S1030 in association with each camera. The user checks the three-dimensional measurement result displayed on the three-dimensional point cloud display UI (1110) of FIG. 3 in the display unit 100, and determines whether or not the selected pattern is appropriate. As described above, this determination is performed by the user determining how much the three-dimensional measurement result deviates from the actual value (actual shape). If the user determines that the selected pattern is valid, the operation device 110 inputs a signal indicating that the selected pattern is valid to the user operation acquisition unit 110. The user may observe the three-dimensional point group by changing the viewpoint position and direction. In addition, the user may confirm whether or not the three-dimensional measurement is accurately performed with the color indicating the accuracy. Further, the camera selection unit 90 may automatically determine a deviation from a predetermined value.

(ステップS1050)
ステップS1050では、カメラ選択部90は、ユーザが現在選択されているカメラを用いる場合に現在選択されているパターンをランタイムの三次元計測時に投影するパターンとして採用する指示があったか否かを判定する。具体的には、ユーザ操作取得部110からの信号に基づいて判定する。現在設定されているパターンに決定する(処理を終了する)場合にはステップS1060に進み、そうでない場合にはステップS1020に戻って異なるパターンを選択する。なお、例えば、三次元計測の測定対象物の形状が既知であれば、測定した値と実際の値とのずれを評価し、評価値の高いパターンを、ユーザ指示を待たずに自動的に設定するようにしてもよい。
(Step S1050)
In step S1050, the camera selection unit 90 determines whether or not there is an instruction to adopt the currently selected pattern as a pattern to be projected during runtime three-dimensional measurement when the user uses the currently selected camera. Specifically, the determination is made based on a signal from the user operation acquisition unit 110. If the currently set pattern is determined (the process is terminated), the process proceeds to step S1060. If not, the process returns to step S1020 to select a different pattern. For example, if the shape of the measurement object for three-dimensional measurement is known, the deviation between the measured value and the actual value is evaluated, and a pattern with a high evaluation value is automatically set without waiting for a user instruction. You may make it do.

(ステップS1060)
ステップS1060において、ユーザ操作取得部110は、ユーザから終了指示があるかの判定を行う。全てのカメラについて決定している場合にはステップS1070に進み、そうでない場合にはステップS1010に戻りまだ決定していないカメラを選択する。なお、撮像部50を構成する全てのカメラについて投影パターンが決定されている場合にもステップS1070に進む。
(Step S1060)
In step S1060, the user operation acquisition unit 110 determines whether there is an end instruction from the user. If all the cameras have been determined, the process proceeds to step S1070. If not, the process returns to step S1010 to select a camera that has not yet been determined. Note that the process also proceeds to step S1070 when projection patterns have been determined for all the cameras constituting the imaging unit 50.

(ステップS1070)
ステップS1070では、パターン情報保持部40は、撮像部50を構成する各カメラについて選択されたパターンの情報を、各カメラと関連づけて記憶する。この情報は、ランタイムの三次元計測を行う際に参照される。
(Step S1070)
In step S1070, the pattern information holding unit 40 stores the information on the pattern selected for each camera constituting the imaging unit 50 in association with each camera. This information is referenced when performing runtime 3D measurements.

ランタイムの三次元計測時には、カメラを逐次的に切り替え、各カメラについて、上述した方法によって設定された投影パターンをプロジェクタによって投影し、撮影された画像に基づいて三次元計測を行う。三次元計測の方法はステップS1030の説明で述べたとおりである。   At the time of three-dimensional measurement at runtime, the cameras are sequentially switched, the projection pattern set by the above-described method is projected by the projector for each camera, and the three-dimensional measurement is performed based on the photographed image. The three-dimensional measurement method is as described in the description of step S1030.

以上述べたように、第1の実施形態では、プロジェクタと複数台のカメラから構成される三次元計測装置において、各カメラとプロジェクタをステレオペアとする場合に各カメラに適したパターンを選択する方法について説明した。   As described above, in the first embodiment, in the three-dimensional measurement apparatus including a projector and a plurality of cameras, a method of selecting a pattern suitable for each camera when each camera and the projector are used as a stereo pair. Explained.

(第2の実施形態)
第2の実施形態では、プロジェクタと複数台のカメラによって構成される三次元計測装置のうち、カメラとカメラをステレオペアとして三次元計測を行う三次元計測装置に本発明を適用した場合について説明する。本実施形態では、三次元計測として複数台のカメラのうち2台のカメラ(カメラペア)を選択し、選択されたカメラペアに適したパターンをプロジェクタが投影し、選択されたカメラペアによって撮像された複数の画像に基づいて三次元計測を行う方法を想定する。
(Second Embodiment)
In the second embodiment, a case will be described in which the present invention is applied to a three-dimensional measurement apparatus that performs three-dimensional measurement using a camera and a camera as a stereo pair, among three-dimensional measurement apparatuses including a projector and a plurality of cameras. . In the present embodiment, two cameras (camera pairs) are selected from among a plurality of cameras as a three-dimensional measurement, and a projector projects a pattern suitable for the selected camera pair, and is picked up by the selected camera pair. A method of performing three-dimensional measurement based on a plurality of images is assumed.

本実施形態における情報処理装置2の構成は第1の実施形態における情報処理装置1の構成と同一であるため図を省略する。以下、情報処理装置2を構成する各部について説明する。   Since the configuration of the information processing apparatus 2 in the present embodiment is the same as the configuration of the information processing apparatus 1 in the first embodiment, a diagram thereof is omitted. Hereinafter, each part which comprises the information processing apparatus 2 is demonstrated.

投影部10、パターン情報設定部30、撮像部50、表示部100、ユーザ操作取得部110、操作部120は、第1の実施形態と同じであるため説明を省略する。なお第2の実施形態ではプロジェクタの内部パラメータ及びプロジェクタとカメラの間の外部パラメータは不要である。   Since the projection unit 10, the pattern information setting unit 30, the imaging unit 50, the display unit 100, the user operation acquisition unit 110, and the operation unit 120 are the same as those in the first embodiment, description thereof is omitted. In the second embodiment, the internal parameters of the projector and the external parameters between the projector and the camera are not necessary.

パターン情報保持部40は、プロジェクタが表示するパターンに関する情報を保持する。本実施形態では、撮像部50を構成する複数のカメラのうち2台のカメラを組み合わせて、複数のカメラペアを作成する。本実施形態では、図2におけるカメラ1とカメラ3、カメラ2とカメラ4をカメラペアとする。本実施形態では、各カメラ間(撮像手段間)の配置(外部パラメータ)は既知であるが、カメラとプロジェクタ間の配置(外部パラメータ)は既知である必要はない。パターン情報保持部40は、各カメラペアについて、プロジェクタがどの2次元パターンを投影するかの情報を保持する。情報の保持方法は、パターンの向き(角度)の情報であってもよいし、パターンの向きに応じて回転された2次元パターン画像であってもよい。パターンの向き(角度)の情報である場合には、ランタイムの三次元計測を行う際に向きに応じたパターン画像を生成し照射する。   The pattern information holding unit 40 holds information related to the pattern displayed by the projector. In the present embodiment, a plurality of camera pairs are created by combining two cameras among a plurality of cameras constituting the imaging unit 50. In the present embodiment, the camera 1 and camera 3 and the camera 2 and camera 4 in FIG. In the present embodiment, the arrangement (external parameters) between the cameras (between the imaging means) is known, but the arrangement (external parameters) between the cameras and the projectors need not be known. The pattern information holding unit 40 holds information about which two-dimensional pattern the projector projects for each camera pair. The information holding method may be pattern direction (angle) information or a two-dimensional pattern image rotated in accordance with the pattern direction. In the case of pattern direction (angle) information, a pattern image corresponding to the direction is generated and irradiated when performing runtime three-dimensional measurement.

画像取得部70は、カメラ選択部90によって選択されたカメラペアを構成する2台のカメラが撮像した画像を三次元計測部80に入力する。   The image acquisition unit 70 inputs an image captured by two cameras constituting the camera pair selected by the camera selection unit 90 to the three-dimensional measurement unit 80.

三次元計測部80は、画像取得部70から入力された画像及びパターン情報保持部40に保持されているパターンの情報及び不図示の記憶装置に保持されているカメラの内部パラメータ及びカメラ間の外部パラメータをもとに計測対象物の三次元計測を行う。   The three-dimensional measurement unit 80 includes the image input from the image acquisition unit 70 and the pattern information held in the pattern information holding unit 40, the internal parameters of the camera held in a storage device (not shown), and the external between the cameras. Perform 3D measurement of the measurement object based on the parameters.

カメラ選択部90は、パターンを設定する対象のカメラペアを構成するカメラの識別情報をシステムに入力する。   The camera selection unit 90 inputs identification information of cameras constituting the target camera pair for setting a pattern to the system.

次に、図5を用いて本実施形態に係るGUIについて説明する。GUIは不図示のモニタ上に表示されているものとする。   Next, the GUI according to the present embodiment will be described with reference to FIG. It is assumed that the GUI is displayed on a monitor (not shown).

カメラ選択UI(2100)はカメラ選択部90に相当する。このUIを用いてユーザはカメラペアの選択を行う。ユーザはラジオボタンを不図示のマウスでクリックすることでカメラの選択を行う。このUIによって、ユーザはカメラペア毎に相応しいパターンを設定することが可能になる。   The camera selection UI (2100) corresponds to the camera selection unit 90. Using this UI, the user selects a camera pair. The user selects a camera by clicking a radio button with a mouse (not shown). With this UI, the user can set an appropriate pattern for each camera pair.

情報表示UI(2110)は、表示部100に相当する。このUIは基本的には第1の実施形態の情報表示UI(1110)と同一である。ただし、第1の実施形態では一台のカメラの二次元画像と三次元点群の表示の切り替えが可能であったのに対し、本実施形態では選択されたカメラペアを構成する二台のカメラの二次元画像と三次元点群の表示の切り替えが可能である。さらにはカメラの二次元画像が表示されている場合に、カメラペアを構成するカメラの配置から決定されるエピポーララインを重畳表示し、プロジェクタが投影するパターンの方向とエピポーララインの方向の比較を行えるようにする。   The information display UI (2110) corresponds to the display unit 100. This UI is basically the same as the information display UI (1110) of the first embodiment. However, in the first embodiment, it is possible to switch between the display of the two-dimensional image and the three-dimensional point group of one camera, whereas in the present embodiment, the two cameras constituting the selected camera pair The display of the 2D image and the display of the 3D point cloud can be switched. Furthermore, when a two-dimensional image of the camera is displayed, the epipolar line determined from the arrangement of the cameras constituting the camera pair is displayed in a superimposed manner, and the direction of the pattern projected by the projector can be compared with the direction of the epipolar line. Like that.

パターン情報入力UI(2120)はパターン情報設定部30に相当する。このUIは基本的には第1の実施形態のパターン情報入力UI(1120)と同一である。プレビューボタン(2130)をマウスでクリックすると、プロジェクタはパターン情報入力UI(1120)を用いて選択されたパターンを投影し、カメラ選択UI(2100)によって選択された2台のカメラが画像を撮影する。撮影された2枚の画像をもとに三次元計測部80が三次元計測を行いデータ表示UI(2110)に提示する。所望のパターンが選択されている場合に適用ボタン(1140)をマウスでクリックすると、選択されたカメラペアで撮影を行う時に投影するパターンとしてパターン情報保持部40に登録する。   The pattern information input UI (2120) corresponds to the pattern information setting unit 30. This UI is basically the same as the pattern information input UI (1120) of the first embodiment. If preview button (2130) is clicked on with a mouse, it projects the pattern selected using pattern information input UI (1120), and the two cameras selected by camera selection UI (2100) capture images. . Based on the two captured images, the three-dimensional measurement unit 80 performs three-dimensional measurement and presents it on the data display UI (2110). If the application button (1140) is clicked with the mouse when a desired pattern is selected, it is registered in the pattern information holding unit 40 as a pattern to be projected when shooting with the selected camera pair.

次に、三次元計測を行う前に実施する各カメラペアの投影パターンを決定する処理手順について説明する。この処理手順は実施例1における処理手順とほぼ同じであるので図4のフローチャートを参照して説明する。なお、ステップS2000〜S2090は図4のステップS1000〜S1090に相当する。   Next, a processing procedure for determining the projection pattern of each camera pair performed before performing three-dimensional measurement will be described. Since this processing procedure is almost the same as the processing procedure in the first embodiment, it will be described with reference to the flowchart of FIG. Steps S2000 to S2090 correspond to steps S1000 to S1090 in FIG.

(ステップS2000)
ステップS2000において、カメラ選択部90は初期化を行う。初期化では、全てのカメラペアについて対応する投影パターンが未決定の状態にする。
(Step S2000)
In step S2000, the camera selection unit 90 performs initialization. In the initialization, the projection patterns corresponding to all the camera pairs are in an undecided state.

(ステップS2010)
ステップS2010において、カメラ選択部90は、カメラペアの選択を行う。カメラの選択は図5のカメラ選択UI(2100)を介して入力されるユーザの指示により行われる。ユーザは、ランタイムの計測時に投影するパターンが決定されていないカメラペアを、カメラ選択UI(2100)を通じて選択する。
(Step S2010)
In step S2010, the camera selection unit 90 selects a camera pair. The selection of the camera is performed according to a user instruction input via the camera selection UI (2100) in FIG. The user selects a camera pair whose pattern to be projected at the time of measurement at runtime is not determined through the camera selection UI (2100).

(ステップS2020)
ステップS2020において、パターン情報設定部30は、ステップS2010で選択したカメラペアに対する投影パターンを選択する。投影パターンの選択は図5のパターン情報入力UI(2120)を介して入力されるユーザの指示により行われる。
(Step S2020)
In step S2020, the pattern information setting unit 30 selects a projection pattern for the camera pair selected in step S2010. The selection of the projection pattern is performed by a user instruction input via the pattern information input UI (2120) in FIG.

(ステップS2030)
ステップS2030において、三次元計測部80は、三次元計測を行う。具体的には、まず、投影部10は、ステップS2020で選択されたパターンを投影する。そして、ステップS2010で選択されたカメラペアを構成する2台のカメラによってパターンが投影されたシーンを撮影する。そして、撮影された画像をもとに三次元計測を行う。三次元計測は次のように行う。
(Step S2030)
In step S2030, the three-dimensional measurement unit 80 performs three-dimensional measurement. Specifically, first, the projection unit 10 projects the pattern selected in step S2020. Then, the scene on which the pattern is projected is captured by the two cameras constituting the camera pair selected in step S2010. Then, three-dimensional measurement is performed based on the photographed image. Three-dimensional measurement is performed as follows.

まず、カメラペアを構成するカメラのうち1台のカメラ(以下、カメラA)に入力された画像から線検出を行い、隣接する線の輝度値を用いて入力画像上の線に相当するもう一方のカメラ(以下、カメラB)の撮像画像上の線を特定する対応付け処理を行う。次に前述の内部・外部パラメータを利用して、対応付けがなされた線を構成するカメラAの撮像画像上の各画素を三次元空間中の直線に変換する。そして、対応するカメラBの撮像画像上の線を三次元空間中の平面に変換する。そして、それぞれ変換された直線と平面との交点を求めることで注目画素の三次元座標を算出する。この処理を、画像上で検出された線及び線を構成する各画素について繰返すことで計測対象物表面の三次元点群を得る。そして、得られた三次元点群の情報を表示部100に送出する。   First, line detection is performed from an image input to one camera (hereinafter referred to as camera A) of cameras constituting a camera pair, and the other side corresponding to the line on the input image using the luminance value of the adjacent line. The association process for specifying the line on the captured image of the camera (hereinafter referred to as camera B) is performed. Next, using the above-described internal / external parameters, each pixel on the captured image of the camera A constituting the associated line is converted into a straight line in the three-dimensional space. Then, the line on the captured image of the corresponding camera B is converted into a plane in the three-dimensional space. Then, the three-dimensional coordinates of the target pixel are calculated by obtaining the intersection points between the converted straight lines and the plane. This process is repeated for the line detected on the image and each pixel constituting the line to obtain a three-dimensional point group on the surface of the measurement object. Then, the information of the obtained three-dimensional point group is sent to the display unit 100.

(ステップS2040)
ステップS2040において、表示部100は、ステップS2030での三次元計測の結果を表示する。ユーザは表示部中の情報表示UI(2110)(図5)に表示される三次元計測結果を確認して、選択されているパターンが妥当か否かの判定を行う。この判定については、S1040における処理と同様である。
(Step S2040)
In step S2040, the display unit 100 displays the result of the three-dimensional measurement in step S2030. The user confirms the three-dimensional measurement result displayed on the information display UI (2110) (FIG. 5) in the display unit, and determines whether or not the selected pattern is appropriate. This determination is the same as the processing in S1040.

(ステップS2050)
ステップS2050では、カメラ選択部90は、ユーザは現在選択されているカメラペアを用いる場合に現在選択されているパターンを投影して三次元計測を行うかどうかを決定する。選択されているパターンに決定する場合にはステップS2060に進み、そうでない場合にはステップS2020に戻って異なるパターンを選択する。
(Step S2050)
In step S2050, the camera selection unit 90 determines whether to perform three-dimensional measurement by projecting the currently selected pattern when the user uses the currently selected camera pair. If the selected pattern is determined, the process proceeds to step S2060; otherwise, the process returns to step S2020 to select a different pattern.

(ステップS2060)
ステップS2060において、カメラ選択部90は、予め決められた全てのカメラペアについて投影パターンが決定されているか判定を行う。そして、全てのカメラペアについて決定している場合にはステップS2070に進み、そうでない場合にはステップS2010に戻りまだ決定していないカメラペアを選択する。
(Step S2060)
In step S2060, the camera selection unit 90 determines whether projection patterns have been determined for all predetermined camera pairs. If all camera pairs have been determined, the process proceeds to step S2070. If not, the process returns to step S2010 to select an undecided camera pair.

(ステップS2070)
ステップS2070において、パターン情報保持部40は、ステップS2010〜ステップS2060を繰り返すことにより、予め決められた全てのカメラペアについて選択されたパターンの情報を保存する。この情報は、ランタイムの三次元計測を行う際に参照される。
(Step S2070)
In step S2070, the pattern information holding unit 40 stores information on the patterns selected for all the predetermined camera pairs by repeating steps S2010 to S2060. This information is referenced when performing runtime 3D measurements.

ランタイムの三次元計測時には、カメラペアを逐次的に切り替え、各カメラペアについて、上述した方法によって設定された投影パターンをプロジェクタによって投影し、撮影された画像に基づいて三次元計測を行う。三次元計測の方法はステップS2030の説明で述べたとおりである。   At the time of three-dimensional measurement at runtime, the camera pairs are sequentially switched, the projection pattern set by the above-described method is projected by the projector for each camera pair, and three-dimensional measurement is performed based on the photographed image. The three-dimensional measurement method is as described in the description of step S2030.

以上述べたように、第2の実施形態では、プロジェクタと複数台のカメラから構成される三次元計測装置において、カメラとカメラをステレオペアとする場合に各ペアに適したパターンを選択する方法について説明した。   As described above, in the second embodiment, in the three-dimensional measurement apparatus including a projector and a plurality of cameras, a method for selecting a pattern suitable for each pair when the camera and the camera are a stereo pair. explained.

なお、本実施形態において三次元計測は2台のカメラが撮像する画像を用いて行うことを想定してプロジェクタが投影するパターンの決定を行った。しかしながら、カメラの台数は2台に限るものではなく、2台以上のカメラであってもよい。また、本実施形態ではカメラペアはあらかじめ決められていることを前提としていた。しかしながらカメラペアはパターン選択の際にユーザが決定してもよい。   In the present embodiment, the pattern projected by the projector is determined on the assumption that three-dimensional measurement is performed using images captured by two cameras. However, the number of cameras is not limited to two, and two or more cameras may be used. In the present embodiment, it is assumed that camera pairs are determined in advance. However, the camera pair may be determined by the user at the time of pattern selection.

(第3の実施形態)
第1及び第2の実施形態では、選択したカメラまたはカメラペアについてユーザが投影するパターンを選択し、三次元計測の結果を見て判断を行っていた。第3の実施形態では、カメラとプロジェクタの配置に基づいて、適した投影するパターンを自動的に算出してユーザに提示する。第3の実施形態では第1の実施形態と同様にカメラとプロジェクタのペアから三次元計測を行う場合について説明する。
(Third embodiment)
In the first and second embodiments, a pattern to be projected by the user is selected for the selected camera or camera pair, and a determination is made by looking at the result of three-dimensional measurement. In the third embodiment, a suitable pattern to be projected is automatically calculated based on the arrangement of the camera and the projector and presented to the user. In the third embodiment, a case where three-dimensional measurement is performed from a pair of a camera and a projector will be described as in the first embodiment.

第3の実施形態における情報処理装置3の構成とGUIは第1の実施形態と同一であるので図を省略する。   Since the configuration and GUI of the information processing apparatus 3 in the third embodiment are the same as those in the first embodiment, a diagram thereof is omitted.

次に、三次元計測を行う前に実施する各カメラの投影パターンを決定する処理手順について説明する。図6は、第3の実施形態における投影パターン決定の処理手順を示すフローチャートである。   Next, a processing procedure for determining the projection pattern of each camera to be performed before performing the three-dimensional measurement will be described. FIG. 6 is a flowchart showing a processing procedure for determining a projection pattern in the third embodiment.

(ステップS3010)
ステップS3010において、カメラ選択部90は、カメラの選択を行う。カメラの選択は図3のカメラ選択UI(1100)を介してユーザが行う。ユーザは、ランタイムの計測時に投影するパターンが決定されていないカメラを選択する。
(Step S3010)
In step S3010, the camera selection unit 90 selects a camera. The user selects a camera via the camera selection UI (1100) in FIG. The user selects a camera whose pattern to be projected is not determined during runtime measurement.

(ステップS3025)
ステップS3025では、パターン情報設定部90は、ステップS3010で選択したカメラに対する最適な投影パターンの算出を行う。最適な投影パターンの算出は、カメラとプロジェクタの内部パラメータ及びカメラ−プロジェクタ間の外部パラメータに基づいて行う。ここで、投影するパターンの候補としては、プロジェクタ画像の垂直方向に平行なマルチラインパターンとプロジェクタ画像の水平方向に平行なマルチラインパターンがあるものとする。具体的には、3次元空間においてプロジェクタのレンズ中心からカメラのレンズ中心に向かうベクトルをプロジェクタ画像上に投影したときの画像上の方向を算出する。そして、算出された方向とプロジェクタ画像の水平方向とのなす角が45度以下の場合には、プロジェクタ画像の垂直方向に平行なマルチラインパターンを選択し、45度より大きい場合にはプロジェクタ画像の水平方向に平行なマルチラインパターンを選択する。
(Step S3025)
In step S3025, the pattern information setting unit 90 calculates an optimal projection pattern for the camera selected in step S3010. The optimal projection pattern is calculated based on the internal parameters of the camera and the projector and the external parameters between the camera and the projector. Here, it is assumed that the candidate patterns to be projected include a multiline pattern parallel to the vertical direction of the projector image and a multiline pattern parallel to the horizontal direction of the projector image. Specifically, the direction on the image when a vector from the lens center of the projector to the lens center of the camera is projected on the projector image in the three-dimensional space is calculated. When the angle between the calculated direction and the horizontal direction of the projector image is 45 degrees or less, a multiline pattern parallel to the vertical direction of the projector image is selected. Select a multi-line pattern parallel to the horizontal direction.

(ステップS3030)
ステップS3030では、三次元計測部80は、三次元計測を行う。具体的には、まず、ステップS3025またはS3020で選択されたパターンをプロジェクタ(投影部)が投影する。そして、ステップS3010で選択されたカメラ(撮像部)によってパターンが投影されたシーン(計測対象)を撮影し、撮影された画像をもとに三次元計測を行う。三次元計測部80は、三次元計測結果を表示部100に送出する。
(Step S3030)
In step S3030, the three-dimensional measurement unit 80 performs three-dimensional measurement. Specifically, first, the projector (projection unit) projects the pattern selected in step S3025 or S3020. Then, the scene (measurement target) on which the pattern is projected by the camera (imaging unit) selected in step S3010 is photographed, and three-dimensional measurement is performed based on the photographed image. The three-dimensional measurement unit 80 sends the three-dimensional measurement result to the display unit 100.

(ステップS3040)
ステップS3040において、表示部100は、ステップS3030での三次元計測の結果を表示する。図3のデータ表示UI(1110)は表示部100による表示結果の例である。ユーザは図3のUIに表示される三次元計測結果を確認して、選択されているパターンが妥当か否かの判定を行い、操作部120で判定結果を情報処理装置3に送出する。前述したように、ユーザは視点位置や方向を変えて三次元点群を観察してもよい。また、ユーザは精度を示す色によって三次元計測が正常に行われているかを確認してもよい。
(Step S3040)
In step S3040, the display unit 100 displays the result of the three-dimensional measurement in step S3030. A data display UI (1110) in FIG. 3 is an example of a display result by the display unit 100. The user confirms the three-dimensional measurement result displayed on the UI shown in FIG. 3, determines whether the selected pattern is valid, and sends the determination result to the information processing apparatus 3 using the operation unit 120. As described above, the user may observe the three-dimensional point group by changing the viewpoint position and direction. In addition, the user may check whether the three-dimensional measurement is normally performed with a color indicating accuracy.

(ステップS3050)
ステップS3050において、パターン情報設定部30は、ユーザは現在選択されているカメラを用いる場合に現在選択されているパターンを投影して三次元計測を行うかどうかを決定する。選択されているパターンに決定する場合にはステップS3060に進み、そうでない場合にはステップS3020に進んで異なるパターンを選択する。
(Step S3050)
In step S3050, the pattern information setting unit 30 determines whether to perform three-dimensional measurement by projecting the currently selected pattern when the user uses the currently selected camera. If it is determined to be the selected pattern, the process proceeds to step S3060. If not, the process proceeds to step S3020 to select a different pattern.

(ステップS3020)
ステップS3020において、パターン情報設定部30は、ステップS3010で選択したカメラに対する投影パターンの設定を行う。投影パターンの選択は図3のパターン情報入力UI(1120)を介してユーザが行う。
(Step S3020)
In step S3020, the pattern information setting unit 30 sets a projection pattern for the camera selected in step S3010. The projection pattern is selected by the user via the pattern information input UI (1120) in FIG.

(ステップS3060)
ステップS3060において、カメラ選択部90は、ユーザにより終了指示が入力されているか判定を行う。そして、入力されている場合にはステップS3070に進み、そうでない場合にはステップS3010に戻りまだ決定していないカメラを選択する。撮像部50を構成する全てのカメラについて投影パターンが決定されている場合にもステップS3070に進む。
(Step S3060)
In step S3060, the camera selection unit 90 determines whether an end instruction has been input by the user. If it is input, the process proceeds to step S3070. If not, the process returns to step S3010 to select a camera that has not yet been determined. Even when projection patterns have been determined for all cameras constituting the imaging unit 50, the process proceeds to step S3070.

(ステップS3070)
ステップS3070において、パターン情報保持部40は、撮像部50を構成する各カメラについて選択されたパターンの情報をパターン情報保持手段40に保存する。この情報は、ランタイムの三次元計測を行う際に参照される。
(Step S3070)
In step S3070, the pattern information holding unit 40 stores information on the pattern selected for each camera constituting the imaging unit 50 in the pattern information holding unit 40. This information is referenced when performing runtime 3D measurements.

本実施形態におけるランタイムの三次元計測の処理手順は第1の実施形態と同じであるので説明を省略する。   Since the processing procedure of runtime three-dimensional measurement in this embodiment is the same as that of the first embodiment, the description thereof is omitted.

第3の実施形態では、カメラとプロジェクタとの既知の配置情報に基づいて、最適なパターンを決定する方法について述べた。しかし、ステレオペアはこれに限るものではなく、カメラとカメラをステレオペアとする場合に最適なパターンを決定して三次元計測を行い、ユーザに三次元計測結果を提示してもよい。   In the third embodiment, the method for determining the optimum pattern based on the known arrangement information of the camera and the projector has been described. However, the stereo pair is not limited to this, and a three-dimensional measurement may be performed by determining an optimum pattern when the camera and the camera are a stereo pair, and the three-dimensional measurement result may be presented to the user.

(第4の実施形態)
第4の実施形態では、カメラもしくはカメラペアごとに投影パターンの色を変える場合について説明する。本実施形態では第2の実施形態と同様に、カメラペアを選択して各カメラペアに最適なパターンを設定するものとする。
(Fourth embodiment)
In the fourth embodiment, a case will be described in which the color of the projection pattern is changed for each camera or camera pair. In the present embodiment, as in the second embodiment, a camera pair is selected and an optimum pattern is set for each camera pair.

図11は本実施形態におけるGUIを説明する図である。図11のGUIには図5のGUIに色指定部4150が追加されている。本実施形態における投影パターン決定の処理手順は基本的に第2の実施形態と同様であるため、処理が異なるステップS2020のみ説明する。第2の実施形態において、ステップS2020ではパターンの選択のみを行っていた。しかし本実施形態では、色指定部4150を用いて選択されたカメラペアについて投影するパターンの色も決定する。例えば、図2において、カメラ1とカメラ3のカメラペアはモノクロのマルチラインパターン、カメラ2とカメラ4はカラーパターン(前述のBoyerのマルチラインパターン)といった選択を行うことができる。なお、モノクロパターンとカラーパターンのパターンの形状は同じにする必要はない。また、GUI上で選択するカメラがカラーカメラかモノクロカメラかがわかるように表示しておき、最適なパターンが選択できるようにしておいてもよい。例えば、カメラ選択UIにおいて、カラーカメラとモノクロカメラの表示を変えるなどして、ユーザがパターンの色を判定しやすいようにしておいてもよい。さらに、カメラの種類(モノクロ/カラー)に応じて利用できないパターンは選択できないようにしてもよい。   FIG. 11 is a diagram illustrating a GUI according to the present embodiment. A color designation unit 4150 is added to the GUI in FIG. 11 in addition to the GUI in FIG. Since the processing procedure for determining the projection pattern in the present embodiment is basically the same as that in the second embodiment, only step S2020 in which the processing is different will be described. In the second embodiment, only the pattern is selected in step S2020. However, in this embodiment, the color of the pattern to be projected for the camera pair selected using the color designation unit 4150 is also determined. For example, in FIG. 2, the camera pair of the camera 1 and the camera 3 can be selected as a monochrome multiline pattern, and the camera 2 and the camera 4 can be selected as a color pattern (the aforementioned Boyer multiline pattern). The monochrome pattern and the color pattern need not have the same shape. Further, it may be displayed so that the camera to be selected on the GUI can be seen as a color camera or a monochrome camera so that an optimum pattern can be selected. For example, in the camera selection UI, the display of the color camera and the monochrome camera may be changed so that the user can easily determine the color of the pattern. Furthermore, a pattern that cannot be used according to the type of camera (monochrome / color) may not be selected.

なお、本実施形態ではカメラペアごとに投影パターンの色を変えていたが、これに限るものではない。第1の実施形態と同様に、カメラごとに投影パターンを設定する場合に、投影パターンの色を変えてもよい。   In the present embodiment, the color of the projection pattern is changed for each camera pair, but the present invention is not limited to this. Similar to the first embodiment, when a projection pattern is set for each camera, the color of the projection pattern may be changed.

第4の実施形態では、カメラとカメラをステレオペアとする場合について述べた。しかし、ステレオペアはこれに限るものではなく、カメラとプロジェクタをステレオペアとしてもよい。   In the fourth embodiment, the case where the camera and the camera are a stereo pair has been described. However, the stereo pair is not limited to this, and the camera and projector may be a stereo pair.

<その他の実施例>
(変形例1)
以上述べた実施形態では、画像に撮像される領域のうち特定の領域に限定することなく三次元計測に最適なパターンの選択を行っていた。しかしながら、パターンの選択方法はこれに限るものではなく、特定の領域内の三次元計測結果を見てユーザが選択したパターンの利用を判断してもよい。図7を用いて本変形例に係るGUIについて説明する。図7は第1の実施形態におけるGUIのデータ表示UI(1110)である。三次元計測の対象物体1160の画像内での大きさが画像サイズより小さい場合、ユーザは操作部120であるマウスによりマウスカーソル1170を操作して画像内で矩形領域1160を指定する。三次元計測手段80は、矩形領域1160で指定された領域内の三次元点群のみを算出する。ユーザは指定された領域内の三次元計測結果を見てパターンの採否を判断する。これによって、計測対象以外の領域の三次元計測結果に影響されることなく、計測対象に最も適したパターンを選択することができる。
<Other examples>
(Modification 1)
In the embodiment described above, the optimum pattern for the three-dimensional measurement is selected without being limited to a specific area among the areas captured in the image. However, the pattern selection method is not limited to this, and the use of the pattern selected by the user may be determined by looking at the three-dimensional measurement result in a specific area. A GUI according to this modification will be described with reference to FIG. FIG. 7 shows a GUI data display UI (1110) according to the first embodiment. When the size of the three-dimensional measurement target object 1160 in the image is smaller than the image size, the user operates the mouse cursor 1170 with the mouse as the operation unit 120 to specify the rectangular area 1160 in the image. The three-dimensional measuring unit 80 calculates only the three-dimensional point group in the area designated by the rectangular area 1160. The user determines whether or not the pattern is accepted by looking at the three-dimensional measurement result in the designated area. As a result, a pattern most suitable for the measurement target can be selected without being affected by the three-dimensional measurement result of the region other than the measurement target.

なお、本変形例では第1の実施形態と同様にカメラとプロジェクタをステレオペアとする場合について述べた。しかし、ステレオペアはこれに限るものではなく、第2の実施形態と同様にカメラとカメラのステレオペアであってもよい。この場合、どちらか一方のカメラが撮像する画像において領域を指定してもよいし、双方のカメラで領域を指定してもよい。2台のカメラの観察領域は一致しないため、一方のカメラで指定した領域内の三次元計測を行った結果を既知の内部・外部パラメータを利用して他方の画像上に投影し、指定した領域内にある三次元点群のみデータ表示UI(1110)に表示してもよい。   In the present modification, the case where the camera and the projector are paired as a stereo pair has been described as in the first embodiment. However, the stereo pair is not limited to this, and may be a camera-camera stereo pair as in the second embodiment. In this case, an area may be specified in an image captured by either camera, or an area may be specified by both cameras. Since the observation areas of the two cameras do not match, the result of 3D measurement in the area specified by one camera is projected onto the other image using known internal and external parameters, and the specified area Only the three-dimensional point group inside may be displayed on the data display UI (1110).

また、画像内で指定する領域は必ずしも矩形領域でなくてもよい。例えば、任意の形状の多角形領域であってもよいし、楕円や円などの曲線で囲まれた領域であってもよい。すなわち、マウスなどのユーザインタフェースによって指定される画像上の閉領域であればどのような領域であってもよい。   Also, the area specified in the image does not necessarily have to be a rectangular area. For example, it may be a polygonal area having an arbitrary shape, or may be an area surrounded by a curve such as an ellipse or a circle. That is, any region may be used as long as it is a closed region on an image designated by a user interface such as a mouse.

(変形例2)
以上述べた実施形態では、カメラまたはカメラペアごとに異なるパターンの切り替え・投影・撮像を逐次的に行っていた。しかしながら、異なるカメラまたはカメラペアで共通のパターンが投影される場合には、パターンを切り替えることなく撮影を行ってもよい。例えば、図2においてカメラ1とカメラ3のカメラペア、及びカメラ2とカメラ4のカメラペアに対して共通のパターンが設定される場合は以下のようにする。すなわち、カメラ1とカメラ3用のパターンを投影してカメラ1とカメラ3で撮影を行った後、パターンを切り替えてカメラ2とカメラ4で撮影を行う。つまり、パターンが共通の場合に切り替えを行わないようにすることで、撮影にかかる時間を短縮することが可能になる。
(Modification 2)
In the embodiments described above, different patterns are switched, projected, and imaged sequentially for each camera or camera pair. However, when a common pattern is projected by different cameras or camera pairs, shooting may be performed without switching the pattern. For example, when a common pattern is set for the camera pair of camera 1 and camera 3 and the camera pair of camera 2 and camera 4 in FIG. That is, after the pattern for the camera 1 and the camera 3 is projected and shooting is performed with the camera 1 and the camera 3, the pattern is switched and shooting is performed with the camera 2 and the camera 4. That is, it is possible to reduce the time required for shooting by not performing switching when the patterns are common.

また、例えば2台のカメラに最適なパターンの向きの差の絶対値が所定の閾値を下回る場合には、それぞれのカメラに最適なパターンを選択するのではなく、どちらか一方のパターンのみを用いることにして撮影に係る時間を短縮してもよい。   Further, for example, when the absolute value of the difference between the orientations of the patterns optimal for two cameras is below a predetermined threshold, only one of the patterns is used instead of selecting the optimal pattern for each camera. In some cases, the time required for shooting may be shortened.

なお、本変形例では第2の実施形態と同様にカメラとカメラをステレオペアとする場合について述べた。しかし、ステレオペアはこれに限るものではなく、第1の実施形態と同様にカメラとプロジェクタのステレオペアであってもよい。   In this modification, the case where the camera and the camera are paired in stereo is described as in the second embodiment. However, the stereo pair is not limited to this, and may be a stereo pair of a camera and a projector as in the first embodiment.

(変形例3)
以上の実施形態で説明した図3や図5に示すGUIでは、カメラを選択するためのUI、パターンに関する情報を入力するためのUI、選択したカメラとパターンで計測された三次元計測結果を表示するデータ表示UIから構成されていた。
(Modification 3)
The GUI shown in FIGS. 3 and 5 described in the above embodiment displays a UI for selecting a camera, a UI for inputting information related to a pattern, and a three-dimensional measurement result measured with the selected camera and pattern. It consisted of a data display UI.

しかしながらGUIの構成要素はこれに限るものではない。例えば、図8に示すように、予めキャリブレーションされたカメラとプロジェクタの外部パラメータをもとに仮想空間内で定義される世界座標系にカメラとプロジェクタを配置する。そして、別途設定される仮想的な視点における画像をコンピュータグラフィクスにより生成しGUI上に配置してもよい。この画面において、選択されたカメラを他のカメラと色を変えるなど区別して表示することで、どのカメラのパターンを選択しているかをユーザが容易に把握することが可能になる。また、パターンを選択済みのカメラと未選択のカメラで表示方法を変えて、ユーザが未選択のカメラを選択しやすいようにしてもよい。さらには、カメラとプロジェクタだけでなく、選択されたカメラに設定されたパターンが仮想空間内に投影された様子も表示してもよい。   However, the components of the GUI are not limited to this. For example, as shown in FIG. 8, the camera and the projector are arranged in a world coordinate system defined in the virtual space based on the external parameters of the camera and the projector calibrated in advance. Then, an image at a virtual viewpoint set separately may be generated by computer graphics and placed on the GUI. On this screen, the selected camera is displayed separately from other cameras by changing the color or the like, so that the user can easily grasp which camera pattern is selected. Further, the display method may be changed between a camera for which a pattern has been selected and an unselected camera so that the user can easily select an unselected camera. Furthermore, not only the camera and the projector but also a state in which the pattern set for the selected camera is projected in the virtual space may be displayed.

本変形例は、第1の実施形態のようにカメラとプロジェクタをステレオペアとする場合、第1の実施形態のようにカメラとカメラをステレオペアとするいずれの場合であっても適用することが可能である。   This modification can be applied to any case where the camera and projector are in a stereo pair as in the first embodiment, and where the camera and camera are in a stereo pair as in the first embodiment. Is possible.

(変形例4)
以上述べた各実施形態では、離散的に設定された投影するパターンの方向をユーザが選択していた。しかしながら、ユーザが設定するパターンに関する情報はこれに限るものではない。パターンの方向は離散的ではなく、スライダなどを利用して連続値として設定してもよい。また、例えば、図9に示すようなGUIを介してマルチラインパターン(線パターン)の線の間隔や幅をユーザが決定してもよい。線の間隔は、計測したい対象の形状の細かさに応じ決定する必要がある。細かい形状を計測したい場合には線間隔を狭める必要があり、大まかな形状を計測するのであれば線間隔を広げてもよい。また、線間隔が狭い場合には、ボケの影響や動的な環境を計測する場合にはモーションブラーによって線が広がり異なる線が画像上で重なる場合があり、計測精度が低下する。ユーザはGUIを介して三次元計測結果を観察することで、ボケやモーションブラーなどの影響も考慮しながら最適な線間隔を決定することができる。また、線の幅に関しては、カメラとプロジェクタの解像度の比に基づいて決定する必要がある。カメラ側の1画素より線幅が狭い場合には線を十分な精度で検出することができないため、線幅を広くする必要がある。線間隔と同様にユーザはGUIを介して三次元計測結果を参照しながら最適な線幅を決定することができる。
(Modification 4)
In each of the embodiments described above, the user selects the direction of the pattern to be projected set discretely. However, the information regarding the pattern set by the user is not limited to this. The direction of the pattern is not discrete and may be set as a continuous value using a slider or the like. Further, for example, the user may determine the interval and width of lines of a multi-line pattern (line pattern) via a GUI as shown in FIG. The distance between the lines needs to be determined according to the shape of the object to be measured. If it is desired to measure a fine shape, it is necessary to reduce the line interval. If a rough shape is to be measured, the line interval may be increased. Also, when the line spacing is narrow, when measuring the influence of blur or dynamic environment, the lines spread due to motion blur and different lines may overlap on the image, resulting in a decrease in measurement accuracy. By observing the three-dimensional measurement result via the GUI, the user can determine the optimum line spacing while taking into consideration the influence of blurring and motion blur. Also, the line width needs to be determined based on the resolution ratio between the camera and the projector. If the line width is narrower than one pixel on the camera side, the line cannot be detected with sufficient accuracy, so the line width needs to be increased. Similar to the line interval, the user can determine the optimum line width while referring to the three-dimensional measurement result via the GUI.

本変形例は、第1の実施形態のようにカメラとプロジェクタをステレオペアとする場合、第2の実施形態のようにカメラとカメラをステレオペアとするいずれの場合であっても適用することが可能である。   This modification can be applied to any case where the camera and the projector are in a stereo pair as in the first embodiment, and where the camera and the camera are in a stereo pair as in the second embodiment. Is possible.

(変形例5)
以上述べた各実施形態では、ユーザはパターン選択GUI上に提示されたパターンを区別なく選択していた。しかし、例えばカメラとプロジェクタ(もしくはカメラとカメラ)のエピポーラライン方向とカメラが撮影する投影パターンの画像上での方向が近い場合は高精度に計測することが困難になるため、ユーザはそのようなパターンを選択するべきではない。そこで、エピポーラライン方向とカメラが撮影する投影パターンの画像上での方向を算出し、図10に示すように方向の差の絶対値が所定の閾値以上のパターンとそれ以外のパターンの表示方法を変えて、ユーザが誤った選択をしないようにしてもよい。図10では、選択すべきではないパターンは選択できないようにグレーアウト(図中では破線で表示)されている。
(Modification 5)
In each of the embodiments described above, the user selects a pattern presented on the pattern selection GUI without discrimination. However, for example, when the epipolar line direction of the camera and the projector (or the camera and the camera) and the direction on the image of the projection pattern photographed by the camera are close to each other, it is difficult to measure with high accuracy. You should not choose a pattern. Therefore, the epipolar line direction and the direction on the image of the projection pattern photographed by the camera are calculated, and as shown in FIG. Alternatively, the user may not make an incorrect selection. In FIG. 10, a pattern that should not be selected is grayed out (indicated by a broken line in the figure) so that it cannot be selected.

本変形例は、第1の実施形態のようにカメラとプロジェクタをステレオペアとする場合、第2の実施形態のようにカメラとカメラをステレオペアとするいずれの場合であっても適用することが可能である。   This modification can be applied to any case where the camera and the projector are in a stereo pair as in the first embodiment, and where the camera and the camera are in a stereo pair as in the second embodiment. Is possible.

(変形例6)
以上述べた実施形態では、三次元計測結果を精度によって色を変えてユーザに提示していた。しかしながら、三次元計測結果の提示方法はこれに限るものではない。例えば、図12に示すように、精度や計測点数を数値として提示してもよい。三次元計測は計測に失敗する場合もあるため、計測点数を三次元計測の安定性を示す指標として用いる。このときの精度は、例えば平面を計測対象としたときに、計測された3次元点群に平面フィッティングしたときのRMS(Root Mean Squared)誤差を用いる。また、平面以外で形状既知な物体を計測し、該物体の3次元モデルを3次元点群にフィッティングしたときのRMS誤差を表示してもよい。さらには、ユーザが目標精度を入力するフィールドをGUI内に設けて、目標精度を達成するようなパターンを自動的に選択しユーザに提示してもよい。
(Modification 6)
In the embodiment described above, the three-dimensional measurement result is presented to the user by changing the color depending on the accuracy. However, the method of presenting the three-dimensional measurement result is not limited to this. For example, as shown in FIG. 12, accuracy and the number of measurement points may be presented as numerical values. Since the three-dimensional measurement may fail, the number of measurement points is used as an index indicating the stability of the three-dimensional measurement. The accuracy at this time uses, for example, an RMS (Root Mean Square) error when a plane is fitted to a measured three-dimensional point group when a plane is a measurement target. Further, an RMS error when an object having a known shape other than a plane is measured and a three-dimensional model of the object is fitted to a three-dimensional point group may be displayed. Furthermore, a field in which the user inputs the target accuracy may be provided in the GUI, and a pattern that achieves the target accuracy may be automatically selected and presented to the user.

本変形例は、第1の実施形態のようにカメラとプロジェクタをステレオペアとする場合、第2の実施形態のようにカメラとカメラをステレオペアとするいずれの場合であっても適用することが可能である。   This modification can be applied to any case where the camera and the projector are in a stereo pair as in the first embodiment, and where the camera and the camera are in a stereo pair as in the second embodiment. Is possible.

(変形例7)
以上述べた実施形態では、基本的にユーザが選択するパターンの表示は同一であった。しかしながら、パターンの表示を同一にする必要は必ずしもなく、カメラとプロジェクタの配置に応じて、ユーザが選択すべきパターンがわかるように表示していてもよい。すなわち、カメラとプロジェクタの配置から決定されるエピポーラ線の方向と画像上での投影パターンの線の方向のなす角度が最も大きいパターンの画像の外枠を太くして表示して、ユーザに選択すべきパターンをわかりやすくしてもよい。
(Modification 7)
In the embodiment described above, the display of the pattern selected by the user is basically the same. However, it is not always necessary to display the patterns in the same manner, and the patterns to be selected by the user may be displayed according to the arrangement of the camera and the projector. That is, the outer frame of the pattern image having the largest angle between the direction of the epipolar line determined from the arrangement of the camera and the projector and the direction of the line of the projection pattern on the image is displayed thickly and selected by the user. It is possible to make the pattern to be easy to understand.

本変形例は、第1の実施形態のようにカメラとプロジェクタをステレオペアとする場合、第2の実施形態のようにカメラとカメラをステレオペアとするいずれの場合であっても適用することが可能である。   This modification can be applied to any case where the camera and the projector are in a stereo pair as in the first embodiment, and where the camera and the camera are in a stereo pair as in the second embodiment. Is possible.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

<各実施形態の効果>
第1の実施形態により、実際に三次元計測を行った結果をユーザに提示することで、カメラとプロジェクタをステレオペアとして三次元計測を行う三次元計測装置において各カメラについてプロジェクタが投影する適切なパターンを決定することができる。また、事前に設定したカメラ毎の投影パターンの情報を保存しておくことで、ランタイムの計測時に同様の作業が不要になる。また、計測した三次元点群の計測結果のみを表示するだけでなく、精度などの計測性能に関する情報を付与して表示することで、ユーザが選択したパターンの妥当性を容易に判断することができる。三次元点群を観察する位置や方向をユーザが自由に変更できることで、固定された視点では判断しにくい精度なども判断できるようになる。さらに、選択したカメラの2次元画像を表示し、エピポーララインを重畳表示して投影パターンに対する向きを観察可能にすることで適切なパターンを決定することができる。
<Effect of each embodiment>
According to the first embodiment, the result of actual three-dimensional measurement is presented to the user, so that the projector can project an appropriate projection for each camera in the three-dimensional measurement apparatus that performs the three-dimensional measurement using the camera and projector as a stereo pair. The pattern can be determined. In addition, by storing the projection pattern information for each camera set in advance, the same work is not required during runtime measurement. In addition to displaying only the measurement results of the measured 3D point cloud, it is possible to easily determine the validity of the pattern selected by the user by giving information related to measurement performance such as accuracy. it can. Since the user can freely change the position and direction of observing the three-dimensional point group, it becomes possible to determine the accuracy that is difficult to determine from a fixed viewpoint. Furthermore, an appropriate pattern can be determined by displaying a two-dimensional image of the selected camera and superimposing an epipolar line so that the direction relative to the projection pattern can be observed.

第2の実施形態により、カメラとプロジェクタをステレオペアとして三次元計測を行う三次元計測装置において各カメラについてプロジェクタが投影する適切なパターンを決定することができる。また、GUIを介してユーザがカメラペア及びパターンの選択を行い、選択したカメラペアとパターンの組合せによって実際に三次元計測を行った結果をユーザに提示する。これにより、カメラペアの数が任意であってもユーザは各カメラペアについて適切なパターンを選択することができる。   According to the second embodiment, it is possible to determine an appropriate pattern projected by the projector for each camera in a three-dimensional measurement apparatus that performs three-dimensional measurement using the camera and projector as a stereo pair. Also, the user selects a camera pair and a pattern via the GUI, and presents to the user a result of actual three-dimensional measurement using a combination of the selected camera pair and pattern. Thereby, even if the number of camera pairs is arbitrary, the user can select an appropriate pattern for each camera pair.

第3の実施形態により、装置側が最適と判断されるパターン候補を提示するため、ユーザが全てのパターンを選択して三次元計測結果を確認する作業が不要となりユーザの利便性が向上する。   According to the third embodiment, pattern candidates that are determined to be optimal by the apparatus side are presented, so that the user does not need to select all patterns and check the three-dimensional measurement result, thereby improving user convenience.

<定義>
第1の実施形態における撮像部を構成するカメラとしてモノクロカメラを用いた。しかしながら、カメラはこれに限るものではなく、カラーカメラであってもよいし、赤外カメラなどの可視光以外の波長の光を撮影するカメラであってもよい。カラーカメラを用いる場合には、投影するパターンはモノクロのパターンに限らず、カラーのパターンであってもよい。カラーのパターンとしては、例えば、以下の非特許文献に開示されるBoyerらの色でインデックス付けされたマルチラインパターンを用いてもよい。また、赤外カメラを用いる場合には、赤外光源を用いてモノクロのマルチラインパターンを照射してもよい。
K. L. Boyer and A. C. Kak, “Color−encoded structured light for rapid active ranging,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.9, no.1, pp.14−28, 1987.
<Definition>
A monochrome camera was used as the camera constituting the imaging unit in the first embodiment. However, the camera is not limited to this, and may be a color camera or a camera that captures light having a wavelength other than visible light, such as an infrared camera. When a color camera is used, the pattern to be projected is not limited to a monochrome pattern, and may be a color pattern. As the color pattern, for example, a multiline pattern indexed with the color of Boyer et al. Disclosed in the following non-patent document may be used. When an infrared camera is used, a monochrome multiline pattern may be irradiated using an infrared light source.
K. L. Boyer and A.M. C. Kak, “Color-encoded structured for rapid active ranging,” IEEE Transactions on Pattern Analysis, vol. 9, no. 1, pp. 14-28, 1987.

第1の実施形態における投影部が照射する三次元計測用のパターンとして各線の明るさが同一でないDurdleのマルチラインパターンを用いた。しかしながら、三次元計測用のパターンはこれに限るものではなく、画像上で検出される線と投影パターン上の線との対応付けが可能であれば他のマルチラインパターンであってもよい。例えば以下の非特許文献で開示される、Maruyamaらの線が複数の線分に分割されたパターンを用いてもよい。
M. Maruyama and S. Abe, “Range sensing by projecting multiple slits with random cuts,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.15, no.6, pp.647−651, 1993.
The Durdle multi-line pattern in which the brightness of each line is not the same was used as the three-dimensional measurement pattern irradiated by the projection unit in the first embodiment. However, the three-dimensional measurement pattern is not limited to this, and may be another multi-line pattern as long as the line detected on the image can be associated with the line on the projection pattern. For example, a pattern in which a line of Maruyama et al. Disclosed in the following non-patent document is divided into a plurality of line segments may be used.
M.M. Maruyama and S.M. Abe, “Range sensing by projecting multiple slits with random cuts,” IEEE Transactions on Pattern Analysis, vol. 15, no. 6, pp. 647-651, 1993.

さらには、三次元計測は一枚のパターンを照射・撮影して行う方法だけでなく、複数のパターンを照射・撮影してもよい。例えば線幅の異なる複数のバイナリパターンを照射・撮像した画像をもとに三次元計測を行う空間コード化法によって行ってもよい。また、複数のサイン波パターンを照射・撮像する位相シフト法によって行ってもよいし、空間コード化法と位相シフト法を組み合わせてもよい。以上述べたパターンは複数の平行な直線によって構成されるパターンである。これ以外にも、複数の平行な波線によって構成されるパターンなど直線以外でも方向性を有するパターンであれば他のパターンであってもよい。   Furthermore, the three-dimensional measurement is not limited to a method in which a single pattern is irradiated and photographed, but a plurality of patterns may be irradiated and photographed. For example, it may be performed by a spatial coding method that performs three-dimensional measurement based on images obtained by irradiating and capturing a plurality of binary patterns having different line widths. Further, it may be performed by a phase shift method in which a plurality of sine wave patterns are irradiated and imaged, or a spatial encoding method and a phase shift method may be combined. The pattern described above is a pattern constituted by a plurality of parallel straight lines. In addition to this, other patterns may be used as long as they have a directivity other than a straight line, such as a pattern constituted by a plurality of parallel wavy lines.

第1の実施形態においてユーザがカメラやパターンを選択する際にはGUI上のラジオボタンにより行っていた。しかしながら、カメラやパターンの選択方法はこれに限るものではなく、複数の候補の中から1つを選択する方法であればいかなる方法であってもよい。例えば、ラジオボタンではなくチェックボックスにより選択してもよいし、リストボックスやドロップダウンリストから選択してもよい。また図3に示すように、カメラを選択するUIと一緒に各カメラが撮像する画像を同時に提示してもよい。さらには、すでにパターンが設定済みのカメラと未設定のカメラが区別できるように表示されていてもよい。例えば、カメラの撮像画像が半透明になっていたり、ラジオボタンで選択不可能になっていたりしてもよい。   In the first embodiment, when the user selects a camera or a pattern, it is performed using a radio button on the GUI. However, the method of selecting a camera or pattern is not limited to this, and any method may be used as long as one method is selected from a plurality of candidates. For example, it may be selected by a check box instead of a radio button, or may be selected from a list box or a drop-down list. Further, as shown in FIG. 3, an image captured by each camera may be presented simultaneously with a UI for selecting the camera. Furthermore, it may be displayed so that a camera for which a pattern has already been set can be distinguished from a camera for which a pattern has not been set. For example, the captured image of the camera may be translucent, or may not be selectable with a radio button.

第1の実施形態ではパターン情報保持部40が保持する情報は、プロジェクタが投影する2次元パターン画像であるとした。しかしながら、情報の保持方法はこれに限るものではなく、最終的に2次元パターン画像に変換できるものであればいかなる情報であってもよい。例えば、パターンの向き(角度)の情報であってもよい。パターンの向き(角度)の情報である場合には、ランタイムの三次元計測を行う際に向きに応じたパターン画像を生成し投影する。   In the first embodiment, the information held by the pattern information holding unit 40 is a two-dimensional pattern image projected by the projector. However, the information holding method is not limited to this, and any information may be used as long as it can be finally converted into a two-dimensional pattern image. For example, it may be information on the direction (angle) of the pattern. In the case of pattern direction (angle) information, a pattern image corresponding to the direction is generated and projected when performing three-dimensional measurement at runtime.

第1の実施形態では、プロジェクタに対する各カメラの相対位置姿勢が予めキャリブレーションされているとした。しかしながら、プロジェクタに対する各カメラの相対位置姿勢としではなく、プロジェクタに対する各カメラの相対位置姿勢を決定できれば他の方法によってキャリブレーション情報を保持しておいてもよい。例えば、1台のカメラとプロジェクタの相対的な位置及び姿勢と各カメラ間の相対的な位置及び姿勢という情報として保持しておいてもよい。   In the first embodiment, the relative position and orientation of each camera with respect to the projector is calibrated in advance. However, the calibration information may be held by another method as long as the relative position and orientation of each camera with respect to the projector can be determined instead of the relative position and orientation of each camera with respect to the projector. For example, information on the relative position and orientation of one camera and a projector and the relative position and orientation between the cameras may be stored.

第1の実施形態では、画像取得部70は、カメラ選択部90によって選択されたカメラが撮像した画像を三次元計測部80に入力するものとした。しかしながら、カメラ選択部90によって選択されたカメラ以外のカメラが撮像した画像を入力してもよい。その場合には、三次元計測部80において選択されたカメラが撮像した画像のみを使うようにする。   In the first embodiment, the image acquisition unit 70 inputs an image captured by the camera selected by the camera selection unit 90 to the three-dimensional measurement unit 80. However, an image captured by a camera other than the camera selected by the camera selection unit 90 may be input. In that case, only the image captured by the camera selected in the three-dimensional measuring unit 80 is used.

第1の実施形態では,カメラの識別情報は各カメラに固有の番号であるとした。しかしながら、各カメラの名前を表す文字列などカメラを一意に識別するための情報であればいかなる情報であってもよい。   In the first embodiment, the camera identification information is a number unique to each camera. However, any information may be used as long as the information uniquely identifies the camera, such as a character string representing the name of each camera.

10 投影部
30 パターン情報設定部
40 パターン情報保持部
50 撮像部
70 画像取得部
80 三次元計測部
90 カメラ選択部
100 表示部
110 ユーザ操作取得部
120 操作部
DESCRIPTION OF SYMBOLS 10 Projection part 30 Pattern information setting part 40 Pattern information holding part 50 Imaging part 70 Image acquisition part 80 Three-dimensional measurement part 90 Camera selection part 100 Display part 110 User operation acquisition part 120 Operation part

Claims (11)

投影手段と複数の撮像部とに接続された情報処理装置であって、
前記投影手段に明暗の縞パターンを複数回投影させる投影制御手段と、
前記投影手段によって前記縞パターンが投影された計測対象を前記複数の撮像部の少なくとも1つにより撮像した画像を取得する取得手段と、
前記取得手段によって取得される画像に基づいて、前記計測対象の三次元計測を行う計測手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus connected to the projection means and the plurality of imaging units,
Projection control means for projecting a light and dark stripe pattern a plurality of times on the projection means;
An acquisition unit that acquires an image obtained by imaging the measurement target on which the fringe pattern is projected by the projection unit by at least one of the plurality of imaging units;
An information processing apparatus comprising: a measurement unit that performs three-dimensional measurement of the measurement target based on an image acquired by the acquisition unit.
前記投影制御手段は、互いに縞の向きが異なる縞パターンを含む明暗の縞パターンを前記投影手段に複数回投影させることを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the projection control unit causes the projection unit to project a light and dark fringe pattern including stripe patterns having different fringe directions from each other. 前記互いに縞の向きが異なる縞パターンは、互いに略直交する縞パターンを含むことを特徴とする請求項2記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the stripe patterns having different stripe directions include stripe patterns that are substantially orthogonal to each other. 前記投影手段が投影する縞パターンの縞の向きと対応させて、前記撮像部を切り替えることを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the imaging unit is switched in correspondence with a stripe direction of a stripe pattern projected by the projection unit. 前記取得手段は、前記投影手段により前記縞パターンが投影されるたびに前記複数の撮像部の少なくとも1つにより撮像した画像を取得することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the acquisition unit acquires an image captured by at least one of the plurality of imaging units each time the fringe pattern is projected by the projection unit. 前記計測手段で計測のために用いる画像はステレオペア画像であることを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein an image used for measurement by the measurement unit is a stereo pair image. 前記投影手段の投影中心から、前記縞パターンが投影された画像を撮像する前記撮像部の撮像中心に向かうベクトルを当該縞パターン画像に投影したときに、前記ベクトルと前記縞パターンの縞の向きとのなす角が45度より大きいことを特徴とする請求項1記載の情報処理装置。   When a vector heading from the projection center of the projection unit to the imaging center of the imaging unit that images the image on which the stripe pattern is projected is projected onto the stripe pattern image, the vector and the direction of the stripe of the stripe pattern The information processing apparatus according to claim 1, wherein an angle formed by is greater than 45 degrees. 前記複数の撮像部の相対的な位置及び姿勢は予めキャリブレーションされていることを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein relative positions and orientations of the plurality of imaging units are calibrated in advance. 前記複数の撮像部は、少なくとも4つの撮像部であることを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the plurality of imaging units are at least four imaging units. 投影手段と複数の撮像部とに接続された情報処理装置が実行する情報処理方法であって、
前記投影手段に明暗の縞パターンを複数回投影させる投影工程と、
前記投影手段によって前記縞パターンが投影された計測対象を前記複数の撮像部の少なくとも1つにより撮像した画像を取得する取得工程と、
前記取得工程において取得される画像に基づいて、前記計測対象の三次元計測を行う計測工程と
を有する情報処理方法。
An information processing method executed by an information processing apparatus connected to a projection unit and a plurality of imaging units,
A projection step of projecting a light and dark stripe pattern a plurality of times on the projection means;
An acquisition step of acquiring an image obtained by imaging the measurement target on which the fringe pattern is projected by the projection means by at least one of the plurality of imaging units;
An information processing method comprising: a measurement step of performing three-dimensional measurement of the measurement target based on an image acquired in the acquisition step.
コンピュータを、請求項1乃至9の何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。
The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1 thru | or 9.
JP2018145040A 2018-08-01 2018-08-01 Information processing device, information processing method, and program Active JP6701277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018145040A JP6701277B2 (en) 2018-08-01 2018-08-01 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145040A JP6701277B2 (en) 2018-08-01 2018-08-01 Information processing device, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014082024A Division JP6381262B2 (en) 2014-04-11 2014-04-11 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2019012070A true JP2019012070A (en) 2019-01-24
JP6701277B2 JP6701277B2 (en) 2020-05-27

Family

ID=65226933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145040A Active JP6701277B2 (en) 2018-08-01 2018-08-01 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6701277B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004077262A (en) * 2002-08-16 2004-03-11 Fuji Xerox Co Ltd Three-dimensional imaging apparatus and method
JP2006003280A (en) * 2004-06-18 2006-01-05 Topcon Corp Photographing device and photographing method
JP2006058215A (en) * 2004-08-23 2006-03-02 Fuji Xerox Co Ltd Three-dimensional image input device and method
JP2006214735A (en) * 2005-02-01 2006-08-17 Viewplus Inc Compound stereo vision device
JP2007222537A (en) * 2006-02-27 2007-09-06 Rigaku Corp X-ray measurement apparatus and subject testing method
WO2010058766A1 (en) * 2008-11-20 2010-05-27 株式会社 日立メディコ Ultrasonographic device and method thereof
JP2011504586A (en) * 2007-11-15 2011-02-10 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method for optically measuring the three-dimensional shape of an object
JP2011170415A (en) * 2010-02-16 2011-09-01 Mitsutoyo Corp Operation guide display device
US20140078264A1 (en) * 2013-12-06 2014-03-20 Iowa State University Research Foundation, Inc. Absolute three-dimensional shape measurement using coded fringe patterns without phase unwrapping or projector calibration

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004077262A (en) * 2002-08-16 2004-03-11 Fuji Xerox Co Ltd Three-dimensional imaging apparatus and method
JP2006003280A (en) * 2004-06-18 2006-01-05 Topcon Corp Photographing device and photographing method
JP2006058215A (en) * 2004-08-23 2006-03-02 Fuji Xerox Co Ltd Three-dimensional image input device and method
JP2006214735A (en) * 2005-02-01 2006-08-17 Viewplus Inc Compound stereo vision device
JP2007222537A (en) * 2006-02-27 2007-09-06 Rigaku Corp X-ray measurement apparatus and subject testing method
JP2011504586A (en) * 2007-11-15 2011-02-10 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method for optically measuring the three-dimensional shape of an object
WO2010058766A1 (en) * 2008-11-20 2010-05-27 株式会社 日立メディコ Ultrasonographic device and method thereof
JP2011170415A (en) * 2010-02-16 2011-09-01 Mitsutoyo Corp Operation guide display device
US20140078264A1 (en) * 2013-12-06 2014-03-20 Iowa State University Research Foundation, Inc. Absolute three-dimensional shape measurement using coded fringe patterns without phase unwrapping or projector calibration

Also Published As

Publication number Publication date
JP6701277B2 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
JP6635690B2 (en) Information processing apparatus, information processing method and program
JP5757950B2 (en) Non-contact object measurement
CN103649674B (en) Measuring equipment and messaging device
JP6290720B2 (en) Inspection device, inspection method, and program
JP3624353B2 (en) Three-dimensional shape measuring method and apparatus
Falcao et al. Plane-based calibration of a projector-camera system
CN108389212A (en) To measure the method and computer-readable media of foot size
JPWO2006013635A1 (en) Three-dimensional shape measuring method and apparatus
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
CN107966100A (en) Measuring method and measuring system based on camera array
JP6381262B2 (en) Information processing apparatus, information processing method, and program
JP2008250487A (en) Camera calibration method using model matching by edge detection
JP2019045299A (en) Three-dimensional information acquisition device
EP3989169A1 (en) Hybrid photogrammetry
JP2008275366A (en) Stereoscopic 3-d measurement system
JP2015206654A (en) Information processing apparatus, information processing method, and program
JP6701277B2 (en) Information processing device, information processing method, and program
WO2019230171A1 (en) Laser calibration device, calibration method therefor, and image input device including laser calibration device
CN204944449U (en) Depth data measuring system
JP4382430B2 (en) Head three-dimensional shape measurement system
JPH09210649A (en) Three dimensional measurement device
US20160349045A1 (en) A method of measurement of linear dimensions of three-dimensional objects
JP4429135B2 (en) Three-dimensional shape measurement system and measurement method
JP6867766B2 (en) Information processing device and its control method, program
JPWO2009107365A1 (en) Inspection method and inspection apparatus for compound eye distance measuring apparatus and chart used therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6701277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151