JP6299150B2 - Control device, robot, control system, control method, and control program - Google Patents

Control device, robot, control system, control method, and control program Download PDF

Info

Publication number
JP6299150B2
JP6299150B2 JP2013227300A JP2013227300A JP6299150B2 JP 6299150 B2 JP6299150 B2 JP 6299150B2 JP 2013227300 A JP2013227300 A JP 2013227300A JP 2013227300 A JP2013227300 A JP 2013227300A JP 6299150 B2 JP6299150 B2 JP 6299150B2
Authority
JP
Japan
Prior art keywords
unit
projection
image
luminance
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013227300A
Other languages
Japanese (ja)
Other versions
JP2015087321A (en
Inventor
智紀 原田
智紀 原田
高志 南本
高志 南本
橋本 浩一
浩一 橋本
翔悟 荒井
翔悟 荒井
敦 藤平
敦 藤平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013227300A priority Critical patent/JP6299150B2/en
Publication of JP2015087321A publication Critical patent/JP2015087321A/en
Application granted granted Critical
Publication of JP6299150B2 publication Critical patent/JP6299150B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、制御装置、ロボット、制御システム、制御方法、及び制御プログラムに関する。   The present invention relates to a control device, a robot, a control system, a control method, and a control program.

産業用ロボットによって作業が行われる際に、産業用ロボットが扱う対象となる物体の位置は、ロボットの制御装置側で把握されている必要がある。物体の位置を把握するために、例えば、プロジェクターによる照射光やレーザー光を対象となる物体に照射し、その反射情報を処理することで、即時に物体の位置や姿勢を表す三次元情報を取得する方法の研究・開発が行われている。物体の三次元情報としては、離散的な三次元点群情報等を利用することが知られており、その三次元点群情報の取得法も、様々な手法が提案されている。   When the work is performed by the industrial robot, the position of the object to be handled by the industrial robot needs to be grasped by the robot controller. In order to grasp the position of an object, for example, the target object is irradiated with light or laser light emitted from a projector, and the reflection information is processed, so that three-dimensional information representing the position and orientation of the object is obtained immediately. Research and development of ways to do this is being conducted. As the three-dimensional information of an object, it is known to use discrete three-dimensional point cloud information or the like, and various methods for obtaining the three-dimensional point cloud information have been proposed.

これに関連し、所定の方向に周期的に輝度又は色彩が変化し、互いにその周期的変化の位相が異なる複数枚の画像をプロジェクターにより投射し、投射された画像をカメラで撮影し、撮影された画像に基づいて、プロジェクターの位置及び姿勢と、カメラの位置及び姿勢との相対的な関係を求めるキャリブレーション法が知られている(非特許文献1参照)。このキャリブレーション法は、三次元点群取得法の一つである位相シフト法を用いるために、カメラとプロジェクターとの間で行われるキャリブレーションを精度よく行うための手法である。   In this connection, a plurality of images whose brightness or color periodically changes in a predetermined direction and whose phases of the periodic changes are different from each other are projected by the projector, and the projected images are photographed by the camera. A calibration method for obtaining a relative relationship between the position and orientation of a projector and the position and orientation of a camera based on the obtained image is known (see Non-Patent Document 1). This calibration method is a method for accurately performing calibration performed between the camera and the projector in order to use the phase shift method which is one of the three-dimensional point group acquisition methods.

Song Zhang; Peisen S.Huang, “Novel method for structured light system calibration”, Optical Engineering 45_8_, 083601_August 2006_Song Zhang; Peisen S. Huang, “Novel method for structured light system calibration”, Optical Engineering 45_8_, 083601_August 2006_

しかしながら、従来の手法では、実験室で実現される特殊な環境下での利用に関しては十分であるが、実環境下では外乱の影響等を無視することができず、十分な精度が保たれたキャリブレーションが行えない場合がある。   However, the conventional method is sufficient for use in a special environment realized in the laboratory, but in the actual environment the influence of disturbance etc. could not be ignored and sufficient accuracy was maintained. Calibration may not be possible.

そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、実環境下でも十分な精度でカメラとプロジェクターとの間のキャリブレーションを行うことができる制御装置、ロボット、制御システム、制御方法、及び制御プログラムを提供する。   Therefore, the present invention has been made in view of the above-described problems of the prior art, and is capable of performing calibration between a camera and a projector with sufficient accuracy even in a real environment, a robot, a control system, and a control. A method and a control program are provided.

[1]本発明は、上記の課題を解決するためになされたものであり、投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として前記撮像画像上の各画素の位相を算出する算出部と、前記算出部により算出された前記撮像画像上の各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行う対応付部と、を備える制御装置である。 [1] The present invention has been made in order to solve the above-described problem, and is an image captured by the image capturing unit and an image projected by the projection unit, and changes in luminance or color periodically. A plurality of first captured images that are repeated and have different wave phases representing the luminance or color change period, and a second captured image in which the reference object projected by the projection unit is captured by the imaging unit. Based on each of the first captured images, a calculation unit that calculates a phase of each pixel on the captured image based on a position on the captured image plane where the reference object is captured in the second captured image; Based on the phase of each pixel on the captured image calculated by the calculation unit, the position on the captured image plane of the imaging unit is associated with the position on the projection image plane of the projection unit. And association unit, a control device comprising a.

この構成により、制御装置は、第1撮像画像のそれぞれについて、第2撮像画像において基準オブジェクトが撮像された撮像画像平面上の位置を基点として撮像画像上の各画素の位相を算出し、算出した撮像画像上の各画素の位相に基づいて、撮像部の撮像画像平面上の位置と、投射部の投射画像平面上の位置との対応付けを行うため、実環境下でも十分な精度で撮像部と投射部との間のキャリブレーションを行うことができる。   With this configuration, the control device calculates the phase of each pixel on the captured image based on the position on the captured image plane where the reference object is captured in the second captured image for each of the first captured images. Based on the phase of each pixel on the captured image, the position on the captured image plane of the image capturing unit and the position on the projected image plane of the projection unit are associated with each other. And the projection unit can be calibrated.

[2]また、本発明は、[1]に記載の制御装置であって、前記投射部により投射された投射光の輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度とに基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定する決定部を備える、制御装置である。 [2] Further, the present invention is the control device according to [1], wherein the projection light in the image obtained by imaging the projection light by the imaging unit and the luminance of the projection light projected by the projection unit. It is a control apparatus provided with the determination part which determines the brightness | luminance output of the said projection part which projects a said 1st captured image and a said 2nd captured image based on the brightness | luminance of.

この構成により、制御装置は、投射部により投射された投射光の輝度と、撮像部により投射光が撮像された画像における投射光の輝度とに基づいて、第1撮像画像及び第2撮像画像を投射する投射部の輝度出力を決定するため、撮像部の撮影解像度の不足によるキャリブレーションの精度低下を防止することができる。   With this configuration, the control device displays the first captured image and the second captured image based on the brightness of the projection light projected by the projection unit and the brightness of the projection light in the image obtained by capturing the projection light by the imaging unit. Since the luminance output of the projection unit to be projected is determined, it is possible to prevent a decrease in calibration accuracy due to insufficient imaging resolution of the imaging unit.

[3]また、本発明は、[1]又は[2]に記載の制御装置であって、前記投射部により投射された画像が前記撮像部により撮像された撮像画像であって、前記投射部と前記撮像部との間の位置関係を表す情報を導出するための第3撮像画像と、前記算出部により算出された各画素の位相とに基づいて、前記投射部と前記撮像部との間の位置関係を表す情報を導出するキャリブレーション処理を行うキャリブレーション処理部を備える、制御装置である。 [3] The present invention is the control device according to [1] or [2], wherein the image projected by the projection unit is a captured image captured by the imaging unit, and the projection unit Between the projection unit and the imaging unit based on a third captured image for deriving information representing a positional relationship between the projection unit and the imaging unit, and the phase of each pixel calculated by the calculation unit It is a control apparatus provided with the calibration process part which performs the calibration process which derives | leads-out the information showing the positional relationship of these.

この構成により、制御装置は、投射部と撮像部との間の位置関係を表す情報を導出するための第3撮像画像と、算出部により算出された各画素の位相とに基づいて、投射部と撮像部との間の位置関係を表す情報を導出するキャリブレーション処理を行うため、ロボット等による作業対象となる物体の位置及び姿勢を導出するための三次元点群情報を、より高精度に生成することができる。   With this configuration, the control device can generate a projection unit based on the third captured image for deriving information representing the positional relationship between the projection unit and the imaging unit, and the phase of each pixel calculated by the calculation unit. 3D point cloud information for deriving the position and orientation of an object to be worked by a robot or the like with higher accuracy in order to perform a calibration process for deriving information representing the positional relationship between the camera and the imaging unit Can be generated.

[4]また、本発明は、[3]に記載の制御装置であって、前記第3撮像画像は、赤色と青色の格子状模様が撮像された画像である、制御装置である。 [4] The present invention is the control device according to [3], wherein the third captured image is an image in which red and blue lattice patterns are captured.

この構成により、制御装置は、赤色と青色の格子状模様が撮像された画像と、算出部により算出された各画素の位相とに基づいて、投射部と撮像部との間の位置関係を表す情報を導出するキャリブレーション処理を行うため、第1撮像画像の輝度又は色彩の変化が、格子状模様によって判別不可能になることを防止することができる。   With this configuration, the control device represents the positional relationship between the projection unit and the imaging unit based on the image obtained by capturing the red and blue grid patterns and the phase of each pixel calculated by the calculation unit. Since the calibration process for deriving information is performed, it is possible to prevent the change in luminance or color of the first captured image from becoming indistinguishable due to the lattice pattern.

[5]また、本発明は、[3]又は[4]に記載の制御装置であって、前記位置関係を表す情報は、前記投射部と前記撮像部との間の三次元位置関係を表す情報であり、前記キャリブレーション処理部により導出された前記位置関係を表す情報と、前記撮像部により撮像された物体の画像とに基づいて、前記物体の三次元点群情報を生成する三次元点群生成部を備える、制御装置である。 [5] The present invention is the control device according to [3] or [4], wherein the information representing the positional relationship represents a three-dimensional positional relationship between the projection unit and the imaging unit. 3D points for generating 3D point cloud information of the object based on information representing the positional relationship derived by the calibration processing unit and an image of the object imaged by the imaging unit It is a control apparatus provided with a group production | generation part.

この構成により、制御装置は、キャリブレーション処理部により導出された三次元位置関係を表す情報と、撮像部により撮像された物体の画像とに基づいて、物体の三次元点群情報を生成するため、ロボット等による作業対象となる物体の位置及び姿勢をより高精度で導出することができる。   With this configuration, the control device generates the three-dimensional point cloud information of the object based on the information representing the three-dimensional positional relationship derived by the calibration processing unit and the image of the object imaged by the imaging unit. In addition, the position and orientation of an object to be worked by a robot or the like can be derived with higher accuracy.

[6]また、本発明は、[5]に記載の制御装置であって、前記三次元点群生成部により生成された三次元点群情報に基づいて、前記物体の三次元位置及び姿勢を導出し、前記導出した前記物体の三次元位置及び姿勢に基づいて、ロボットを制御するロボット制御部を備える、制御装置である。 [6] The present invention is the control device according to [5], wherein the three-dimensional position and orientation of the object are determined based on the three-dimensional point group information generated by the three-dimensional point group generation unit. A control apparatus including a robot control unit that derives and controls a robot based on the derived three-dimensional position and orientation of the object.

この構成により、制御装置は、三次元点群情報に基づいて、物体の三次元位置及び姿勢を導出し、導出した物体の三次元位置及び姿勢に基づいて、ロボットを制御するため、対象となる物体に対する作業を、より高精度に行うことができる。   With this configuration, the control device derives the three-dimensional position and orientation of the object based on the three-dimensional point cloud information, and controls the robot based on the derived three-dimensional position and orientation of the object. Work on an object can be performed with higher accuracy.

[7]また、本発明は、[6]に記載の制御装置と、前記ロボットの可動部を稼働させるアクチュエーターと、を備えるロボットである。 [7] Furthermore, the present invention is a robot including the control device according to [6] and an actuator that operates a movable part of the robot.

この構成により、ロボットは、実環境下でも十分な精度で撮像部と投射部との間のキャリブレーションを行うため、対象となる物体に対する作業を、より高精度に行うことができる。   With this configuration, the robot performs calibration between the imaging unit and the projection unit with sufficient accuracy even in an actual environment, so that the work on the target object can be performed with higher accuracy.

[8]また、本発明は、画像を投射する投射部と、前記投射部により投射された画像を撮像する撮像部と、制御装置とを具備する制御システムであって、前記制御装置は、前記投射部により投射された画像が前記撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出する算出部と、前記算出部により算出された各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行う対応付部と、を備える、制御システムである。 [8] The present invention is a control system including a projection unit that projects an image, an imaging unit that captures an image projected by the projection unit, and a control device, wherein the control device includes: A plurality of images in which the image projected by the projection unit is a captured image captured by the imaging unit, the change in luminance or color is periodically repeated, and the phases of the waves representing the cycle of the change in luminance or color are different from each other Based on the first captured image and the second captured image obtained by capturing the reference object projected by the projecting unit with the image capturing unit, the reference image in the second captured image for each of the first captured images. A calculation unit that calculates the phase of each pixel with a position on the captured image plane where the object is captured as a base point, and imaging of the imaging unit based on the phase of each pixel calculated by the calculation unit Comprising a position on the image plane, and a correspondence unit that performs correspondence between positions on the projection image plane of the projection portion is a control system.

この構成により、制御システムは、第1撮像画像のそれぞれについて、第2撮像画像において基準オブジェクトが撮像された撮像画像平面上の位置を基点として撮像画像上の各画素の位相を算出し、算出した撮像画像上の各画素の位相に基づいて、撮像部の撮像画像平面上の位置と、投射部の投射画像平面上の位置との対応付けを行うため、実環境下でも十分な精度で撮像部と投射部との間のキャリブレーションを行うことができる。   With this configuration, the control system calculates the phase of each pixel on the captured image based on the position on the captured image plane where the reference object is captured in the second captured image for each of the first captured images. Based on the phase of each pixel on the captured image, the position on the captured image plane of the image capturing unit and the position on the projected image plane of the projection unit are associated with each other. And the projection unit can be calibrated.

[9]また、本発明は、制御装置が、投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出し、前記算出した各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行う、制御方法である。 [9] Further, according to the present invention, the control device is a captured image in which an image projected by the projection unit is captured by the imaging unit, and changes in luminance or color are periodically repeated. The first captured image based on a plurality of first captured images having different wave phases representing a change period and a second captured image in which the reference object projected by the projection unit is captured by the imaging unit. For each of the above, the phase of each pixel is calculated based on the position on the captured image plane where the reference object is captured in the second captured image, and the imaging unit captures the image based on the calculated phase of each pixel. In this control method, the position on the image plane is associated with the position on the projection image plane of the projection unit.

この制御方法により、制御装置は、第1撮像画像のそれぞれについて、第2撮像画像において基準オブジェクトが撮像された撮像画像平面上の位置を基点として撮像画像上の各画素の位相を算出し、算出した撮像画像上の各画素の位相に基づいて、撮像部の撮像画像平面上の位置と、投射部の投射画像平面上の位置との対応付けを行うため、実環境下でも十分な精度で撮像部と投射部との間のキャリブレーションを行うことができる。   With this control method, the control device calculates the phase of each pixel on the captured image based on the position on the captured image plane where the reference object is captured in the second captured image for each of the first captured images. Based on the phase of each pixel on the captured image, the position on the captured image plane of the imaging unit and the position on the projected image plane of the projection unit are associated with each other, so that the image can be captured with sufficient accuracy even in a real environment. Calibration between the projection unit and the projection unit can be performed.

[10]また、本発明は、制御装置のコンピューターに、投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出させ、前記算出させた各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行わせる、制御プログラムである。 [10] Further, the present invention is a captured image obtained by capturing an image projected by the projection unit on the computer of the control device by the imaging unit, and changes in luminance or color are periodically repeated. The first imaging based on a plurality of first captured images having different wave phases representing a color change period and a second captured image in which the reference object projected by the projection unit is captured by the imaging unit. For each of the images, the phase of each pixel is calculated based on the position on the captured image plane where the reference object is captured in the second captured image, and the imaging unit is based on the calculated phase of each pixel. It is a control program which performs matching with the position on the projection image plane of the said projection part, and the position on the projection image plane of the said projection part.

この制御プログラムにより、制御装置は、第1撮像画像のそれぞれについて、第2撮像画像において基準オブジェクトが撮像された撮像画像平面上の位置を基点として撮像画像上の各画素の位相を算出し、算出した撮像画像上の各画素の位相に基づいて、撮像部の撮像画像平面上の位置と、投射部の投射画像平面上の位置との対応付けを行うため、実環境下でも十分な精度で撮像部と投射部との間のキャリブレーションを行うことができる。   With this control program, the control device calculates, for each first captured image, the phase of each pixel on the captured image based on the position on the captured image plane where the reference object is captured in the second captured image, and calculates Based on the phase of each pixel on the captured image, the position on the captured image plane of the imaging unit and the position on the projected image plane of the projection unit are associated with each other, so that the image can be captured with sufficient accuracy even in a real environment. Calibration between the projection unit and the projection unit can be performed.

また、本発明は、投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として前記撮像画像上の各画素の位相を算出する算出部と、前記算出部により算出された前記撮像画像上の各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行う対応付部と、前記投射部により投射された投射光の輝度である投射光輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度である撮像画像輝度とに基づいて、前記投射光輝度のうち前記投射光輝度の変化に対して前記撮像画像輝度が線形に変化し始める前記投射光輝度を基準投射光輝度として導出し、導出した前記基準投射光輝度に基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定する決定部と、を備える制御装置である。
また、本発明は、画像を投射する投射部と、前記投射部により投射された画像を撮像する撮像部と、制御装置とを具備する制御システムであって、前記制御装置は、前記投射部により投射された画像が前記撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出する算出部と、前記算出部により算出された各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行う対応付部と、前記投射部により投射された投射光の輝度である投射光輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度である撮像画像輝度とに基づいて、前記投射光輝度のうち前記投射光輝度の変化に対して前記撮像画像輝度が線形に変化し始める前記投射光輝度を基準投射光輝度として導出し、導出した前記基準投射光輝度に基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定する決定部と、を備える、制御システムである。
また、本発明は、制御装置が、投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出し、前記算出した各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行い、前記投射部により投射された投射光の輝度である投射光輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度である撮像画像輝度とに基づいて、前記投射光輝度のうち前記投射光輝度の変化に対して前記撮像画像輝度が線形に変化し始める前記投射光輝度を基準投射光輝度として導出し、導出した前記基準投射光輝度に基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定する、制御方法である。
また、本発明は、制御装置のコンピューターに、投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出させ、前記算出させた各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行わせ、前記投射部により投射された投射光の輝度である投射光輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度である撮像画像輝度とに基づいて、前記投射光輝度のうち前記投射光輝度の変化に対して前記撮像画像輝度が線形に変化し始める前記投射光輝度を基準投射光輝度として導出させ、導出された前記基準投射光輝度に基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定させる、制御プログラムである。
以上により、制御装置は、制御装置は、第1撮像画像のそれぞれについて、第2撮像画像において基準オブジェクトが撮像された撮像画像平面上の位置を基点として撮像画像上の各画素の位相を算出し、算出した撮像画像上の各画素の位相に基づいて、撮像部の撮像画像平面上の位置と、投射部の投射画像平面上の位置との対応付けを行うため、実環境下でも十分な精度で撮像部と投射部との間のキャリブレーションを行うことができる。
Further, the present invention is a captured image in which an image projected by the projection unit is captured by the imaging unit, and a change in luminance or color is periodically repeated, and a wave representing a cycle of the change in luminance or color Based on a plurality of first captured images having different phases and a second captured image in which a reference object projected by the projection unit is captured by the imaging unit, the second captured image is obtained for each of the first captured images. A calculation unit that calculates a phase of each pixel on the captured image based on a position on the captured image plane at which the reference object is captured in the captured image, and each pixel on the captured image calculated by the calculation unit Based on the phase, an association unit that associates a position on the captured image plane of the imaging unit with a position on the projection image plane of the projection unit, and projection light projected by the projection unit Based on the projected light brightness that is the brightness and the captured image brightness that is the brightness of the projected light in the image in which the projected light is captured by the imaging unit, the change in the projected light brightness among the projected light brightness Then, the projection light luminance at which the captured image luminance starts to change linearly is derived as reference projection light luminance, and the first captured image and the second captured image are projected based on the derived reference projection light luminance. And a determination unit that determines a luminance output of the projection unit.
Moreover, this invention is a control system which comprises the projection part which projects an image, the imaging part which images the image projected by the said projection part, and a control apparatus, Comprising: The said control apparatus is based on the said projection part. The projected image is a picked-up image picked up by the image pickup unit, and a change in luminance or color is periodically repeated, and a plurality of first phases in which the phases of waves representing the change in the luminance or color change are different from each other. Based on the captured image and the second captured image in which the reference object projected by the projection unit is captured by the imaging unit, the reference object is captured in the second captured image for each of the first captured images. A calculation unit that calculates a phase of each pixel with a position on the captured image plane as a base point, and a captured image plane of the imaging unit based on the phase of each pixel calculated by the calculation unit. An association unit that associates the upper position with a position on the projection image plane of the projection unit, a projection light luminance that is a luminance of the projection light projected by the projection unit, and the projection by the imaging unit The projected light whose luminance starts to change linearly with respect to the change of the projected light luminance of the projected light luminance based on the captured image luminance that is the luminance of the projected light in the image where light is imaged. A determination unit that derives luminance as reference projection light luminance and determines a luminance output of the projection unit that projects the first captured image and the second captured image based on the derived reference projection light luminance; The control system.
In the present invention, the control device is a captured image in which an image projected by the projection unit is captured by the imaging unit, and a change in luminance or color is periodically repeated, and a cycle of the change in luminance or color For each of the first captured images based on a plurality of first captured images having different wave phases representing a second captured image in which the reference object projected by the projection unit is captured by the imaging unit The phase of each pixel is calculated based on the position on the captured image plane where the reference object is captured in the second captured image, and on the captured image plane of the imaging unit based on the calculated phase of each pixel And the position on the projection image plane of the projection unit, the projection light luminance that is the luminance of the projection light projected by the projection unit, and the projection light by the imaging unit Based on the captured image brightness that is the brightness of the projected light in the imaged image, the projected light brightness where the captured image brightness starts to change linearly with respect to the change in the projected light brightness of the projected light brightness. It is a control method which derives | leads-out as reference | standard projection light brightness | luminance, and determines the brightness | luminance output of the said projection part which projects a said 1st captured image and a said 2nd captured image based on the derived | led-out reference | standard projection light brightness | luminance.
Further, the present invention is a captured image obtained by capturing an image projected by the projection unit on the computer of the control device by the imaging unit, and the luminance or color change is periodically repeated, and the luminance or color change is performed. Each of the first captured images is based on a plurality of first captured images having different phases of waves representing the period of the first image and a second captured image in which the reference object projected by the projection unit is captured by the imaging unit. The phase of each pixel is calculated based on the position on the captured image plane where the reference object is captured in the second captured image, and the captured image of the imaging unit is calculated based on the calculated phase of each pixel. A projection light luminance that is a luminance of the projection light projected by the projection unit, which associates a position on the plane with a position on the projection image plane of the projection unit, and the imaging unit The captured image brightness starts to change linearly with respect to the change in the projected light brightness of the projected light brightness based on the captured image brightness that is the brightness of the projected light in the image in which the projected light is captured. Control that causes the projection light luminance to be derived as a reference projection light luminance, and determines a luminance output of the projection unit that projects the first captured image and the second captured image based on the derived reference projection light luminance. It is a program.
As described above, the control device calculates, for each of the first captured images, the phase of each pixel on the captured image using the position on the captured image plane where the reference object is captured in the second captured image as a base point. Based on the calculated phase of each pixel on the captured image, the position on the captured image plane of the imaging unit and the position on the projected image plane of the projection unit are associated with each other. Thus, calibration between the imaging unit and the projection unit can be performed.

第1の実施形態に係る制御システム1の利用状況の一例を示す図である。It is a figure which shows an example of the utilization condition of the control system 1 which concerns on 1st Embodiment. 制御装置40のハードウェア構成の一例を示す図である。3 is a diagram illustrating an example of a hardware configuration of a control device 40. FIG. 制御装置40の機能構成の一例を示す図である。3 is a diagram illustrating an example of a functional configuration of a control device 40. FIG. 画像生成部52が生成する投射画像の例を示す図である。It is a figure which shows the example of the projection image which the image generation part 52 produces | generates. 初期処理部60の各機能部により実行される処理の流れの一例を示すフローチャートである。4 is a flowchart illustrating an example of a flow of processing executed by each functional unit of the initial processing unit 60. 投射部20の輝度出力と、撮像部10により撮像された撮像画像平面上における輝度との関係の一例を表すグラフである。4 is a graph showing an example of the relationship between the luminance output of the projection unit 20 and the luminance on the captured image plane captured by the imaging unit 10; 赤色と青色とで形成されたグリッドパターンの一例を示す図である。It is a figure which shows an example of the grid pattern formed with red and blue. キャリブレーションボードに白色光、赤色光をそれぞれ投射した場合の撮像画像の比較例を示す図である。It is a figure which shows the comparative example of the captured image at the time of projecting white light and red light, respectively on a calibration board. 投射画像平面上の位置及び位相と、その投射画像を撮像した撮像画像平面上の位置及び位相と、投射領域及び撮像領域との関係の一例を示す図である。It is a figure which shows an example of the relationship between the position and phase on a projection image plane, the position and phase on the captured image plane which imaged the projection image, and a projection area | region and an imaging area. 三次元点群生成部70により実行される三次元点群画像の生成処理の流れの一例を示すフローチャートである。5 is a flowchart illustrating an example of a flow of a 3D point cloud image generation process executed by a 3D point cloud generation unit 70; 切替判断用画像が複数の領域に分割された場合の領域例を示す図である。It is a figure which shows the example of an area | region when the image for switching determination is divided | segmented into the several area | region. ステップS200において投射された投射画像に関する前回のサブルーチン実行時に投射された投射画像、及び今回のサブルーチン実行時に投射された投射画像平面上の画素とその画素の輝度をプロットしたグラフの一例である。It is an example of the graph which plotted the projection image projected at the time of the last subroutine execution regarding the projection image projected in step S200, the pixel on the projection image plane projected at the time of this subroutine execution, and the brightness | luminance of the pixel. 撮像時期決定部72が算出した差分は、画素ごとにプロットしたグラフの一例である。The difference calculated by the imaging time determination unit 72 is an example of a graph plotted for each pixel. 第2の実施形態における制御システム1の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the control system 1 in 2nd Embodiment.

<第1の実施形態>
以下、本発明の第1の実施形態について、図面を参照して説明する。図1は、第1の実施形態に係る制御システム1の利用状況の一例を示す図である。制御システム1は、例えば、撮像部10と、投射部20と、ロボット30と、制御装置40とを具備する。撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。以下では、説明を簡略化するため、撮像部10は、静止画像を撮像するものとする。なお、撮像部10は、静止画像を撮像することに代えて、動画像を撮像してもよい。
<First Embodiment>
A first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating an example of a usage situation of the control system 1 according to the first embodiment. The control system 1 includes, for example, an imaging unit 10, a projection unit 20, a robot 30, and a control device 40. The imaging unit 10 is a camera including, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, which is an imaging element that converts collected light into an electrical signal. Hereinafter, in order to simplify the description, the imaging unit 10 captures a still image. Note that the imaging unit 10 may capture a moving image instead of capturing a still image.

撮像部10は、例えばケーブルによって制御装置40と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、撮像部10と制御装置40とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。撮像部10は、破線で囲まれた領域CAを撮像する。領域CAは、テーブル等の台上に予め設定された領域である。撮像部10は、領域CAを撮像可能な位置に設置される。撮像部10は、制御装置40から撮像の要求を取得し、その要求を取得したタイミングで領域CA内を撮像する。そして、撮像部10は、ユーザーにより物体OBJが領域CAの内側に設置されることにより、物体OBJを撮像する。そして、撮像部10は、撮像した撮像画像を、通信により制御装置40へ出力する。   The imaging unit 10 is connected to the control device 40 through a cable, for example, so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB (Universal Serial Bus), for example. The imaging unit 10 and the control device 40 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). The imaging unit 10 captures an area CA surrounded by a broken line. The area CA is an area set in advance on a table or the like. The imaging unit 10 is installed at a position where the area CA can be imaged. The imaging unit 10 acquires a request for imaging from the control device 40, and images the area CA at the timing when the request is acquired. Then, the imaging unit 10 captures an image of the object OBJ when the object OBJ is installed inside the area CA by the user. Then, the imaging unit 10 outputs the captured image to the control device 40 by communication.

投射部20は、例えば、投射画像を投射するための液晶ライトバルブや投射レンズ、液晶駆動部、光源として超高圧水銀ランプやメタルハライドランプ等を備えるプロジェクターである。投射部20は、例えばケーブルによって制御装置40と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、投射部20と制御装置40とは、Wi−Fi等の通信規格により行われる無線通信によって接続されてもよい。投射部20は、通信により制御装置40から各種画像を取得し、取得した各種画像を投射画像として点線で囲まれた領域PAに投射する。これらの投射画像についての詳細は後述する。図1において、投射部20は、領域PAが領域CAを内側に含むように設置されているが、領域PAと領域CAとの大きさは逆であってもよく、領域PAと領域CAとが部分的に重なり合っていてもよい。なお、物体OBJは、領域PAと領域CAとが重なり合った領域の内側に全体が含まれる程度の大きさである。   The projection unit 20 is, for example, a projector including a liquid crystal light valve and a projection lens for projecting a projection image, a liquid crystal driving unit, and an ultrahigh pressure mercury lamp, a metal halide lamp, and the like as a light source. The projection unit 20 is connected so as to be communicable with the control device 40 by a cable, for example. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. In addition, the projection part 20 and the control apparatus 40 may be connected by the wireless communication performed by communication standards, such as Wi-Fi. The projection unit 20 acquires various images from the control device 40 by communication, and projects the acquired various images as a projection image onto a region PA surrounded by a dotted line. Details of these projected images will be described later. In FIG. 1, the projection unit 20 is installed so that the area PA includes the area CA inside, but the size of the area PA and the area CA may be reversed, and the area PA and the area CA are It may overlap partially. Note that the object OBJ is large enough to be included inside the area where the area PA and the area CA overlap.

ロボット30は、例えば、6軸垂直多関節ロボットであり、支持台とアーム部と把持部との連携した動作よって、6軸の自由度の動作を行うことができる。なお、ロボット30は、5自由度以下で動作するものであってもよい。ロボット30は、把持部を備えている。ロボット30の把持部は、物体を把持又は挟持可能な爪部を備える。ロボット30は、例えばケーブルによって制御装置40と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット30と制御装置40とは、Wi−Fi等の通信規格により行われる無線通信によって接続されてもよい。ロボット30は、物体OBJの三次元位置及び姿勢に基づいた制御信号を制御装置40から取得し、取得した制御信号に基づいて、物体OBJに対して所定の作業を行う。所定の作業とは、例えば、ロボット30の把持部により物体OBJを把持し、把持された物体OBJを現在設置されている位置から、他の位置へと移動させることや、移動させた後に別の装置に組み付けを行うこと等の作業である。   The robot 30 is, for example, a 6-axis vertical articulated robot, and can perform an operation with 6 degrees of freedom by an operation in which a support base, an arm unit, and a gripping unit cooperate. The robot 30 may operate with 5 degrees of freedom or less. The robot 30 includes a grip portion. The grip portion of the robot 30 includes a claw portion that can grip or pinch an object. The robot 30 is communicably connected to the control device 40 by a cable, for example. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The robot 30 and the control device 40 may be connected by wireless communication performed according to a communication standard such as Wi-Fi. The robot 30 acquires a control signal based on the three-dimensional position and orientation of the object OBJ from the control device 40, and performs a predetermined operation on the object OBJ based on the acquired control signal. The predetermined work is, for example, that the object OBJ is grasped by the grasping unit of the robot 30 and the grasped object OBJ is moved from the currently installed position to another position, or after being moved, For example, assembling the device.

制御装置40は、ロボット30が所定の作業を行うように制御する。より具体的には、まず、制御装置40は、撮像部10により撮像された物体OBJの撮像画像に基づいて、撮像部10と投射部20との間のキャリブレーション処理を行う。制御装置40は、このキャリブレーション処理によって、より精度の高い物体OBJの三次元位置及び姿勢を導出することができる。キャリブレーション処理についての詳細は後述する。そして、制御装置40による撮像部10と投射部20との間のキャリブレーション処理が終了した後、制御装置40は、撮像部10により撮像された物体OBJの撮像画像に基づいて、物体OBJの三次元位置及び姿勢を導出する。制御装置40は、導出された三次元位置及び姿勢に基づく制御信号を生成し、生成した制御信号をロボット30に出力することで、ロボット30を制御する。また、制御装置40は、自装置が備える後述する画像生成部52により生成された各種画像を投射部20に出力し、出力した各種画像を投射するように投射部20を制御する。また、制御装置40は、撮像画像を撮像するように撮像部10を制御する。   The control device 40 controls the robot 30 to perform a predetermined work. More specifically, first, the control device 40 performs a calibration process between the imaging unit 10 and the projection unit 20 based on a captured image of the object OBJ captured by the imaging unit 10. The control device 40 can derive a more accurate three-dimensional position and orientation of the object OBJ by this calibration process. Details of the calibration process will be described later. Then, after the calibration process between the imaging unit 10 and the projection unit 20 by the control device 40 is completed, the control device 40 performs the tertiary processing of the object OBJ based on the captured image of the object OBJ captured by the imaging unit 10. The original position and orientation are derived. The control device 40 controls the robot 30 by generating a control signal based on the derived three-dimensional position and orientation and outputting the generated control signal to the robot 30. Moreover, the control apparatus 40 outputs the various images produced | generated by the image generation part 52 mentioned later with which an own apparatus is provided to the projection part 20, and controls the projection part 20 so that the output various images may be projected. Further, the control device 40 controls the imaging unit 10 so as to capture a captured image.

次に、図2を参照することで、制御装置40のハードウェア構成について説明する。図2は、制御装置40のハードウェア構成の一例を示す図である。制御装置40は、例えば、CPU(Central Processing Unit)41と、記憶部42と、入力受付部43と、通信部44とを備え、通信部44を介して他の撮像部10、投射部20、ロボット30と通信を行う。CPU41は、記憶部42に格納された各種プログラムを実行する。記憶部42は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、制御装置40が処理する各種情報や画像、プログラムを格納する。なお、記憶部42は、制御装置40に内蔵されるものに代えて、外付け型の記憶装置でもよい。   Next, the hardware configuration of the control device 40 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a hardware configuration of the control device 40. The control device 40 includes, for example, a CPU (Central Processing Unit) 41, a storage unit 42, an input reception unit 43, and a communication unit 44, and the other imaging unit 10, the projection unit 20, and the like via the communication unit 44. Communication with the robot 30 is performed. The CPU 41 executes various programs stored in the storage unit 42. The storage unit 42 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a ROM (Read-Only Memory), a RAM (Random Access Memory), and the like. Various information, images, and programs processed by the control device 40 are stored. Note that the storage unit 42 may be an external storage device instead of the one built in the control device 40.

入力受付部43は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部43は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。通信部44は、例えば、USB等のデジタル入出力ポートとともに、イーサネットポート等を含んで構成される。   The input receiving unit 43 is, for example, a keyboard, mouse, touch pad, or other input device. The input receiving unit 43 may function as a display unit, and may be configured as a touch panel. The communication unit 44 includes, for example, an Ethernet port as well as a digital input / output port such as a USB.

次に、図3を参照することで、制御装置40の機能構成について説明する。図3は、制御装置40の機能構成の一例を示す図である。制御装置40は、例えば、記憶部42と、撮像制御部46と、画像取得部48と、投射制御部50と、初期処理部60と、三次元点群生成部70と、ロボット制御部80とを備える。これらの機能部のうち、撮像制御部46と、画像取得部48と、投射制御部50と、初期処理部60と、三次元点群生成部70と、ロボット制御部80との一部又は全部は、例えば、CPU41が、記憶部42に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。撮像制御部46は、初期処理部60又は三次元点群生成部70からの要求に従い、要求されたタイミングで撮像するように撮像部10を制御する。画像取得部48は、撮像部10により撮像された撮像画像を取得し、取得した撮像画像を記憶部42に記憶させる。   Next, the functional configuration of the control device 40 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a functional configuration of the control device 40. The control device 40 includes, for example, a storage unit 42, an imaging control unit 46, an image acquisition unit 48, a projection control unit 50, an initial processing unit 60, a three-dimensional point group generation unit 70, and a robot control unit 80. Is provided. Among these functional units, some or all of the imaging control unit 46, the image acquisition unit 48, the projection control unit 50, the initial processing unit 60, the three-dimensional point group generation unit 70, and the robot control unit 80. For example, the CPU 41 is implemented by executing various programs stored in the storage unit 42. Some or all of these functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit). In accordance with a request from the initial processing unit 60 or the three-dimensional point group generation unit 70, the imaging control unit 46 controls the imaging unit 10 to perform imaging at a requested timing. The image acquisition unit 48 acquires the captured image captured by the imaging unit 10 and causes the storage unit 42 to store the acquired captured image.

投射制御部50は、例えば、画像生成部52を備える。画像生成部52は、初期処理部60又は三次元点群生成部70からの要求に従い、記憶部42から投射画像を生成するための各種情報を読み込み、読み込んだ情報に基づいて投射画像を生成する。投射制御部50は、画像生成部52が生成した各種画像を投射画像として投射部20に出力し、出力した投射画像を投射するように投射部20を制御する。また、投射制御部50は、初期処理部60から好適な輝度出力を示す情報を取得し、取得した好適な輝度出力にまで投射部20の輝度出力を調整するように投射部20を制御する。好適な輝度出力についての詳細は後述するが、例えば、撮像部10の撮像素子の感度を十分に上回る輝度出力のことである。   The projection control unit 50 includes an image generation unit 52, for example. The image generation unit 52 reads various information for generating a projection image from the storage unit 42 according to a request from the initial processing unit 60 or the three-dimensional point group generation unit 70, and generates a projection image based on the read information. . The projection control unit 50 outputs various images generated by the image generation unit 52 to the projection unit 20 as projection images, and controls the projection unit 20 to project the output projection images. In addition, the projection control unit 50 acquires information indicating a suitable luminance output from the initial processing unit 60, and controls the projection unit 20 to adjust the luminance output of the projection unit 20 to the acquired suitable luminance output. The details of the suitable luminance output will be described later. For example, the luminance output is sufficiently higher than the sensitivity of the imaging element of the imaging unit 10.

投射部20の輝度出力が撮像部10の撮像素子の感度を上回っている場合、投射部20により投射された投射画像を撮像部10が撮像すると、撮像画像平面上に投射画像の全てが明確に撮像される。なお、投射制御部50は、画像生成部52が各種画像を生成することに代えて、各種画像を記憶部42から読み込み、読み込んだ各種画像を投射画像として投射部20に出力し、出力した投射画像を投射するように投射部20を制御するものとしてもよい。   When the luminance output of the projection unit 20 exceeds the sensitivity of the image sensor of the imaging unit 10, when the imaging unit 10 captures the projection image projected by the projection unit 20, all of the projection image is clearly displayed on the captured image plane. Imaged. The projection control unit 50 reads various images from the storage unit 42 instead of the image generation unit 52 generating various images, and outputs the read various images to the projection unit 20 as projection images. It is good also as what controls the projection part 20 so that an image may be projected.

ここで、図4を参照することにより、画像生成部52が生成する投射画像について説明する。図4は、画像生成部52が生成する投射画像の例を示す図である。画像生成部52は、赤色の画像RIMGを生成する。赤色画像RIMGは、後述するキャリブレーション処理を行う際に利用する画像である。画像生成部52は、さらに、投射部20の光学中心を通り投射画像平面上の縦方向に延伸する直線画像VIMG、投射部20の光学中心を通り投射画像平面上の横方向に延伸する直線画像HIMGを生成する。直線画像VIMG及び直線画像HIMGは、後述する位相接続処理を行う際に利用する画像である。   Here, the projection image which the image generation part 52 produces | generates is demonstrated with reference to FIG. FIG. 4 is a diagram illustrating an example of a projection image generated by the image generation unit 52. The image generation unit 52 generates a red image RIMG. The red image RIMG is an image used when performing a calibration process described later. The image generation unit 52 further includes a linear image VIMG extending in the vertical direction on the projection image plane through the optical center of the projection unit 20, and a linear image extending in the horizontal direction on the projection image plane through the optical center of the projection unit 20. Generate a HIMG. The straight line image VIMG and the straight line image HIMG are images used when performing phase connection processing described later.

また、画像生成部52は、投射画像平面上で輝度が周期的に変化し、輝度の周期的変化を表す波が投射画像平面上の水平方向に進行している4枚の画像HFI−0〜HFI−3を生成する。画像HFI−0〜HFI−3は、輝度の周期的変化を表す波の位相が互いにπ/2だけ異なる画像である。画像HFI−0〜HFI−3中の明度が高い点が輝度値の高い点であり、明度の低い点が輝度値の低い点である。画像HFI−0〜HFI−3と同様に、画像生成部52は、投射画像平面上で輝度が周期的に変化し、輝度の周期的変化を表す波が投射画像平面上の垂直方向に進行している4枚の画像VFI−0〜VFI−3を生成する。画像VFI−0〜VFI−3は、輝度の周期的変化を表す波の位相が互いにπ/2だけ異なる画像である。図4に示したように、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3における輝度の周期的変化を表す波は、投射画像平面上の水平方向及び垂直方向に進行する平面波(正弦波)であるが、斜めに進行する平面波であってもよいし、球面波等であってもよい。なお、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3は、輝度が周期的に変化する画像に代えて、色彩が周期的に変化する画像であってもよい。画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3は、後述する位相接続処理を行う際に利用する画像であり、さらに、後述する物体OBJの三次元点群画像の生成処理にも利用する画像である。   The image generation unit 52 also includes four images HFI-0 to HFI-0, in which the luminance periodically changes on the projection image plane, and a wave representing the periodic change in luminance proceeds in the horizontal direction on the projection image plane. Generate HFI-3. Images HFI-0 to HFI-3 are images in which the phases of waves representing periodic changes in luminance are different from each other by π / 2. In the images HFI-0 to HFI-3, a point with high brightness is a point with a high luminance value, and a point with low brightness is a point with a low luminance value. Similar to the images HFI-0 to HFI-3, the image generation unit 52 periodically changes the luminance on the projection image plane, and a wave representing the periodic change in luminance proceeds in the vertical direction on the projection image plane. Four images VFI-0 to VFI-3 are generated. Images VFI-0 to VFI-3 are images in which the phases of waves representing periodic changes in luminance are different from each other by π / 2. As shown in FIG. 4, the waves representing the periodic changes in luminance in the images HFI-0 to HFI-3 and the images VFI-0 to VFI-3 are plane waves that travel in the horizontal and vertical directions on the projection image plane. Although it is a (sine wave), it may be a plane wave traveling diagonally or a spherical wave or the like. Note that the images HFI-0 to HFI-3 and the images VFI-0 to VFI-3 may be images whose colors change periodically instead of images whose luminance changes periodically. The images HFI-0 to HFI-3 and the images VFI-0 to VFI-3 are images used when performing a phase connection process described later, and are further used to generate a three-dimensional point cloud image of the object OBJ described later. Also use images.

図3に戻る。初期処理部60は、例えば、輝度出力決定部62と、位相算出部64と、座標対応付部66と、キャリブレーション処理部68とを備える。初期処理部60は、投射制御部50を制御することで、図4に示した各種投射画像を投射部20に順次投射させる。また、初期処理部60は、撮像制御部46を制御することで、投射部20により投射された投射画像を撮像部10に順次撮像させる。また、初期処理部60は、輝度出力決定部62により決定された好適な輝度出力を投射制御部50に出力し、投射部20の輝度出力を好適な輝度出力にまで調整する。   Returning to FIG. The initial processing unit 60 includes, for example, a luminance output determination unit 62, a phase calculation unit 64, a coordinate association unit 66, and a calibration processing unit 68. The initial processing unit 60 controls the projection control unit 50 to sequentially project the various projection images shown in FIG. The initial processing unit 60 controls the imaging control unit 46 to cause the imaging unit 10 to sequentially capture the projection images projected by the projection unit 20. In addition, the initial processing unit 60 outputs a suitable luminance output determined by the luminance output determining unit 62 to the projection control unit 50, and adjusts the luminance output of the projection unit 20 to a suitable luminance output.

また、初期処理部60は、撮像制御部46を制御することで、撮像部10のホワイトバランスやゲイン、絞り、露光時間を調整する。ホワイトバランスの調整については後述する。初期処理部60は、ゲインや絞りを、好適な輝度出力で投射された画像の各点での色を再現可能な最低値に調整する。また、初期処理部60は、露光時間を、投射画像を撮像した撮像画像にフリッカー現象によるちらつきが生じないようにするため、投射部20のリフレッシュレートの逆数の3倍程度に調整する。投射部20のリフレッシュレートは、例えば、60[Hz]である。   Further, the initial processing unit 60 controls the imaging control unit 46 to adjust the white balance, gain, aperture, and exposure time of the imaging unit 10. The white balance adjustment will be described later. The initial processing unit 60 adjusts the gain and the aperture to the lowest value that can reproduce the color at each point of the image projected with a suitable luminance output. In addition, the initial processing unit 60 adjusts the exposure time to about three times the reciprocal of the refresh rate of the projection unit 20 so that the captured image obtained by capturing the projection image does not flicker due to the flicker phenomenon. The refresh rate of the projection unit 20 is, for example, 60 [Hz].

また、初期処理部60は、キャリブレーション処理部68により導出された撮像部10と投射部20との間の位置関係を示す情報を、三次元点群生成部70に出力する。撮像部10と投射部20との間の位置関係を示す情報とは、例えば、撮像部10の撮像画像平面上における座標と、投射部20の投射画像平面上における座標との間の座標変換(アフィン変換)を実現するための並進及び回転変換行列で表される。   Further, the initial processing unit 60 outputs information indicating the positional relationship between the imaging unit 10 and the projection unit 20 derived by the calibration processing unit 68 to the three-dimensional point group generation unit 70. The information indicating the positional relationship between the imaging unit 10 and the projection unit 20 is, for example, coordinate conversion between coordinates on the captured image plane of the imaging unit 10 and coordinates on the projection image plane of the projection unit 20 ( It is expressed by a translation and rotation transformation matrix for realizing (affine transformation).

輝度出力決定部62は、投射部20の好適な輝度出力を決定する。好適な輝度出力を決定する処理についての詳細は後述する。位相算出部64は、撮像部10の撮像画像平面上の座標と、投射部20の投射画像平面上の座標とを対応付ける座標対応付処理に必要な位相を算出する。ここでいう位相とは、図4に示した画像HFI−0〜HFI−3平面上又は画像VFI−0〜VFI−3平面上の各点における輝度の周期的変化を表す波の位相である。また、座標対応付処理は、撮像部10の撮像画像平面上における座標と、投射部20の投射画像平面上における座標とを対応付ける処理である。位相を算出する処理及び座標対応付処理についての詳細は後述する。   The luminance output determination unit 62 determines a suitable luminance output of the projection unit 20. Details of the process for determining a suitable luminance output will be described later. The phase calculation unit 64 calculates a phase necessary for a coordinate association process for associating coordinates on the captured image plane of the imaging unit 10 with coordinates on the projection image plane of the projection unit 20. Here, the phase is a wave phase representing a periodic change in luminance at each point on the image HFI-0 to HFI-3 plane or the image VFI-0 to VFI-3 plane shown in FIG. The coordinate association processing is processing for associating coordinates on the captured image plane of the imaging unit 10 with coordinates on the projection image plane of the projection unit 20. Details of the phase calculation process and the coordinate association process will be described later.

座標対応付部66は、位相算出部64により算出された撮像画像平面上の各点における位相に基づいて、座標対応付処理を行う。キャリブレーション処理部68は、座標対応付部66により対応付けられた座標に基づいて、キャリブレーション処理を行う。キャリブレーション処理部68は、キャリブレーション処理により、撮像部10と投射部20との間の位置関係を示す情報を導出する。   The coordinate association unit 66 performs a coordinate association process based on the phase at each point on the captured image plane calculated by the phase calculation unit 64. The calibration processing unit 68 performs calibration processing based on the coordinates associated with the coordinate association unit 66. The calibration processing unit 68 derives information indicating the positional relationship between the imaging unit 10 and the projection unit 20 through calibration processing.

三次元点群生成部70は、例えば、撮像時期決定部72を備える。三次元点群生成部70は、初期処理部60から、撮像部10と投射部20との間の位置関係を示す情報を取得する。また、三次元点群生成部70は、投射制御部50を制御することで、画像HFI−0〜HFI−3及び/又は画像VFI−0〜VFI−3を投射部20に順次投射させる。さらに、三次元点群生成部70は、撮像制御部46を制御することで、投射部20により投射された画像を、撮像時期決定部72により決定されたタイミングで撮像部10に撮像させる。そして、三次元点群生成部70は、記憶部42により記憶された撮像画像であって、物体OBJに画像HFI−0〜HFI−3及び/又は画像VFI−0〜VFI−3がそれぞれ投射された複数の撮像画像と、初期処理部60から取得した撮像部10と投射部20との間の位置関係を示す情報とに基づいて、例えば、位相シフト法等により物体OBJの三次元点群画像を生成する。三次元点群生成部70は、生成した三次元点群画像を、ロボット制御部80に出力する。ここで、三次元点群画像は、三次元点群情報の一例である。   The three-dimensional point group generation unit 70 includes an imaging time determination unit 72, for example. The three-dimensional point group generation unit 70 acquires information indicating the positional relationship between the imaging unit 10 and the projection unit 20 from the initial processing unit 60. Further, the three-dimensional point group generation unit 70 controls the projection control unit 50 to sequentially project the images HFI-0 to HFI-3 and / or the images VFI-0 to VFI-3 on the projection unit 20. Further, the three-dimensional point group generation unit 70 controls the imaging control unit 46 to cause the imaging unit 10 to capture the image projected by the projection unit 20 at the timing determined by the imaging time determination unit 72. The three-dimensional point cloud generation unit 70 is a captured image stored in the storage unit 42, and the images HFI-0 to HFI-3 and / or the images VFI-0 to VFI-3 are respectively projected onto the object OBJ. On the basis of the plurality of captured images and information indicating the positional relationship between the imaging unit 10 and the projection unit 20 acquired from the initial processing unit 60, for example, a three-dimensional point cloud image of the object OBJ by a phase shift method or the like Is generated. The 3D point cloud generation unit 70 outputs the generated 3D point cloud image to the robot control unit 80. Here, the 3D point cloud image is an example of 3D point cloud information.

撮像時期決定部72は、投射部20により投射された投射画像を、撮像部10が撮像するべきタイミングを決定し、決定したタイミングで三次元点群生成部70に撮像制御部46を制御させることで、撮像部10に投射画像を撮像させる。タイミングの決定処理についての詳細は後述する。   The imaging time determination unit 72 determines the timing at which the imaging unit 10 should capture the projection image projected by the projection unit 20, and causes the three-dimensional point group generation unit 70 to control the imaging control unit 46 at the determined timing. Thus, the imaging unit 10 is caused to capture a projection image. Details of the timing determination process will be described later.

ロボット制御部80は、例えば、三次元位置姿勢導出部82を備える。ロボット制御部80は、三次元位置姿勢導出部82により導出された物体OBJの三次元位置及び姿勢に基づいて、物体OBJに対して所定の作業を行うようにロボット30を制御する。三次元位置姿勢導出部82は、三次元点群生成部70から取得した物体OBJの三次元点群画像に基づいて、物体OBJの三次元位置及び姿勢を導出する。   The robot control unit 80 includes, for example, a three-dimensional position / orientation deriving unit 82. The robot control unit 80 controls the robot 30 to perform a predetermined operation on the object OBJ based on the three-dimensional position and posture of the object OBJ derived by the three-dimensional position / orientation deriving unit 82. The three-dimensional position / orientation deriving unit 82 derives the three-dimensional position and orientation of the object OBJ based on the three-dimensional point cloud image of the object OBJ acquired from the three-dimensional point group generation unit 70.

以下、図5を参照することにより、初期処理部60の各機能部が行う処理について説明する。図5は、初期処理部60により実行される処理の流れの一例を示すフローチャートである。まず、輝度出力決定部62は、投射部20の好適な輝度出力を決定する。そして、輝度出力決定部62は、決定した好適な輝度出力を投射制御部50に出力し、投射制御部50に投射部20の輝度出力を調整させる(ステップS100)。   Hereinafter, the processing performed by each functional unit of the initial processing unit 60 will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of the flow of processing executed by the initial processing unit 60. First, the luminance output determination unit 62 determines a suitable luminance output of the projection unit 20. Then, the luminance output determination unit 62 outputs the determined preferable luminance output to the projection control unit 50, and causes the projection control unit 50 to adjust the luminance output of the projection unit 20 (step S100).

ここで、好適な輝度出力を決定する処理について説明する。まず、輝度出力決定部62は、投射制御部50を制御することにより、投射部20に白色画像を投射させる。この際、輝度出力決定部62は、白色画像の輝度出力を1階調ずつ変化させ、変化させた度に撮像を行うように撮像制御部46を制御することで、階調が異なる白色画像を撮像部10に撮像させる。投射部20の輝度出力は、例えば、0から254までの255階調だけ変化させることが可能である。輝度出力決定部62は、各階調ごとに撮像された白色画像に基づいて、投射部20の輝度出力と、撮像部10により撮像された撮像画像平面上における輝度との関係を、RGB(Red Green Blue)ごとに導出する。図6は、投射部20の輝度出力と、撮像部10により撮像された撮像画像平面上における輝度との関係の一例を表すグラフである。   Here, a process for determining a suitable luminance output will be described. First, the luminance output determination unit 62 controls the projection control unit 50 to cause the projection unit 20 to project a white image. At this time, the luminance output determination unit 62 changes the luminance output of the white image step by step, and controls the imaging control unit 46 to perform imaging every time the luminance output is changed. The imaging unit 10 is caused to capture an image. The luminance output of the projection unit 20 can be changed by, for example, 255 gradations from 0 to 254. The luminance output determination unit 62 determines the relationship between the luminance output of the projection unit 20 and the luminance on the captured image plane captured by the imaging unit 10 based on the white image captured for each gradation, as RGB (Red Green Derived every Blue). FIG. 6 is a graph illustrating an example of the relationship between the luminance output of the projection unit 20 and the luminance on the captured image plane captured by the imaging unit 10.

図6に示したように、撮像部10により撮像された撮像画像平面上における輝度は、投射部20の輝度出力を上昇させたとき、基準線RLまでは比較的に変化率が小さい。しかし、撮像部10により撮像された撮像画像平面上における輝度は、基準線RLを境にして、投射部20の輝度出力と近似的に正比例するようになる。輝度出力決定部62は、基準線RL(近似的な正比例の開始点)における投射部20の輝度出力を最低値として、最低値から最大値までの範囲内のいずれかの値を、好適な輝度出力として決定する。以下の説明では、この最低値を好適な輝度出力として決定するものとする。   As shown in FIG. 6, the luminance on the captured image plane imaged by the imaging unit 10 has a relatively small change rate up to the reference line RL when the luminance output of the projection unit 20 is increased. However, the luminance on the plane of the captured image captured by the imaging unit 10 is approximately directly proportional to the luminance output of the projection unit 20 with the reference line RL as a boundary. The luminance output determination unit 62 sets the luminance output of the projection unit 20 at the reference line RL (approximate direct proportional start point) as the minimum value, and sets any value within the range from the minimum value to the maximum value as a suitable luminance. Determine as output. In the following description, this minimum value is determined as a suitable luminance output.

図5に戻る。以下では、ステップS100で投射部20の輝度出力が好適な輝度出力に調整された後、ユーザーがキャリブレーションボードを領域PAと領域CAとが重なった領域内に設置したものとして説明する。キャリブレーションボードとは、例えば、赤色と青色とで形成されたグリッドパターンである。図7は、赤色と青色とで形成されたグリッドパターンの一例を示す図である。図7に示したように、グリッドパターンは、赤地RBGに青色のグリッド模様BGDが描かれている。ユーザーがキャリブレーションボードを領域PAと領域CAとが重なった領域内に設置した後、初期処理部60は、撮像制御部46を制御することで、撮像部10のホワイトバランス、ゲイン、絞り、露光時間(図5において、これらをパラメータと称する)を調整する(ステップS110)。   Returning to FIG. In the following description, it is assumed that the user has installed the calibration board in an area where the area PA and the area CA overlap after the luminance output of the projection unit 20 is adjusted to a suitable luminance output in step S100. The calibration board is a grid pattern formed of, for example, red and blue. FIG. 7 is a diagram illustrating an example of a grid pattern formed in red and blue. As shown in FIG. 7, in the grid pattern, a blue grid pattern BGD is drawn on a red background RBG. After the user installs the calibration board in the area where the area PA and the area CA overlap, the initial processing unit 60 controls the imaging control unit 46 to thereby adjust the white balance, gain, aperture, and exposure of the imaging unit 10. The time (referred to as parameters in FIG. 5) is adjusted (step S110).

ここで、ゲイン、絞り、露光時間の調整については、前述した通りであるため、説明を省略する。そして、図8を参照することにより、ホワイトバランスの調整について説明する。図8は、キャリブレーションボードに白色光、赤色光をそれぞれ投射した場合の撮像画像の比較例を示す図である。図8の最左図は、キャリブレーションボードに白色光を投射した場合の撮像画像である。初期処理部60は、投射制御部50を制御することで、図7に示したキャリブレーションボードに対して、投射部20から白色光を投射させると、図8の最左図のような撮像画像GDBを撮像することができる。そして、初期処理部60は、図8の最左図を、グレースケールに変換する。この時、初期処理部60は、グレースケールに変換された画像に基づいて、青色のグリッドBPからの反射光と、赤色のグリッドRPからの反射光との輝度が同じになるように、撮像部10のホワイトバランスを撮像制御部46に調整させる。   Here, since the adjustment of the gain, aperture, and exposure time is as described above, the description thereof is omitted. The white balance adjustment will be described with reference to FIG. FIG. 8 is a diagram illustrating a comparative example of captured images when white light and red light are respectively projected onto the calibration board. The leftmost diagram in FIG. 8 is a captured image when white light is projected onto the calibration board. When the initial processing unit 60 controls the projection control unit 50 to project white light from the projection unit 20 onto the calibration board illustrated in FIG. 7, a captured image as illustrated in the leftmost diagram of FIG. 8. GDB can be imaged. Then, the initial processing unit 60 converts the leftmost diagram in FIG. 8 into a gray scale. At this time, the initial processing unit 60 is based on the image converted to grayscale, so that the reflected light from the blue grid BP and the reflected light from the red grid RP have the same luminance. The white balance of 10 is adjusted by the imaging control unit 46.

この調整を行ったあとのグレースケールに変換されたキャリブレーションボードを撮像した画像が、図8の中図である。図8の中図に示すように、このグレースケールに変換されたキャリブレーションボードを撮像した画像は、撮像画像の全体が略均一の輝度となり、青色のグリッドBPと赤色のグリッドRPとを区別することが不可能になる。このようにすることで、制御装置40は、画像HFI−0〜HFI−3及び/又は画像VFI−0〜VFI−3をキャリブレーションボードに投射させた際、青色のグリッドBPと赤色のグリッドRPとの反射輝度の違いによる明暗が撮像画像上に生じないようにすることができる。言い換えると、制御装置40は、キャリブレーションボードが存在しないかのように、白色光を利用した処理を行うことができる。また、このキャリブレーションボードに、図4で示した赤色画像RIMGを投射した場合の撮像画像が、図8の最右図である。青色のグリッドBPと赤色のグリッドRPとの反射輝度は、白色光に対しては同じであるが、赤色光に対しては異なるため、図8の再右図のような撮像画像となる。   An image obtained by capturing the calibration board converted to the gray scale after this adjustment is shown in the middle of FIG. As shown in the middle diagram of FIG. 8, the image obtained by imaging the calibration board converted to the gray scale has a substantially uniform luminance as a whole, and distinguishes the blue grid BP from the red grid RP. It becomes impossible. By doing in this way, when the control device 40 projects the images HFI-0 to HFI-3 and / or the images VFI-0 to VFI-3 on the calibration board, the blue grid BP and the red grid RP It is possible to prevent light and dark due to the difference in reflection luminance from occurring on the captured image. In other words, the control device 40 can perform processing using white light as if there is no calibration board. Further, the captured image when the red image RIMG shown in FIG. 4 is projected onto the calibration board is the rightmost diagram of FIG. The reflection luminance of the blue grid BP and the red grid RP is the same for white light, but is different for red light, so that the captured image is as shown in the right-hand side of FIG.

図5に戻る。ステップS110で初期処理部60が撮像部10のホワイトバランス、ゲイン、絞り、露光時間を調整した後、位相算出部64は、投射制御部50を制御することで、画像VIMG、画像HIMG、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3を、投射部20に順次投射させる。そして、位相算出部64は、撮像制御部46を制御することで、これらの画像を、撮像部10に順次撮像させる(ステップS120)。   Returning to FIG. After the initial processing unit 60 adjusts the white balance, gain, aperture, and exposure time of the image capturing unit 10 in step S110, the phase calculation unit 64 controls the projection control unit 50, whereby the image VIMG, the image HIMG, and the image HFI. −0 to HFI-3 and images VFI-0 to VFI-3 are sequentially projected onto the projection unit 20. And the phase calculation part 64 controls the imaging control part 46, and makes the imaging part 10 image these images sequentially (step S120).

次に、位相算出部64は、ステップS120で撮像された撮像画像を、記憶部42から読み込み、読み込んだ撮像画像に基づいて撮像画像平面上の各点における位相を算出する(ステップS130)。ここで、図9を参照することにより、撮像画像平面上の各点における位相を算出する処理についての詳細を説明する。図9は、投射画像と撮像画像と、それらの各点における位相との関係の一例を示す図である。図9に示した例では、初期処理部60が、領域PAに投射された画像HFI−0のうち、領域CAに投射された部分を撮像画像CAIとして撮像部10に撮像させる状況を示している。この時に撮像された撮像画像CAIは、記憶部42に記憶される。位相算出部64は、記憶部42に記憶された撮像画像CAIを読み込み、読み込んだ撮像画像CAI平面上の各点における輝度値を検出する。ここで、撮像画像平面上の各点における輝度値は、以下の式(1)で表される。   Next, the phase calculation unit 64 reads the captured image captured in step S120 from the storage unit 42, and calculates the phase at each point on the captured image plane based on the read captured image (step S130). Here, the details of the process of calculating the phase at each point on the captured image plane will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of the relationship between the projected image, the captured image, and the phase at each point. In the example illustrated in FIG. 9, the initial processing unit 60 illustrates a situation in which the imaging unit 10 captures a portion of the image HFI-0 projected onto the area PA as a captured image CAI. . The captured image CAI captured at this time is stored in the storage unit 42. The phase calculation unit 64 reads the captured image CAI stored in the storage unit 42 and detects the luminance value at each point on the read captured image CAI plane. Here, the luminance value at each point on the captured image plane is expressed by the following equation (1).

ここで、n=0、1、2、3である。n=0、1、2、3のそれぞれに対応したI(x,y)は、画像HFI−0、1、2、3のそれぞれを撮像した撮像画像平面上の各点を表す座標(x,y)における輝度値を表している。それ故、I(x,y)は、撮像画像CAI平面上の各点を表す座標(x,y)における輝度値を表している。A(x,y)は、各撮像画像平面上の輝度の変化を表す波の、座標(x,y)が表す点における振幅を表している。B(x,y)は、各撮像画像平面上の輝度の変化を表す波の、座標(x,y)が表す点における振幅がゼロのときの輝度値を表している。θ(x,y)は、撮像画像平面上の各点を表す座標(x,y)における位相を表している。式(1)で示したI(x,y)〜I(x,y)に対する4本の式を組み合わせることで、各撮像画像平面上の各点を表す座標(x,y)における位相θ(x,y)は、以下の式(2)のように表すことができる。 Here, n = 0, 1, 2, and 3. n = I n (x, y ) corresponding to each of 0, 1, 2, 3, coordinates representing each point on the captured image plane of the captured each image HFI-0,1,2,3 (x , Y) represents the luminance value. Therefore, I 0 (x, y) represents a luminance value at coordinates (x, y) representing each point on the captured image CAI plane. A (x, y) represents the amplitude of a wave representing a change in luminance on each captured image plane at a point represented by coordinates (x, y). B (x, y) represents the luminance value when the amplitude at the point represented by the coordinates (x, y) of the wave representing the luminance change on each captured image plane is zero. θ (x, y) represents a phase at coordinates (x, y) representing each point on the captured image plane. By combining the four equations for I 0 (x, y) to I 3 (x, y) shown in equation (1), the phase at coordinates (x, y) representing each point on each captured image plane θ (x, y) can be expressed as the following equation (2).

位相算出部64は、式(2)と、上述した位相算出部64が検出した各撮像画像平面上の各点を表す座標(x,y)における輝度値とに基づいて、各撮像画像平面上の各点を表す座標(x,y)における位相θ(x,y)を算出する。図5に戻る。ステップS130で位相算出部64が各撮像画像平面上の各点における位相θ(x,y)を算出した後、座標対応付部66は、位相算出部64が算出した位相θ(x,y)に基づいて、撮像画像平面上の座標と、投射画像平面上の座標とを対応付ける座標対応付処理を行う(ステップS140)。   The phase calculation unit 64 is based on Expression (2) and the luminance value at the coordinates (x, y) representing each point on each captured image plane detected by the phase calculation unit 64 described above. The phase θ (x, y) at the coordinates (x, y) representing each point is calculated. Returning to FIG. After the phase calculation unit 64 calculates the phase θ (x, y) at each point on each captured image plane in step S130, the coordinate association unit 66 calculates the phase θ (x, y) calculated by the phase calculation unit 64. Based on the above, the coordinate association processing for associating the coordinates on the captured image plane with the coordinates on the projection image plane is performed (step S140).

ここで、再び図9を参照することにより、座標対応付部66による座標対応付処理について説明する。式(2)と、上述した位相算出部64が検出した各撮像画像平面上の各点を表す座標(x,y)における輝度値とに基づいて、位相算出部64が算出した位相θ(x,y)の取り得る範囲は、−π/2≦θ(x,y)≦π/2である。ところが、投射画像平面上及び撮像画像平面上における輝度の変化は、周期的に繰り返されているため、同位相線が複数存在する。図9に示した例では、投射画像平面上における同位相線SPL1、SPL2、SPL3上に存在する各点の位相は、すべて同じ値を取る。このため、座標対応付部66は、このままでは撮像画像CAI平面上の同位相線SPL3上に存在する点P(x,y)の位相θ(x,y)が、領域PA内に投射された画像HFI−0平面上の同位相線SPL1、SPL2、SPL3のいずれの同位相線上に位置する位相であるのかを判別することができない。 Here, referring to FIG. 9 again, the coordinate association processing by the coordinate association unit 66 will be described. Based on the equation (2) and the luminance value at coordinates (x, y) representing each point on each captured image plane detected by the phase calculation unit 64 described above, the phase θ (x , Y) can take a range of −π / 2 ≦ θ (x, y) ≦ π / 2. However, since changes in luminance on the projected image plane and the captured image plane are repeated periodically, there are a plurality of in-phase lines. In the example shown in FIG. 9, the phases of the points existing on the same phase lines SPL1, SPL2, and SPL3 on the projection image plane all have the same value. For this reason, the coordinate association unit 66 keeps the phase θ (x 1 , y 1 ) of the point P (x 1 , y 1 ) existing on the same phase line SPL3 on the captured image CAI plane as it is in the area PA. It is impossible to determine which phase is on the same phase line SPL1, SPL2, or SPL3 on the image HFI-0 plane projected onto the image HFI-0.

そこで、本実施形態における座標対応付部66は、投射画像及び撮像画像に共通する所定の位置を基準として、位相接続処理を行う。位相接続処理とは、基準となる所定の位置から位相がπ/2だけ変化するたびに、その点での位相にπ/2を加算又は減算することで、投射画像平面上及び撮像画像平面上における輝度の変化を表す波の同位相線が一対一対応させることを可能にする処理のことである。座標対応付部66は、基準となる所定の位置として、例えば、画像HFI−0〜HFI−3及びこれらを撮像した撮像画像に対して、画像VIMG平面上における縦方向に延伸した直線を利用する。また、座標対応付部66は、基準となる所定の位置として、例えば、画像VFI−0〜VFI−3に対して、画像HIMG平面上における横方向に延伸した直線を利用する。   Therefore, the coordinate association unit 66 in the present embodiment performs the phase connection process on the basis of a predetermined position common to the projection image and the captured image. Phase connection processing means that each time the phase changes by π / 2 from a predetermined reference position, π / 2 is added to or subtracted from the phase at that point on the projected image plane and the captured image plane. This is a process that makes it possible to make one-to-one correspondence between the same phase lines of a wave representing a change in luminance. The coordinate association unit 66 uses, for example, a straight line extending in the vertical direction on the image VIMG plane with respect to the images HFI-0 to HFI-3 and a captured image obtained by capturing them as the predetermined position serving as a reference. . The coordinate association unit 66 uses, for example, a straight line extending in the horizontal direction on the image HIMG plane with respect to the images VFI-0 to VFI-3 as the reference predetermined position.

図9に示した例では、投射画像が画像HFI−0であるため、座標対応付部66は、画像VIMG平面上における縦方向に延伸した直線を、基準となる所定の位置を表す直線VLとし、直線VLを基準として位相接続処理を行う。座標対応付部66は、直線VLが領域PA及び領域CAのいずれにも含まれているため、位相接続処理を行うことで、撮像画像平面上の点P(x,y)における位相θ(x,y)と、投射画像平面上の対応する同位相線SPL3上の各点の位相とを対応付けることができる。この対応付けによって、座標対応付部66は、撮像画像平面上の点P(x,y)に対応する投射画像平面上の点P’が、同位相線SPL3上のいずれかに存在することを確定させる。なお、基準となる所定の位置は、基準線VLのような直線に代えて、基準点や基準となる模様等であってもよいが、いずれの場合も必ず投射画像平面上及び撮像画像平面上の両方に含まれていなければならない。 In the example shown in FIG. 9, since the projection image is the image HFI-0, the coordinate association unit 66 sets the straight line extending in the vertical direction on the image VIMG plane as a straight line VL representing a predetermined position as a reference. Then, phase connection processing is performed with reference to the straight line VL. Since the coordinate association unit 66 includes the straight line VL in both the area PA and the area CA, the phase θ at the point P (x 1 , y 1 ) on the captured image plane is obtained by performing the phase connection process. (X 1 , y 1 ) can be associated with the phase of each point on the corresponding in-phase line SPL3 on the projection image plane. By this association, the coordinate association unit 66 has a point P ′ on the projection image plane corresponding to the point P (x 1 , y 1 ) on the captured image plane anywhere on the same phase line SPL3. Confirm that. The predetermined reference position may be a reference point, a reference pattern, or the like instead of a straight line such as the reference line VL. In either case, the predetermined position is always on the projected image plane and the captured image plane. Must be included in both.

座標対応付部66は、輝度の変化を表す波が投射画像平面上において縦方向に進行している画像VFI−0〜VFI−3について、画像HFI−0〜HFI−3に対して行った位相接続処理と同様の処理を行う。これらの処理によって、位相算出部64が算出した撮像画像平面上の点P(x,y)における位相θ(x,y)と同位相の、投射画像平面上における縦方向へ延伸する同位相線と、横方向へ延伸する同位相線とが得られるため、座標対応付部66は、縦方向へ延伸する同位相線と横方向へ延伸する同位相線とが交差した点P’ (x’,y’)を、撮像画像平面上の点P(x,y)と対応付けることができる。この対応付によって、座標対応付部66は、撮像画像平面上の点を表す座標と、投射画像平面上の点を表す座標とを、より正確に対応付けることができる。 The coordinate association unit 66 performs the phases performed on the images HFI-0 to HFI-3 with respect to the images VFI-0 to VFI-3 in which a wave representing a change in luminance proceeds in the vertical direction on the projection image plane. Processing similar to the connection processing is performed. By these processes, the phase calculation unit 64 extends in the longitudinal direction on the projection image plane and has the same phase as the phase θ (x 1 , y 1 ) at the point P (x 1 , y 1 ) on the captured image plane. The phase line extending in the horizontal direction and the phase line extending in the horizontal direction are obtained, so that the coordinate correspondence unit 66 has a point P where the phase line extending in the vertical direction and the phase line extending in the horizontal direction intersect each other. '(X' 1 , y ' 1 ) can be associated with a point P (x 1 , y 1 ) on the captured image plane. By this association, the coordinate association unit 66 can more accurately associate coordinates representing points on the captured image plane with coordinates representing points on the projection image plane.

なお、座標対応付部66は、撮像部10の撮像画像平面上の全画素数の方が、投射部20の投射画像平面上の全画素数よりも大きい場合、撮像画像平面上の点を表す座標と、投射画像平面上の点を表す座標とを、サブピクセル精度で対応付ける処理を行ってよい。座標対応付部66は、例えば、このサブピクセル精度で対応付ける処理を、投射画像平面上の座標間を分割し、撮像画像平面上の座標に対応する座標値を生成して補完することで行う。このように、撮像画像平面上の点を表す座標と、投射画像平面上の点を表す座標とを、サブピクセル精度で対応付けを行うことで、位相シフト法による物体OBJの三次元点群を生成する際、撮像部10の撮像解像度以上の点群数を実現することができる。   The coordinate association unit 66 represents a point on the captured image plane when the total number of pixels on the captured image plane of the imaging unit 10 is larger than the total number of pixels on the projected image plane of the projection unit 20. You may perform the process which matches a coordinate and the coordinate showing the point on a projection image plane with subpixel accuracy. For example, the coordinate association unit 66 performs the process of associating with subpixel accuracy by dividing the coordinates on the projection image plane and generating and complementing the coordinate values corresponding to the coordinates on the captured image plane. In this way, by associating the coordinates representing the points on the captured image plane with the coordinates representing the points on the projected image plane with sub-pixel accuracy, the three-dimensional point group of the object OBJ by the phase shift method is obtained. When generating, it is possible to realize a point group number equal to or higher than the imaging resolution of the imaging unit 10.

図5に戻る。ステップS140で座標対応付部66が、撮像画像平面上の点を表す座標と、投射画像平面上の点を表す座標とを対応付けた後、キャリブレーション処理部68は、図7で示したキャリブレーションボードに、図4で示した画像RIMGが投射され、投射されたキャリブレーションボードが撮像部10により撮像された撮像画像を、記憶部42から読み込む。そして、キャリブレーション処理部68は、読み込んだ撮像画像に基づいて、キャリブレーション画像を生成する(ステップS150)。キャリブレーション画像とは、撮像部10により撮像されたキャリブレーションボードの撮像画像X1を三次元モデル化したものである。   Returning to FIG. In step S140, the coordinate association unit 66 associates the coordinates representing the points on the captured image plane with the coordinates representing the points on the projected image plane, and then the calibration processing unit 68 performs the calibration shown in FIG. The image RIMG shown in FIG. 4 is projected onto the projection board, and a captured image obtained by capturing the projected calibration board with the imaging unit 10 is read from the storage unit 42. And the calibration process part 68 produces | generates a calibration image based on the read captured image (step S150). The calibration image is a three-dimensional model of the captured image X1 of the calibration board imaged by the imaging unit 10.

次に、キャリブレーション処理部68は、例えば、撮像部10が撮像画像X1と同じ撮像画像を撮像できる投射画像を、キャリブレーション画像に対してアフィン変換を行うことで生成する。そして、キャリブレーション処理部68は、この際のアフィン変換に用いた並進及び回転変換行列を、撮像部10と投射部20との間の位置関係を示す情報として導出する(ステップS160)。   Next, for example, the calibration processing unit 68 generates a projection image in which the imaging unit 10 can capture the same captured image as the captured image X1 by performing affine transformation on the calibration image. Then, the calibration processing unit 68 derives the translation and rotation transformation matrix used for the affine transformation at this time as information indicating the positional relationship between the imaging unit 10 and the projection unit 20 (step S160).

以下、図10を参照することにより、三次元点群生成部70が行う三次元点群画像の生成処理について説明する。図10は、三次元点群生成部70により実行される三次元点群画像の生成処理の流れの一例を示すフローチャートである。以下では、初期処理部60によるキャリブレーション処理が終了した後、ユーザーが領域PAと領域CAとが重なった領域に物体OBJを設置したものとして説明する。まず、撮像時期決定部72は、図4に示した画像HFI−0〜HFI−3のうちいずれか一つ、及び/又は画像VFI−0〜VFI−3のうちの未選択の画像を1つ選択して記憶部42から読み込む(ステップS200)。以下では、撮像時期決定部72が、画像HFI−0〜HFI−3のうちの未選択の画像を1つ選択したものとして説明する。   Hereinafter, the 3D point cloud image generation process performed by the 3D point cloud generation unit 70 will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of the flow of a 3D point cloud image generation process executed by the 3D point cloud generation unit 70. In the following description, it is assumed that, after the calibration process by the initial processing unit 60 is completed, the user installs the object OBJ in the area where the area PA and the area CA overlap. First, the imaging time determination unit 72 selects one of the images HFI-0 to HFI-3 and / or one unselected image from the images VFI-0 to VFI-3 shown in FIG. Select and read from the storage unit 42 (step S200). In the following description, it is assumed that the imaging time determination unit 72 has selected one unselected image among the images HFI-0 to HFI-3.

次に、撮像時期決定部72は、ステップS200で未選択の画像があったか否かを判定する(ステップS210)。撮像時期決定部72は、未選択の画像があったと判定した場合(ステップS210−Yes)、投射制御部50を制御することで投射部20に、ステップS200で選択して読み込んだ画像を物体OBJへ投射させる(ステップS220)。次に、撮像時期決定部72は、ステップS200において選択された投射画像に関する前回のサブルーチン実行時に投射された投射画像が、今回のサブルーチン実行時に投射された投射画像に完全に切り替わったか否かを判断するため、撮像制御部46を制御することで撮像部10に、物体OBJが設置された領域CAを、切替判断用画像として撮像させる(ステップS230)。なお、切替判断用画像は、時系列画像の一例である。次に、撮像時期決定部72は、ステップS230で撮像した切替判断用画像を複数の領域に分割する。そして、撮像時期決定部72は、一部又は全部の分割された領域ごとに、分割された領域内の画素ごとの輝度又は色彩を検出する(ステップS240)。なお、分割された各領域は、重なっていてもよいし、隣接していてもよいし、隣接していなくてもよいが、領域内に輝度又は色彩の周期的変化の一部又は全部を含んでいなければならない。   Next, the imaging time determination unit 72 determines whether or not there is an unselected image in step S200 (step S210). When it is determined that there is an unselected image (step S210-Yes), the imaging time determination unit 72 controls the projection control unit 50 to control the projection control unit 50 to input the image selected and read in step S200 to the object OBJ. (Step S220). Next, the imaging time determination unit 72 determines whether or not the projection image projected during the previous subroutine execution related to the projection image selected in step S200 has completely switched to the projection image projected during the current subroutine execution. Therefore, by controlling the imaging control unit 46, the imaging unit 10 is caused to capture the area CA in which the object OBJ is installed as a switching determination image (step S230). Note that the switching determination image is an example of a time-series image. Next, the imaging time determination unit 72 divides the switching determination image captured in step S230 into a plurality of regions. And the imaging time determination part 72 detects the brightness | luminance or color for every pixel in the divided | segmented area | region for every one part or all the divided | segmented area | region (step S240). The divided areas may overlap, may be adjacent to each other, or may not be adjacent to each other, but the area includes a part or all of a periodic change in luminance or color. You must be out.

ここで、図11を参照することで、切替判断用画像を複数の領域に分割する処理について説明する。図11は、切替判断用画像が複数の領域に分割された場合の領域例を示す図である。画像PICは、ステップS230で撮像部10により撮像された切替判断用画像の一例である。画像PICは、画像HFI−0から他の画像へ切り替わる途中に撮像されたため、画像PICの上段と下段とで異なる投射画像が撮像されたものとなっている。領域DAは、ステップS240で画像PICが複数に分割された領域のうちの1つである。図11に示したように、領域DAは、領域内に輝度又は色彩の周期的変化を含んでいる。撮像時期決定部72は、領域DAの各画素における輝度又は色彩を検出する。   Here, the process of dividing the switching determination image into a plurality of regions will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of a region when the switching determination image is divided into a plurality of regions. The image PIC is an example of a switching determination image captured by the imaging unit 10 in step S230. Since the image PIC was captured in the middle of switching from the image HFI-0 to another image, different projected images were captured in the upper and lower stages of the image PIC. The area DA is one of the areas obtained by dividing the image PIC into a plurality of parts in step S240. As shown in FIG. 11, the area DA includes a periodic change in luminance or color in the area. The imaging time determination unit 72 detects the luminance or color at each pixel in the area DA.

図10に戻る。撮像時期決定部72は、ステップS230における撮像に関する前回のサブルーチン実行時に撮像された切替判断用画像が分割された複数の領域ごとの各画素における輝度又は色彩と、今回のサブルーチン実行時に撮像された切替判断用画像が分割された領域ごとの各画素における輝度又は色彩との差分を算出する(ステップS250)。ここで、図12及び図13を参照することで、前回のサブルーチン実行時における分割された領域ごとの各画素の輝度と、今回のサブルーチン実行時における分割された領域ごとの各画素の輝度との差分を算出する処理について説明する。図12は、ステップS200において投射された投射画像に関する前回のサブルーチン実行時に投射された投射画像、及び今回のサブルーチン実行時に投射された投射画像平面上の画素とその画素の輝度をプロットしたグラフの一例である。   Returning to FIG. The imaging time determination unit 72 determines the luminance or color in each pixel for each of a plurality of areas into which the switching determination image captured during the previous subroutine execution related to imaging in step S230 and the switching captured during the current subroutine execution. The difference between the luminance or the color in each pixel for each region into which the determination image is divided is calculated (step S250). Here, referring to FIG. 12 and FIG. 13, the luminance of each pixel for each divided area at the time of the previous subroutine execution and the luminance of each pixel for each divided area at the time of the current subroutine execution are calculated. Processing for calculating the difference will be described. FIG. 12 is an example of a graph plotting the projected image projected during the previous subroutine execution regarding the projection image projected in step S200, the pixels on the projected image plane projected during the current subroutine execution, and the luminance of the pixels. It is.

実線W1は、例えば、前回のサブルーチン実行時に投射された画像HFI−0を分割した複数の領域のうちの1つの画素ごとの輝度値をプロットした正弦波状のグラフである。また、点線W2は、例えば、前回のサブルーチン実行時に投射された画像HFI−1を分割した複数の領域のうちの1つの画素ごとの輝度値をプロットした正弦波状のグラフである。画像HFI−0と画像HFI−1との輝度の周期的変化は、互いに位相がπ/2だけずれている。それを反映して、実線W1と点線W2とは、互いに位相がπ/2だけずれている。撮像時期決定部72は、画素ごとに実線W1と点線W2との輝度の差分DLを算出する。   The solid line W1 is, for example, a sine wave graph in which the luminance value for each pixel in a plurality of regions obtained by dividing the image HFI-0 projected during the previous subroutine execution is plotted. The dotted line W2 is, for example, a sine wave graph in which the luminance value for each pixel in a plurality of regions obtained by dividing the image HFI-1 projected at the previous subroutine execution is plotted. The periodic changes in luminance between the image HFI-0 and the image HFI-1 are out of phase with each other by π / 2. Reflecting this, the solid line W1 and the dotted line W2 are out of phase with each other by π / 2. The imaging time determination unit 72 calculates a luminance difference DL between the solid line W1 and the dotted line W2 for each pixel.

撮像時期決定部72が算出した差分DLは、画素ごとにプロットされると、図13に示したグラフのようになる。図13は、撮像時期決定部72が算出した差分を画素ごとにプロットしたグラフの一例である。ここで、ステップS200において投射された投射画像に関する前回のサブルーチン実行時に投射された投射画像から、今回のサブルーチン実行時に投射された投射画像へと切り替わりが完了していた場合、図13中の画素の多くは、算出した差分が所定の閾値Z1を超過することになる。それ故、撮像時期決定部72は、差分が所定の閾値Z1を超過している画素の割合が、所定の閾値Z2を超えた場合、前回のサブルーチン実行時に投射された投射画像から、今回のサブルーチン実行時に投射された投射画像へと切り替わりが完了したと判断する。   When the difference DL calculated by the imaging time determination unit 72 is plotted for each pixel, a graph shown in FIG. 13 is obtained. FIG. 13 is an example of a graph in which the difference calculated by the imaging time determination unit 72 is plotted for each pixel. Here, when switching from the projection image projected at the previous subroutine execution related to the projection image projected at step S200 to the projection image projected at the current subroutine execution has been completed, the pixel of FIG. In many cases, the calculated difference exceeds a predetermined threshold value Z1. Therefore, when the ratio of the pixels whose difference exceeds the predetermined threshold value Z1 exceeds the predetermined threshold value Z2, the imaging time determination unit 72 calculates the current subroutine from the projection image projected at the previous subroutine execution time. It is determined that the switching to the projected image projected at the time of execution has been completed.

図10に戻る。ステップS250で、差分を算出した後、撮像時期決定部72は、算出した差分が所定の閾値Z1を超えた画素の割合が、所定の閾値Z2を超過したか否かを判定する(ステップS260)。所定の閾値Z2を超過していないと判定した場合(ステップS260−No)、撮像時期決定部72は、ステップS230に戻り、再び切替判断用画像を撮像する。一方、所定の閾値Z2を超過していると判定した場合(ステップS260−Yes)、撮像時期決定部72は、撮像制御部46を制御することで、三次元点群生成部70が位相シフト法に用いるための処理用画像として、投射画像を撮像するように撮像部10を制御させる(ステップS270)。そして、撮像時期決定部72は、ステップS200に戻り、次の投射画像を選択する。なお、処理用画像は、処理対象画像の一例である。   Returning to FIG. After calculating the difference in step S250, the imaging time determination unit 72 determines whether or not the ratio of the pixels whose calculated difference exceeds the predetermined threshold Z1 exceeds the predetermined threshold Z2 (step S260). . When it is determined that the predetermined threshold value Z2 has not been exceeded (No at Step S260), the imaging time determination unit 72 returns to Step S230 and captures the switching determination image again. On the other hand, when it is determined that the predetermined threshold value Z2 has been exceeded (step S260-Yes), the imaging time determination unit 72 controls the imaging control unit 46 so that the three-dimensional point cloud generation unit 70 can perform the phase shift method. The imaging unit 10 is controlled to capture a projection image as a processing image to be used for (step S270). Then, the imaging time determination unit 72 returns to step S200 and selects the next projection image. The processing image is an example of a processing target image.

一方、ステップS210で、未選択の画像がなかったと判定した場合(ステップS210−No)、三次元点群生成部70は、位相シフト法によって三次元点群画像を生成するために必要な画像である処理用画像に基づいて、三次元点群画像を生成する。以上で、三次元点群生成部70は、三次元点群画像の生成処理を終了する。なお、撮像時期決定部72は、分割された領域のうち、少なくとも1つの領域内の画素ごとの輝度を検出するとしてもよい。その場合、撮像時期決定部72は、投射部20が画像の上段から順次、投射画像を切り替えていくため、画像の右下付近の領域を、分割された領域として用いるものとする。   On the other hand, when it is determined in step S210 that there is no unselected image (step S210-No), the 3D point cloud generation unit 70 is an image necessary for generating a 3D point cloud image by the phase shift method. A three-dimensional point cloud image is generated based on a certain processing image. The three-dimensional point cloud generation unit 70 ends the three-dimensional point cloud image generation process. Note that the imaging time determination unit 72 may detect the luminance for each pixel in at least one of the divided regions. In that case, the imaging time determination unit 72 uses the region near the lower right of the image as the divided region because the projection unit 20 sequentially switches the projection image from the upper stage of the image.

このように、第1の実施形態に係る制御装置40は、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3のそれぞれについて、基準オブジェクトである直線が撮像された画像VIMG、画像HIMG平面上の位置を基点として撮像画像上の各画素の位相を算出し、算出した画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3上の各画素の位相に基づいて、撮像部10の撮像画像平面上の位置を示す座標と、投射部20の投射画像平面上の位置を示す座標との対応付けを行うため、実環境下でも十分な精度で撮像部10と投射部20との間のキャリブレーションを行うことができる。   As described above, the control device 40 according to the first embodiment includes the image VIMG and the image in which the straight line as the reference object is captured for each of the images HFI-0 to HFI-3 and the images VFI-0 to VFI-3. The phase of each pixel on the captured image is calculated using the position on the HIMG plane as a base point, and imaging is performed based on the calculated phase of each pixel on the images HFI-0 to HFI-3 and the images VFI-0 to VFI-3. Since the coordinates indicating the position on the captured image plane of the unit 10 and the coordinates indicating the position on the projected image plane of the projection unit 20 are associated with each other, the imaging unit 10 and the projection unit 20 are sufficiently accurate even in an actual environment. Can be calibrated.

また、制御装置40は、投射部20により投射された投射光の輝度と、撮像部10により投射光が撮像された画像における投射光の輝度とに基づいて、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3、及び、画像VIMG及び画像HIMGを投射する投射部20の輝度出力を決定するため、撮像部10の撮影解像度の不足によるキャリブレーションの精度低下を防止することができる。   Moreover, the control apparatus 40 is based on the brightness | luminance of the projection light projected by the projection part 20, and the brightness | luminance of the projection light in the image by which the projection light was imaged by the imaging part 10, and image HFI-0-HFI-3 and Since the luminance output of the projection unit 20 that projects the images VFI-0 to VFI-3 and the image VIMG and the image HIMG is determined, it is possible to prevent a reduction in calibration accuracy due to insufficient imaging resolution of the imaging unit 10. .

また、制御装置40は、投射部20と撮像部10との間の位置関係を表す情報である並進及び回転変換行列を導出するためのキャリブレーション画像と、算出部により算出された画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3平面上の各画素の位相とに基づいて、投射部20と撮像部10との間の位置関係を表す情報である並進及び回転変換行列を導出するキャリブレーション処理を行うため、ロボット等による作業対象となる物体の位置及び姿勢を導出するための三次元点群画像を、より高精度に生成することができる。   The control device 40 also includes a calibration image for deriving a translation and rotation transformation matrix that is information representing the positional relationship between the projection unit 20 and the imaging unit 10, and an image HFI-0 calculated by the calculation unit. Based on the phase of each pixel on the HFI-3 and image VFI-0 to VFI-3 planes, a translation and rotation transformation matrix that is information representing the positional relationship between the projection unit 20 and the imaging unit 10 is derived. Since the calibration process is performed, a three-dimensional point cloud image for deriving the position and orientation of an object to be worked by a robot or the like can be generated with higher accuracy.

また、制御装置40は、赤色と青色のグリッドパターンのキャリブレーションボードが撮像された画像と、算出部により算出された画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3平面上の各画素の位相とに基づいて、投射部20と撮像部10との間の位置関係を表す情報である並進及び回転変換行列を導出するキャリブレーション処理を行うため、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3の輝度又は色彩の変化が、グリッドパターンによって判別不可能になることを防止することができる。   Further, the control device 40 has an image obtained by capturing a calibration board having a red and blue grid pattern, and the images HFI-0 to HFI-3 and the images VFI-0 to VFI-3 calculated by the calculation unit. In order to perform a calibration process for deriving a translation and rotation transformation matrix that is information representing the positional relationship between the projection unit 20 and the imaging unit 10 based on the phase of each pixel, the images HFI-0 to HFI-3 are used. In addition, it is possible to prevent changes in luminance or color of the images VFI-0 to VFI-3 from being made indistinguishable by the grid pattern.

また、制御装置40は、キャリブレーション処理部により導出された三次元位置関係を表す情報である並進及び回転変換行列と、撮像部10により撮像された物体OBJの画像とに基づいて、物体OBJの三次元点群画像を生成するため、ロボット等による作業対象となる物体OBJの三次元位置及び姿勢をより高精度で導出することができる。   Further, the control device 40 determines the object OBJ based on the translation and rotation transformation matrix, which is information representing the three-dimensional positional relationship derived by the calibration processing unit, and the image of the object OBJ captured by the imaging unit 10. Since the three-dimensional point cloud image is generated, the three-dimensional position and posture of the object OBJ that is a work target by the robot or the like can be derived with higher accuracy.

また、制御装置40は、三次元点群画像に基づいて、物体OBJの三次元位置及び姿勢を導出し、導出した物体OBJの三次元位置及び姿勢に基づいて、ロボットを制御するため、対象となる物体OBJに対する作業を、より高精度に行うことができる。   The control device 40 derives the three-dimensional position and orientation of the object OBJ based on the three-dimensional point cloud image, and controls the robot based on the derived three-dimensional position and orientation of the object OBJ. The work on the object OBJ can be performed with higher accuracy.

また、ロボット30は、実環境下でも十分な精度で撮像部10と投射部20との間のキャリブレーションを行うため、対象となる物体OBJに対する作業を、より高精度に行うことができる。   In addition, since the robot 30 performs calibration between the imaging unit 10 and the projection unit 20 with sufficient accuracy even in an actual environment, the robot 30 can perform the work on the target object OBJ with higher accuracy.

また、制御装置40は、投射部20から投射された投射画像を、所定の画像処理に利用するための処理用画像として撮像するように撮像部10を制御し、処理用画像を撮像するよりも前に、時系列で投射画像が撮像された複数枚の切替判断用画像間の比較に基づき、三次元点群生成部70が撮像部10に処理用画像を撮像させるタイミングを決定するため、より低コストで、同期用の投射領域を必要とせずに、十分な精度の同期制御を実現することができる。   In addition, the control device 40 controls the imaging unit 10 to capture the projection image projected from the projection unit 20 as a processing image for use in predetermined image processing, and captures the processing image. Before the three-dimensional point cloud generation unit 70 determines the timing at which the imaging unit 10 captures the processing image based on the comparison between the plurality of switching determination images in which the projection images are captured in time series. It is possible to realize synchronization control with sufficient accuracy at a low cost and without requiring a projection area for synchronization.

また、制御装置40は、処理用画像に基づいて、三次元点群画像を生成するため、より安定して三次元位置及び姿勢を算出することができる。   Moreover, since the control apparatus 40 produces | generates a three-dimensional point cloud image based on the image for a process, it can calculate a three-dimensional position and attitude | position more stably.

また、制御装置40は、切替判断用画像が分割された複数の領域のうち少なくとも1つの検出領域内の各画素における輝度又は色彩を検出し、検出領域内で検出された輝度又は色彩の切替判断用画像間での比較に基づいて、三次元点群生成部70が撮像部10に処理用画像を撮像させるタイミングを決定するため、より高速に処理用画像を撮像するタイミングを決定することができる。   Further, the control device 40 detects the luminance or color in each pixel in at least one detection area among the plurality of areas into which the switching determination image is divided, and determines whether to switch the luminance or color detected in the detection area. Since the three-dimensional point cloud generation unit 70 determines the timing at which the imaging unit 10 captures the processing image based on the comparison between the processing images, the timing at which the processing image is captured can be determined at a higher speed. .

また、制御装置40は、時間的に連続した切替判断用画像の検出領域間において、各画素における輝度又は色彩の差分を算出し、算出された差分に基づいて、三次元点群生成部70が撮像部10に処理用画像を撮像させるタイミングを決定するため、時間を用いた投射部20による投射と、撮像部10による撮像との間の同期に比べて、処理の遅延による同期の失敗を防止することができる。   In addition, the control device 40 calculates a luminance or color difference in each pixel between detection areas of the switching determination images that are temporally continuous. Based on the calculated difference, the three-dimensional point cloud generation unit 70 Compared with the synchronization between the projection by the projection unit 20 using the time and the imaging by the imaging unit 10 to determine the timing at which the imaging unit 10 captures the processing image, the synchronization failure due to the processing delay is prevented. can do.

また、制御装置40は、検出領域を構成する全画素数に対する、差分が所定の閾値Z1を超過した画素数の割合が、所定の閾値Z2を超過していると判定したタイミングを、三次元点群生成部70が撮像部10に処理用画像を撮像させるタイミングとして決定するため、誤判定による撮像タイミングの遅延を防止することができる。   Further, the control device 40 determines the timing at which the ratio of the number of pixels in which the difference exceeds the predetermined threshold Z1 with respect to the total number of pixels constituting the detection area exceeds the predetermined threshold Z2 as a three-dimensional point. Since the group generation unit 70 determines the timing for causing the imaging unit 10 to capture the processing image, it is possible to prevent the imaging timing from being delayed due to an erroneous determination.

また、制御装置40は、三次元位置及び姿勢を導出し、導出した三次元位置及び姿勢に基づいて、ロボットを制御するため、より低コストで実現でき、かつ、同期用の投射領域を必要とせずに、より精度の高いロボット制御を実現することができる。   Further, since the control device 40 derives the three-dimensional position and orientation and controls the robot based on the derived three-dimensional position and orientation, it can be realized at a lower cost and requires a projection area for synchronization. Therefore, more accurate robot control can be realized.

また、ロボット30は、三次元位置及び姿勢を導出し、導出した三次元位置及び姿勢に基づいて、アクチュエーターを制御するため、より低コストで十分な精度の同期制御に基づいた所定の作業を行うことができる。   Further, the robot 30 derives the three-dimensional position and orientation, and controls the actuator based on the derived three-dimensional position and orientation, so that the robot 30 performs a predetermined operation based on synchronous control with sufficient accuracy at a lower cost. be able to.

<第2の実施形態>
以下、本発明の第2の実施形態について、図面を参照して説明する。第2の実施形態に係る制御装置40は、第1の実施形態に係る制御装置40が有する撮像時期決定部72が省略されたものである。構成については、図1、2、3を援用し、同じ機能部に対して同一の符号を付して説明する。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described with reference to the drawings. In the control device 40 according to the second embodiment, the imaging time determination unit 72 included in the control device 40 according to the first embodiment is omitted. The configuration will be described with reference to FIGS. 1, 2, and 3, with the same reference numerals assigned to the same functional units.

図14は、第2の実施形態における制御システム1の機能構成の一例を示す図である。制御装置40は、例えば、記憶部42と、撮像制御部46と、画像取得部48と、投射制御部50と、初期処理部60と、三次元点群生成部70aと、ロボット制御部80とを備える。三次元点群生成部70aは、初期処理部60から、撮像部10と投射部20との間の位置関係を示す情報を取得する。三次元点群生成部70aは、投射制御部50を制御することで、画像HFI−0〜HFI−3及び/又は画像VFI−0〜VFI−3を順次、投射部20に投射させる。また、三次元点群生成部70aは、撮像制御部46を制御することで、投射部20により投射された画像を、撮像部10に順次撮像させる。そして、三次元点群生成部70は、記憶部42により記憶された撮像画像であって、物体OBJに画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3がそれぞれ投射された複数の撮像画像と、初期処理部60から取得した撮像部10と投射部20との間の位置関係を示す情報とに基づいて、例えば、位相シフト法により物体OBJの三次元点群画像を生成する。三次元点群生成部70は、生成した三次元点群画像を、ロボット制御部80に出力する。   FIG. 14 is a diagram illustrating an example of a functional configuration of the control system 1 according to the second embodiment. The control device 40 includes, for example, a storage unit 42, an imaging control unit 46, an image acquisition unit 48, a projection control unit 50, an initial processing unit 60, a three-dimensional point group generation unit 70a, and a robot control unit 80. Is provided. The three-dimensional point group generation unit 70 a acquires information indicating the positional relationship between the imaging unit 10 and the projection unit 20 from the initial processing unit 60. The three-dimensional point group generation unit 70a controls the projection control unit 50 to cause the projection unit 20 to sequentially project the images HFI-0 to HFI-3 and / or the images VFI-0 to VFI-3. Further, the three-dimensional point group generation unit 70a controls the imaging control unit 46 to cause the imaging unit 10 to sequentially capture the images projected by the projection unit 20. The three-dimensional point group generation unit 70 is a captured image stored in the storage unit 42, and a plurality of images HFI-0 to HFI-3 and images VFI-0 to VFI-3 projected onto the object OBJ. Based on the captured image and information indicating the positional relationship between the imaging unit 10 and the projection unit 20 acquired from the initial processing unit 60, for example, a three-dimensional point cloud image of the object OBJ is generated by the phase shift method. . The 3D point cloud generation unit 70 outputs the generated 3D point cloud image to the robot control unit 80.

このように、第2の実施形態に係る制御装置40は、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3のそれぞれについて、基準オブジェクトである直線が撮像された画像VIMG、画像HIMG平面上の位置を基点として撮像画像上の各画素の位相を算出し、算出した画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3上の各画素の位相に基づいて、撮像部10の撮像画像平面上の位置を示す座標と、投射部20の投射画像平面上の位置を示す座標との対応付けを行うため、実環境下でも十分な精度で撮像部10と投射部20との間のキャリブレーションを行うことができる。   As described above, the control device 40 according to the second embodiment includes the image VIMG and the image in which the straight line as the reference object is captured for each of the images HFI-0 to HFI-3 and the images VFI-0 to VFI-3. The phase of each pixel on the captured image is calculated using the position on the HIMG plane as a base point, and imaging is performed based on the calculated phase of each pixel on the images HFI-0 to HFI-3 and the images VFI-0 to VFI-3. Since the coordinates indicating the position on the captured image plane of the unit 10 and the coordinates indicating the position on the projected image plane of the projection unit 20 are associated with each other, the imaging unit 10 and the projection unit 20 are sufficiently accurate even in an actual environment. Can be calibrated.

また、制御装置40は、投射部20により投射された投射光の輝度と、撮像部10により投射光が撮像された画像における投射光の輝度とに基づいて、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3、及び、画像VIMG及び画像HIMGを投射する投射部20の輝度出力を決定するため、撮像部10の撮影解像度の不足によるキャリブレーションの精度低下を防止することができる。   Moreover, the control apparatus 40 is based on the brightness | luminance of the projection light projected by the projection part 20, and the brightness | luminance of the projection light in the image by which the projection light was imaged by the imaging part 10, and image HFI-0-HFI-3 and Since the luminance output of the projection unit 20 that projects the images VFI-0 to VFI-3 and the image VIMG and the image HIMG is determined, it is possible to prevent a reduction in calibration accuracy due to insufficient imaging resolution of the imaging unit 10. .

また、制御装置40は、投射部20と撮像部10との間の位置関係を表す情報である並進及び回転変換行列を導出するためのキャリブレーション画像と、算出部により算出された画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3平面上の各画素の位相とに基づいて、投射部20と撮像部10との間の位置関係を表す情報である並進及び回転変換行列を導出するキャリブレーション処理を行うため、ロボット等による作業対象となる物体の位置及び姿勢を導出するための三次元点群画像を、より高精度に生成することができる。   The control device 40 also includes a calibration image for deriving a translation and rotation transformation matrix that is information representing the positional relationship between the projection unit 20 and the imaging unit 10, and an image HFI-0 calculated by the calculation unit. Based on the phase of each pixel on the HFI-3 and image VFI-0 to VFI-3 planes, a translation and rotation transformation matrix that is information representing the positional relationship between the projection unit 20 and the imaging unit 10 is derived. Since the calibration process is performed, a three-dimensional point cloud image for deriving the position and orientation of an object to be worked by a robot or the like can be generated with higher accuracy.

また、制御装置40は、赤色と青色のグリッドパターンのキャリブレーションボードが撮像された画像と、算出部により算出された画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3平面上の各画素の位相とに基づいて、投射部20と撮像部10との間の位置関係を表す情報である並進及び回転変換行列を導出するキャリブレーション処理を行うため、画像HFI−0〜HFI−3及び画像VFI−0〜VFI−3の輝度又は色彩の変化が、グリッドパターンによって判別不可能になることを防止することができる。   Further, the control device 40 has an image obtained by capturing a calibration board having a red and blue grid pattern, and the images HFI-0 to HFI-3 and the images VFI-0 to VFI-3 calculated by the calculation unit. In order to perform a calibration process for deriving a translation and rotation transformation matrix that is information representing the positional relationship between the projection unit 20 and the imaging unit 10 based on the phase of each pixel, the images HFI-0 to HFI-3 are used. In addition, it is possible to prevent changes in luminance or color of the images VFI-0 to VFI-3 from being made indistinguishable by the grid pattern.

また、制御装置40は、キャリブレーション処理部により導出された三次元位置関係を表す情報である並進及び回転変換行列と、撮像部10により撮像された物体OBJの画像とに基づいて、物体OBJの三次元点群画像を生成するため、ロボット等による作業対象となる物体OBJの三次元位置及び姿勢をより高精度で導出することができる。   Further, the control device 40 determines the object OBJ based on the translation and rotation transformation matrix, which is information representing the three-dimensional positional relationship derived by the calibration processing unit, and the image of the object OBJ captured by the imaging unit 10. Since the three-dimensional point cloud image is generated, the three-dimensional position and posture of the object OBJ that is a work target by the robot or the like can be derived with higher accuracy.

また、制御装置40は、三次元点群画像に基づいて、物体OBJの三次元位置及び姿勢を導出し、導出した物体OBJの三次元位置及び姿勢に基づいて、ロボットを制御するため、対象となる物体OBJに対する作業を、より高精度に行うことができる。   The control device 40 derives the three-dimensional position and orientation of the object OBJ based on the three-dimensional point cloud image, and controls the robot based on the derived three-dimensional position and orientation of the object OBJ. The work on the object OBJ can be performed with higher accuracy.

また、ロボット30は、実環境下でも十分な精度で撮像部10と投射部20との間のキャリブレーションを行うため、対象となる物体OBJに対する作業を、より高精度に行うことができる。   In addition, since the robot 30 performs calibration between the imaging unit 10 and the projection unit 20 with sufficient accuracy even in an actual environment, the robot 30 can perform the work on the target object OBJ with higher accuracy.

1 制御システム、10 撮像部、20 投射部、30 ロボット、40 制御装置、41 CPU、42 記憶部、43 入力受付部、44 通信部、46 撮像制御部、48 画像取得部、50 投射制御部、52 画像生成部、60 初期処理部、62 輝度出力決定部、64 位相算出部、66 座標対応付部、68 キャリブレーション処理部、70、70a 三次元点群生成部、72 撮像時期決定部、80 ロボット制御部、82 三次元位置姿勢導出部 DESCRIPTION OF SYMBOLS 1 Control system, 10 Imaging part, 20 Projection part, 30 Robot, 40 Control apparatus, 41 CPU, 42 Storage part, 43 Input reception part, 44 Communication part, 46 Imaging control part, 48 Image acquisition part, 50 Projection control part, 52 Image generation unit, 60 Initial processing unit, 62 Luminance output determination unit, 64 Phase calculation unit, 66 Coordinate correspondence unit, 68 Calibration processing unit, 70, 70a Three-dimensional point group generation unit, 72 Imaging time determination unit, 80 Robot control unit, 82 3D position and orientation derivation unit

Claims (9)

投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として前記撮像画像上の各画素の位相を算出する算出部と、
前記算出部により算出された前記撮像画像上の各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行う対応付部と、
前記投射部により投射された投射光の輝度である投射光輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度である撮像画像輝度とに基づいて、前記投射光輝度のうち前記投射光輝度の変化に対して前記撮像画像輝度が線形に変化し始める前記投射光輝度を基準投射光輝度として導出し、導出した前記基準投射光輝度に基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定する決定部と、
を備える制御装置。
The image projected by the projection unit is a captured image captured by the imaging unit, and a change in luminance or color is repeated periodically, and a plurality of waves having different phases indicating the cycle of the change in luminance or color are mutually different Based on the first captured image and the second captured image in which the reference object projected by the projection unit is captured by the imaging unit, the reference object in the second captured image for each of the first captured images. A calculation unit that calculates a phase of each pixel on the captured image with a position on the captured image plane where the image is captured as a base point;
Correspondence for associating the position of the imaging unit on the captured image plane with the position of the projection unit on the projected image plane based on the phase of each pixel on the captured image calculated by the calculation unit And
The projection light luminance based on the projection light luminance that is the luminance of the projection light projected by the projection unit and the captured image luminance that is the luminance of the projection light in the image obtained by imaging the projection light by the imaging unit. The first captured image is derived on the basis of the derived reference projection light brightness, the projection light brightness at which the captured image brightness starts to change linearly with respect to the change of the projection light brightness. And a determination unit that determines a luminance output of the projection unit that projects the second captured image;
A control device comprising:
請求項1に記載の制御装置であって、
前記投射部により投射された画像が前記撮像部により撮像された撮像画像であって、前記投射部と前記撮像部との間の位置関係を表す情報を導出するための第3撮像画像と、前記算出部により算出された各画素の位相とに基づいて、前記投射部と前記撮像部との間の位置関係を表す情報を導出するキャリブレーション処理を行うキャリブレーション処理部を備える、
制御装置。
The control device according to claim 1 ,
A third captured image for deriving information representing a positional relationship between the projection unit and the imaging unit, wherein the image projected by the projection unit is a captured image captured by the imaging unit; A calibration processing unit that performs a calibration process for deriving information representing a positional relationship between the projection unit and the imaging unit based on the phase of each pixel calculated by the calculation unit;
Control device.
請求項に記載の制御装置であって、
前記第3撮像画像は、赤色と青色の格子状模様が撮像された画像である、
制御装置。
The control device according to claim 2 ,
The third captured image is an image in which red and blue lattice patterns are captured.
Control device.
請求項又はに記載の制御装置であって、
前記位置関係を表す情報は、前記投射部と前記撮像部との間の三次元位置関係を表す情報であり、
前記キャリブレーション処理部により導出された前記位置関係を表す情報と、前記撮像部により撮像された物体の画像とに基づいて、前記物体の三次元点群情報を生成する三次元点群生成部を備える、
制御装置。
The control device according to claim 2 or 3 ,
The information representing the positional relationship is information representing a three-dimensional positional relationship between the projection unit and the imaging unit,
A three-dimensional point group generation unit that generates three-dimensional point group information of the object based on information representing the positional relationship derived by the calibration processing unit and an image of the object imaged by the imaging unit; Prepare
Control device.
請求項に記載の制御装置であって、
前記三次元点群生成部により生成された三次元点群情報に基づいて、前記物体の三次元位置及び姿勢を導出し、前記導出した前記物体の三次元位置及び姿勢に基づいて、ロボットを制御するロボット制御部を備える、
制御装置。
The control device according to claim 4 ,
Based on the 3D point cloud information generated by the 3D point cloud generation unit, the 3D position and orientation of the object are derived, and the robot is controlled based on the derived 3D position and orientation of the object. A robot controller that
Control device.
請求項に記載の制御装置と、
前記ロボットの可動部を稼働させるアクチュエーターと、
を備えるロボット。
A control device according to claim 5 ;
An actuator for operating the movable part of the robot;
Robot equipped with.
画像を投射する投射部と、前記投射部により投射された画像を撮像する撮像部と、制御装置とを具備する制御システムであって、
前記制御装置は、
前記投射部により投射された画像が前記撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出する算出部と、
前記算出部により算出された各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行う対応付部と、
前記投射部により投射された投射光の輝度である投射光輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度である撮像画像輝度とに基づいて、前記投射光輝度のうち前記投射光輝度の変化に対して前記撮像画像輝度が線形に変化し始める前記投射光輝度を基準投射光輝度として導出し、導出した前記基準投射光輝度に基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定する決定部と、
を備える、
制御システム。
A control system comprising a projection unit that projects an image, an imaging unit that captures an image projected by the projection unit, and a control device,
The controller is
The image projected by the projection unit is a captured image captured by the imaging unit, and changes in luminance or color are periodically repeated, and the phases of waves representing the period of change in luminance or color are different from each other. Based on a plurality of first captured images and a second captured image in which the reference object projected by the projecting unit is captured by the image capturing unit, for each of the first captured images, in the second captured image, A calculation unit that calculates a phase of each pixel with a position on a captured image plane where the reference object is captured as a base point;
An association unit that associates a position on the captured image plane of the imaging unit with a position on the projection image plane of the projection unit based on the phase of each pixel calculated by the calculation unit;
The projection light luminance based on the projection light luminance that is the luminance of the projection light projected by the projection unit and the captured image luminance that is the luminance of the projection light in the image obtained by imaging the projection light by the imaging unit. The first captured image is derived on the basis of the derived reference projection light brightness, the projection light brightness at which the captured image brightness starts to change linearly with respect to the change of the projection light brightness. And a determination unit that determines a luminance output of the projection unit that projects the second captured image;
Comprising
Control system.
制御装置が、
投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが前記撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出し、
前記算出した各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行
前記投射部により投射された投射光の輝度である投射光輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度である撮像画像輝度とに基づいて、前記投射光輝度のうち前記投射光輝度の変化に対して前記撮像画像輝度が線形に変化し始める前記投射光輝度を基準投射光輝度として導出し、導出した前記基準投射光輝度に基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定する、
制御方法。
The control unit
The image projected by the projection unit is a captured image captured by the imaging unit, and a change in luminance or color is repeated periodically, and a plurality of waves having different phases indicating the cycle of the change in luminance or color are mutually different Based on the first captured image and the second captured image in which the reference object projected by the projection unit is captured by the imaging unit, the reference object in the second captured image for each of the first captured images. The phase of each pixel is calculated based on the position on the captured image plane where is captured,
Based on the phase of each pixel and the calculated, and the position of the captured image plane of the imaging unit, have rows correspondence between positions on the projection image plane of the projection portion,
The projection light luminance based on the projection light luminance that is the luminance of the projection light projected by the projection unit and the captured image luminance that is the luminance of the projection light in the image obtained by imaging the projection light by the imaging unit. The first captured image is derived on the basis of the derived reference projection light brightness, the projection light brightness at which the captured image brightness starts to change linearly with respect to the change of the projection light brightness. Determining a luminance output of the projection unit that projects the second captured image;
Control method.
制御装置のコンピューターに、
投射部により投射された画像が撮像部により撮像された撮像画像であって、輝度又は色彩の変化が周期的に繰り返され、その輝度又は色彩の変化の周期を表す波の位相が互いに異なる複数の第1撮像画像と、前記投射部により投射された基準オブジェクトが撮像部により撮像された第2撮像画像とに基づいて、前記第1撮像画像のそれぞれについて、前記第2撮像画像において前記基準オブジェクトが撮像された撮像画像平面上の位置を基点として各画素の位相を算出させ、
前記算出させた各画素の位相に基づいて、前記撮像部の撮像画像平面上の位置と、前記投射部の投射画像平面上の位置との対応付けを行わせ、
前記投射部により投射された投射光の輝度である投射光輝度と、前記撮像部により前記投射光が撮像された画像における前記投射光の輝度である撮像画像輝度とに基づいて、前記投射光輝度のうち前記投射光輝度の変化に対して前記撮像画像輝度が線形に変化し始める前記投射光輝度を基準投射光輝度として導出させ、導出された前記基準投射光輝度に基づいて、前記第1撮像画像及び前記第2撮像画像を投射する前記投射部の輝度出力を決定させる、
制御プログラム。
To the control computer,
The image projected by the projection unit is a captured image captured by the imaging unit, and a change in luminance or color is repeated periodically, and a plurality of waves having different phases indicating the cycle of the change in luminance or color are mutually different Based on the first captured image and the second captured image in which the reference object projected by the projection unit is captured by the imaging unit, the reference object in the second captured image for each of the first captured images. The phase of each pixel is calculated with the position on the captured image plane taken as the base point,
Based on the calculated phase of each pixel, the position on the captured image plane of the imaging unit and the position on the projection image plane of the projection unit are associated ,
The projection light luminance based on the projection light luminance that is the luminance of the projection light projected by the projection unit and the captured image luminance that is the luminance of the projection light in the image obtained by imaging the projection light by the imaging unit. The first image pickup is performed based on the derived reference projection light luminance, wherein the projection light luminance starts to change linearly with respect to the change of the projection light luminance. Determining the luminance output of the projection unit that projects the image and the second captured image;
Control program.
JP2013227300A 2013-10-31 2013-10-31 Control device, robot, control system, control method, and control program Active JP6299150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013227300A JP6299150B2 (en) 2013-10-31 2013-10-31 Control device, robot, control system, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013227300A JP6299150B2 (en) 2013-10-31 2013-10-31 Control device, robot, control system, control method, and control program

Publications (2)

Publication Number Publication Date
JP2015087321A JP2015087321A (en) 2015-05-07
JP6299150B2 true JP6299150B2 (en) 2018-03-28

Family

ID=53050234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013227300A Active JP6299150B2 (en) 2013-10-31 2013-10-31 Control device, robot, control system, control method, and control program

Country Status (1)

Country Link
JP (1) JP6299150B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6357949B2 (en) 2014-07-29 2018-07-18 セイコーエプソン株式会社 Control system, robot system, and control method
JP6185011B2 (en) 2015-06-16 2017-08-23 ファナック株式会社 Injection molding system
CN106989695B (en) * 2017-04-28 2020-03-31 广东工业大学 Projector calibration method
JP2020197794A (en) * 2019-05-31 2020-12-10 株式会社日立ソリューションズ Image analysis device, image analysis method and program
JP7294026B2 (en) * 2019-09-24 2023-06-20 株式会社デンソーウェーブ Stripe pattern image determination method
CN110769238B (en) * 2019-11-22 2021-04-27 成都极米科技股份有限公司 Projection environment brightness detection method and device, electronic equipment and medium
CN112802127B (en) * 2021-03-31 2021-07-20 深圳中科飞测科技股份有限公司 Calibration method and device, calibration equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070115484A1 (en) * 2005-10-24 2007-05-24 Peisen Huang 3d shape measurement system and method including fast three-step phase shifting, error compensation and calibration
JP5375201B2 (en) * 2009-03-02 2013-12-25 株式会社豊田中央研究所 3D shape measuring method and 3D shape measuring apparatus
JP2011112577A (en) * 2009-11-30 2011-06-09 Nikon Corp Shape measuring device

Also Published As

Publication number Publication date
JP2015087321A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6299150B2 (en) Control device, robot, control system, control method, and control program
US9652660B2 (en) Control system, robot system, and control method
JP5842694B2 (en) Image processing apparatus, projector, and projector control method
JP2012177676A (en) Information processor and method, and program
JP2017106959A (en) Projection device, projection method, and computer program for projection
EP3280136B1 (en) Projection systems and projection methods
JP2018522235A (en) Imaging device and method for obtaining depth information
JP2019215811A (en) Projection system, image processing apparatus, and projection method
JP2018105671A (en) Image processing device and image processing method
US20200164520A1 (en) Image processing device, control method thereof, and program storage medium
JP2017092756A (en) Image processing system, image processing method, image projecting system and program
JP6772630B2 (en) 3D measuring device and 3D object recognition method
JP6318576B2 (en) Image projection system, image processing apparatus, image projection method, and program
JP2009301181A (en) Image processing apparatus, image processing program, image processing method and electronic device
JP2017219365A (en) Position and posture detection device, robot controller, and robot
JP6713622B2 (en) 3D measuring device, 3D measuring system, 3D measuring method and program
JP2015087313A (en) Control device, robot, control system, control method, and control program
US20220132088A1 (en) Specifying method, specifying system, and non-transitory computer-readable storage medium storing a program
JP2020091126A (en) Measurement device, system, display method, and program
JP6867766B2 (en) Information processing device and its control method, program
JP2016072691A (en) Image processing system, control method of the same, and program
JP2022055100A (en) Control method, control device and robot system
JP5968370B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and program
CN114615483A (en) Adjustment method, measurement method, projection system, information processing apparatus, and recording medium
CN111183331B (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180212

R150 Certificate of patent or registration of utility model

Ref document number: 6299150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150