JP6346427B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6346427B2
JP6346427B2 JP2013225821A JP2013225821A JP6346427B2 JP 6346427 B2 JP6346427 B2 JP 6346427B2 JP 2013225821 A JP2013225821 A JP 2013225821A JP 2013225821 A JP2013225821 A JP 2013225821A JP 6346427 B2 JP6346427 B2 JP 6346427B2
Authority
JP
Japan
Prior art keywords
captured image
parameter
unit
image processing
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013225821A
Other languages
Japanese (ja)
Other versions
JP2015087244A (en
Inventor
博志 吉川
博志 吉川
内山 晋二
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013225821A priority Critical patent/JP6346427B2/en
Priority to EP14003573.4A priority patent/EP2869023B1/en
Priority to US14/519,270 priority patent/US9819872B2/en
Priority to CN201410601537.3A priority patent/CN104601899B/en
Publication of JP2015087244A publication Critical patent/JP2015087244A/en
Priority to US15/715,297 priority patent/US10257428B2/en
Application granted granted Critical
Publication of JP6346427B2 publication Critical patent/JP6346427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、距離計測技術に関するものである。   The present invention relates to a distance measurement technique.

対象物に対してプロジェクタなどの投影部を用いてパターン光を投影し、カメラなどの撮像部で撮像した画像をもとに、対象物に対する距離計測を行う距離計測装置が知られている。さらに、この距離計測装置による距離計測結果をもとに、山積みされた複数の対象物の位置・姿勢を推定する認識処理装置が知られている。認識処理装置による対象物の位置・姿勢の推定結果をロボット制御装置に出力することで、山積みされた対象物をロボットで自動的にピッキングするシステムを構築することができる。   2. Description of the Related Art A distance measuring device that projects pattern light onto an object using a projection unit such as a projector and measures the distance to the object based on an image captured by an imaging unit such as a camera is known. Furthermore, a recognition processing device is known that estimates the position / posture of a plurality of stacked objects based on the distance measurement result of the distance measurement device. By outputting the estimation result of the position / orientation of the object by the recognition processing device to the robot control device, it is possible to construct a system that automatically picks up the stacked objects by the robot.

多くの対象物が山積みされているシーンを想定すると、山積みの高さに応じて装置から対象物までの距離は変化する。装置から対象物までの距離が変化すると、投影パターン光の照度、および、撮影画像の明るさは変化する。具体的には、装置から対象物までの距離の2乗に比例して撮影画像の明るさは暗くなる。   Assuming a scene in which many objects are piled up, the distance from the device to the object changes according to the height of the pile. When the distance from the apparatus to the object changes, the illuminance of the projection pattern light and the brightness of the captured image change. Specifically, the brightness of the captured image becomes darker in proportion to the square of the distance from the apparatus to the object.

さらに、対象物の撮影画像内における位置、および、投影範囲における位置に応じて周辺光量落ちが発生し、撮影画像の明るさは変化する。すなわち、画面の中央付近ほど明るく、周辺に行くに従って暗くなる。例えば、コサイン4乗則に基づいて撮影画像は暗くなる。   Furthermore, a drop in the amount of peripheral light occurs depending on the position of the object in the captured image and the position in the projection range, and the brightness of the captured image changes. That is, it is brighter near the center of the screen and darker as it goes to the periphery. For example, the captured image becomes dark based on the cosine fourth law.

このように、対象物に対する距離や撮影画像内の位置に応じて、投影部から投影されるパターン光の撮影画像内における画像輝度階調値は様々に変化する。撮影画像が暗くなると、撮像素子のノイズの影響が増大し、距離計測の精度は低下する。距離計測精度の低下は、認識処理装置による対象物の位置・姿勢の推定精度をも低下させるため、ピッキングシステムにおいては、ロボットで対象物をピッキングし損ねるなどの失敗も招きかねない。   As described above, the image luminance gradation value in the captured image of the pattern light projected from the projection unit varies depending on the distance to the object and the position in the captured image. When the captured image becomes dark, the influence of noise of the image sensor increases and the accuracy of distance measurement decreases. The decrease in the distance measurement accuracy also reduces the accuracy in estimating the position / orientation of the object by the recognition processing device. Therefore, in the picking system, a failure such as failure to pick the object by the robot may occur.

距離や撮影画像内の位置に依らずに精度よく距離計測を実施するためには、パターン光の明るさ調整と、撮像部の露光量調整を、距離や画面内の位置に応じて適切に行う必要がある。これらの調整が不適切だと、撮像画像におけるパターン光が飽和、あるいは、黒つぶれし、距離計測が不可能となる。また、調整が不十分だと、距離計測は可能であっても、その計測精度が低下する。   In order to accurately measure the distance regardless of the distance and the position in the captured image, the brightness adjustment of the pattern light and the exposure amount adjustment of the imaging unit are appropriately performed according to the distance and the position in the screen. There is a need. If these adjustments are inappropriate, the pattern light in the captured image is saturated or blackened, and distance measurement becomes impossible. Moreover, if the adjustment is insufficient, even if distance measurement is possible, the measurement accuracy decreases.

特許文献1では、周辺光量落ちの影響をキャンセルするように、中央部の透過率が低く、周辺にいくほど透過率が高くなる素子を配置する方法が開示されている。また、特許文献2では、概略距離の測定結果に基づいて、光源部の光出力を制御するレンジファインダ装置が開示されている。   Patent Document 1 discloses a method of disposing an element having a low transmittance at the central portion and a higher transmittance toward the periphery so as to cancel the influence of a decrease in peripheral light amount. Patent Document 2 discloses a range finder device that controls the light output of the light source unit based on the measurement result of the approximate distance.

特開2000−292133号公報JP 2000-292133 A 特開2000−241131号公報JP 2000-241131 A

特許文献1で開示されている方法では、同一距離に置かれた対象物に対し、照明の照度が一定となるため、周辺光量落ちによる精度劣化を抑えることができる。一方、奥行きの異なる対象物に対しては照度が一定にはならない。そのため、特許文献1に開示されている方法では、精度劣化を招く。   In the method disclosed in Patent Document 1, since the illumination intensity is constant with respect to an object placed at the same distance, it is possible to suppress deterioration in accuracy due to a decrease in peripheral light amount. On the other hand, the illuminance is not constant for objects having different depths. Therefore, the method disclosed in Patent Document 1 causes accuracy degradation.

特許文献2で開示されている方法では、概略距離に基づいて画面全体の露光量は調整されるものの、投影エリアの特定位置に置かれた対象物に対して最適な露光量調整が実現できているとはいえない。   In the method disclosed in Patent Document 2, although the exposure amount of the entire screen is adjusted based on the approximate distance, an optimal exposure amount adjustment can be realized for an object placed at a specific position in the projection area. I can't say.

本発明は、このような問題に鑑みてなされたものであり、それぞれの対象物に対する距離計測をより高精度に実施するための技術を提供する。   This invention is made | formed in view of such a problem, and provides the technique for implementing the distance measurement with respect to each target object with higher precision.

本発明の一様態は、投影手段によってパターンが投影された複数の対象物を撮像手段によって撮像した撮像画像を取得する取得手段と、
前記撮像画像を用いて、前記撮像手段から前記複数の対象物のそれぞれまでの距離を導出する導出手段と、
前記投影手段から投影されるパターンの明暗を制御するための第1のパラメータ、及び前記撮像手段の露光量を制御するための第2のパラメータ、のうち調整対象の調整量を、前記撮像手段から前記複数の対象物のそれぞれまでの距離に基づいて求め、該求めた調整量に従って該調整対象を調整する調整手段と
を備えることを特徴とする。
According to one aspect of the present invention, an acquisition unit that acquires a captured image obtained by capturing an image of a plurality of objects on which a pattern is projected by a projection unit;
Derivation means for deriving distances from the imaging means to each of the plurality of objects using the captured image;
Of the first parameter for controlling the brightness and darkness of the pattern projected from the projection means and the second parameter for controlling the exposure amount of the imaging means, the adjustment amount of the adjustment target is obtained from the imaging means. And adjusting means for adjusting the adjustment target in accordance with the calculated adjustment amount, based on the distance to each of the plurality of objects .

本発明の構成によれば、それぞれの対象物に対する距離計測をより高精度に実施することができる。   According to the configuration of the present invention, distance measurement for each object can be performed with higher accuracy.

対象物ピッキングシステム8の機能構成例を示すブロック図。The block diagram which shows the function structural example of the target object picking system 8. FIG. 4ビットの空間符号化法における投影パターン(パターン光)を示す図。The figure which shows the projection pattern (pattern light) in a 4-bit spatial encoding method. 4ビットグレイコードを示す図。The figure which shows 4 bit Gray code. 撮像部20、投影部30、対象物5の関係を示す模式図。FIG. 3 is a schematic diagram illustrating a relationship between an imaging unit 20, a projection unit 30, and an object 5. パターン位置の特定精度について説明する図。The figure explaining the specific precision of a pattern position. 山積みにされた複数部品の高さの変化について説明する図。The figure explaining the change of the height of the several components piled up. 撮像画像中の輝度値と撮像対象までの距離との関係について説明する図。The figure explaining the relationship between the luminance value in a captured image, and the distance to an imaging target. 画像処理部40が行う処理のフローチャート。5 is a flowchart of processing performed by the image processing unit 40. ステップS106の処理を説明する図。The figure explaining the process of step S106. 画像処理部40が行う処理のフローチャート。5 is a flowchart of processing performed by the image processing unit 40. 三角測量補正量Cztについて説明する図。The figure explaining the triangulation correction amount Czt. 対象物ピッキングシステム8の機能構成例を示すブロック図。The block diagram which shows the function structural example of the target object picking system 8. FIG. 対象物の位置姿勢と、該対象物に対する画角θと、の関係について説明する図。The figure explaining the relationship between the position and orientation of an object and the angle of view θ relative to the object. 画像処理部40が行う処理のフローチャート。5 is a flowchart of processing performed by the image processing unit 40. ステップS300における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S300. ステップS310における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S310. ステップS102における処理の詳細を示すフローチャート。The flowchart which shows the detail of the process in step S102. 画像処理部40に適用可能な装置のハードウェア構成例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a hardware configuration of an apparatus applicable to the image processing unit 40.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
先ず、本実施形態に係る対象物ピッキングシステム8の機能構成例について、図1のブロック図を用いて説明する。対象物ピッキングシステム8は、画像処理装置(距離計測装置)1、画像処理装置1による距離計測結果を用いて対象物5の位置姿勢を認識する対象物位置姿勢認識部7、該認識の結果を用いてロボット61を制御するロボット制御部62、ロボット61を有する。ロボット61は、対象物5をピッキングするためのものである。
[First Embodiment]
First, a functional configuration example of the object picking system 8 according to the present embodiment will be described with reference to the block diagram of FIG. The object picking system 8 includes an image processing apparatus (distance measuring apparatus) 1, an object position / orientation recognition unit 7 that recognizes the position / orientation of the object 5 using a distance measurement result obtained by the image processing apparatus 1, and a result of the recognition. A robot controller 62 and a robot 61 are used to control the robot 61 using the robot 61. The robot 61 is for picking the object 5.

画像処理装置1は、対象物5にパターン光を投影する投影部30と、パターン光が投影された対象物5を撮像する撮像部20と、投影部30及び撮像部20を制御し、空間符号化法に基づいて対象物5に対する距離計測を行う画像処理部40と、を有する。   The image processing apparatus 1 controls the projection unit 30 that projects pattern light onto the object 5, the imaging unit 20 that images the object 5 onto which the pattern light is projected, the projection unit 30 and the imaging unit 20, and the spatial code And an image processing unit 40 that measures the distance to the object 5 based on the conversion method.

先ず、投影部30について説明する。投影部30は、図1に示す如く、光源31と、照明光学系32と、表示素子33と、投影絞り34と、投影光学系35と、を備える。   First, the projection unit 30 will be described. As shown in FIG. 1, the projection unit 30 includes a light source 31, an illumination optical system 32, a display element 33, a projection stop 34, and a projection optical system 35.

光源31は、例えばハロゲンランプ、LEDなどの各種の発光素子である。照明光学系32は、光源31から照射された光を表示素子33へと導く機能を持つ光学系であり、例えば、ケーラー照明や拡散板などの輝度の均一化に適した光学系が用いられる。表示素子33は、供給されたパターンに応じて、照明光学系32からの光の透過率、または、反射率を空間的に制御する機能を有する素子であり、例えば、透過型LCD、反射型LCOS、DMDなどが用いられる。表示素子33へのパターンの供給については、投影部30内に保持されている複数種のパターンを順次表示素子33に供給しても良いし、外部装置(例えば画像処理部40)に保持されている複数種のパターンを順次取得して表示素子33に供給しても良い。投影光学系35は、表示素子33から導かれた光(パターン光)を対象物5の特定位置に結像させるように構成された光学系である。投影絞り34は、投影光学系35のFナンバーを制御するために用いられる。   The light source 31 is various light emitting elements such as a halogen lamp and an LED. The illumination optical system 32 is an optical system having a function of guiding light emitted from the light source 31 to the display element 33. For example, an optical system suitable for uniform luminance such as Koehler illumination or a diffusion plate is used. The display element 33 is an element having a function of spatially controlling the transmittance or reflectance of light from the illumination optical system 32 according to the supplied pattern. For example, the display element 33 is a transmissive LCD, a reflective LCOS. DMD or the like is used. Regarding the supply of the pattern to the display element 33, a plurality of types of patterns held in the projection unit 30 may be sequentially supplied to the display element 33, or may be held in an external device (for example, the image processing unit 40). A plurality of types of patterns may be sequentially acquired and supplied to the display element 33. The projection optical system 35 is an optical system configured to form an image of light (pattern light) guided from the display element 33 at a specific position of the object 5. The projection stop 34 is used to control the F number of the projection optical system 35.

次に、撮像部20について説明する。撮像部20は、図1に示す如く、撮像光学系23と、撮像絞り22と、撮像素子21と、を備える。撮像光学系23は、対象物5の特定位置を撮像素子21上に結像させるよう構成された光学系である。撮像絞り22は、撮像光学系23のFナンバーを制御するために用いられる。撮像素子21は、例えばCMOSセンサ、CCDセンサなどの各種の光電変換素子である。なお、撮像素子21で光電変換されたアナログ信号は、撮像部20内の不図示の制御部により標本化ならびに量子化され、デジタル画像信号に変換される。更にこの制御部は、このデジタル画像信号から、各画素が輝度階調値(濃度値、画素値)を有する画像(撮像画像)を生成し、この撮像画像を適宜撮像部20内のメモリや画像処理部40に対して送出する。   Next, the imaging unit 20 will be described. As illustrated in FIG. 1, the imaging unit 20 includes an imaging optical system 23, an imaging aperture 22, and an imaging element 21. The imaging optical system 23 is an optical system configured to image a specific position of the object 5 on the imaging element 21. The imaging aperture 22 is used to control the F number of the imaging optical system 23. The imaging element 21 is various photoelectric conversion elements such as a CMOS sensor and a CCD sensor. The analog signal photoelectrically converted by the imaging device 21 is sampled and quantized by a control unit (not shown) in the imaging unit 20 and converted into a digital image signal. Further, the control unit generates an image (captured image) in which each pixel has a luminance gradation value (density value, pixel value) from the digital image signal, and appropriately stores the captured image in a memory or an image in the image capturing unit 20. The data is sent to the processing unit 40.

なお、撮像部20は、投影部30が異なるパターン光を投影する度に対象物5を撮像する。すなわち、撮像部20と投影部30とは同期して動作しており、結果として撮像部20は、それぞれ異なるパターン光が投影された対象物5の画像を撮像することができる。   The imaging unit 20 images the object 5 every time the projection unit 30 projects different pattern light. That is, the imaging unit 20 and the projection unit 30 operate in synchronization, and as a result, the imaging unit 20 can capture images of the object 5 onto which different pattern lights are projected.

次に、画像処理部40について説明する。図1に示す如く、画像処理部40は、調整部41、概略距離算出部42、距離算出部43、パターン光明るさ制御部44、撮像画像露光量制御部45、を備える。   Next, the image processing unit 40 will be described. As shown in FIG. 1, the image processing unit 40 includes an adjustment unit 41, an approximate distance calculation unit 42, a distance calculation unit 43, a pattern light brightness control unit 44, and a captured image exposure amount control unit 45.

調整部41は、撮像部20が次回撮像する撮像画像の明暗を制御するためのパラメータを決定する。「撮像部20が次回撮像する撮像画像の明暗を制御するためのパラメータ」には、撮像部20に対するパラメータや、投影部30に対するパラメータがあり、両方を決定しても良いし、一方を決定しても良い。   The adjustment unit 41 determines parameters for controlling the brightness and darkness of the captured image that the imaging unit 20 captures next time. The “parameters for controlling the brightness and darkness of the captured image captured by the image capturing unit 20 next time” include a parameter for the image capturing unit 20 and a parameter for the projection unit 30, both of which may be determined, or one of which may be determined. May be.

距離算出部43は、投影部30が複数種類のパターン光のそれぞれを投影するたびに撮像部20が撮像した撮像画像を取得する。そして距離算出部43は、該取得した撮像画像からデコードした空間コードと、該取得した撮像画像について特定したパターン位置と、を用いて、三角測量の原理で、撮像部20(撮像光学系23)から対象物5までの距離を計測(導出)する。概略距離算出部42は、距離算出部43が算出した距離から概略の距離を求める。   The distance calculation unit 43 acquires a captured image captured by the imaging unit 20 each time the projection unit 30 projects each of a plurality of types of pattern light. Then, the distance calculation unit 43 uses the spatial code decoded from the acquired captured image and the pattern position specified for the acquired captured image, based on the principle of triangulation, the imaging unit 20 (imaging optical system 23). The distance from the object 5 to the object 5 is measured (derived). The approximate distance calculation unit 42 obtains an approximate distance from the distance calculated by the distance calculation unit 43.

パターン光明るさ制御部44は、調整部41が「投影部30に対するパラメータ」を決定した場合には、投影部30から投影されるパターン光の明るさを、該パラメータに応じて制御する。パターン光の明るさを制御する方法は、例えば以下の3つの方法がある。   When the adjustment unit 41 determines “a parameter for the projection unit 30”, the pattern light brightness control unit 44 controls the brightness of the pattern light projected from the projection unit 30 according to the parameter. There are, for example, the following three methods for controlling the brightness of the pattern light.

1つ目の方法は、光源31の発光輝度を制御することである。ハロゲンランプの場合には、印加電圧を高くすると発光輝度は高くなる。LEDの場合には、流す電流を大きくすると発光輝度は高くなる。然るにこのような場合、「投影部30に対するパラメータ」とは、光源31の発光輝度を制御するためのパラメータ、となる。   The first method is to control the light emission luminance of the light source 31. In the case of a halogen lamp, the emission luminance increases as the applied voltage is increased. In the case of an LED, the emission brightness increases as the current flowing is increased. In such a case, however, the “parameter for the projection unit 30” is a parameter for controlling the light emission luminance of the light source 31.

2つ目の方法は、表示素子33の表示階調値を制御することである。LCDの場合には、表示階調値を大きくすると透過率が高くなり、結果として、パターン光は明るくなる。LCOSの場合には、表示階調値を大きくすると反射率が高くなり、結果として、パターン光は明るくなる。DMDの場合には、表示階調値を大きくすると、フレームあたりのONの回数が増加するため、結果として、パターン光は明るくなる。然るにこのような場合、「投影部30に対するパラメータ」とは、表示素子33の表示階調値を制御するためのパラメータ、となる。   The second method is to control the display gradation value of the display element 33. In the case of an LCD, increasing the display gradation value increases the transmittance, resulting in brighter pattern light. In the case of LCOS, when the display gradation value is increased, the reflectance increases, and as a result, the pattern light becomes brighter. In the case of DMD, if the display gradation value is increased, the number of times of ON per frame increases, and as a result, the pattern light becomes brighter. In such a case, however, the “parameter for the projection unit 30” is a parameter for controlling the display gradation value of the display element 33.

3つ目の方法は、投影絞り34を制御することである。絞りを開けることで、パターン光は明るくなる。逆に絞りを絞ることで、パターン光は暗くなる。投影絞り34を制御する場合には、投影光学系の被写界深度も変化するため、その影響を考慮する必要がある。具体的には、各投影絞りにおいて、パターン光の解像力を画像輝度波形のコントラストなどの指標をもとに評価し、距離計測を行う上で著しい精度劣化を生じないかの確認を行うとよい。然るにこのような場合、「投影部30に対するパラメータ」とは、投影絞り34を制御するためのパラメータ、となる。   The third method is to control the projection diaphragm 34. By opening the aperture, the pattern light becomes brighter. On the contrary, the pattern light becomes dark by reducing the aperture. When controlling the projection stop 34, since the depth of field of the projection optical system also changes, it is necessary to consider its influence. Specifically, the resolution of the pattern light is evaluated on each projection stop based on an index such as the contrast of the image luminance waveform, and it is preferable to confirm whether or not a significant deterioration in accuracy occurs when performing distance measurement. In such a case, however, the “parameter for the projection unit 30” is a parameter for controlling the projection stop 34.

撮像画像露光量制御部45は、調整部41が「撮像部20に対するパラメータ」を決定した場合には、撮像部20における撮像時の露光量を、該パラメータに応じて制御し、これにより、撮像画像の輝度階調値を制御する。撮像部20の露光量を制御する方法は、例えば以下の3つの方法がある。   When the adjustment unit 41 determines “a parameter for the image capturing unit 20”, the captured image exposure amount control unit 45 controls the exposure amount at the time of image capturing in the image capturing unit 20 according to the parameter. Controls the luminance gradation value of the image. There are, for example, the following three methods for controlling the exposure amount of the imaging unit 20.

1つ目の方法は、撮像素子21の露光時間(シャッタースピード)を制御することである。露光時間を長くすると、撮像画像の輝度階調値は高くなり、逆に露光時間を短くすると、輝度階調値は低くなる。然るにこのような場合、「撮像部20に対するパラメータ」とは、撮像素子21の露光時間(シャッタースピード)を制御するためのパラメータ、となる。   The first method is to control the exposure time (shutter speed) of the image sensor 21. When the exposure time is lengthened, the luminance gradation value of the captured image increases, and conversely, when the exposure time is shortened, the luminance gradation value decreases. In such a case, however, the “parameters for the image capturing unit 20” are parameters for controlling the exposure time (shutter speed) of the image sensor 21.

2つ目の方法は、撮像絞り22を制御することである。絞りを開けることで、撮像画像の輝度階調値は高くなり、逆に絞りを絞ることで、撮像画像の輝度階調値は低くなる。撮像絞り22を制御する場合には、撮像光学系の被写界深度も変化するため、その影響を考慮する必要がある。具体的には、各撮像絞りにおいて、パターン光の解像力を画像輝度波形のコントラストなどの指標をもとに評価し、距離計測を行う上で著しい精度劣化を生じないかの確認を行うとよい。然るにこのような場合、「撮像部20に対するパラメータ」とは、撮像絞り22を制御するためのパラメータ、となる。   The second method is to control the imaging diaphragm 22. By opening the aperture, the brightness gradation value of the captured image increases, and conversely, by reducing the aperture, the brightness gradation value of the captured image decreases. When controlling the imaging diaphragm 22, the depth of field of the imaging optical system also changes, and it is necessary to consider its influence. Specifically, in each imaging stop, it is preferable to evaluate the resolving power of the pattern light based on an index such as the contrast of the image luminance waveform, and confirm whether or not there is a significant deterioration in accuracy when performing distance measurement. However, in such a case, the “parameters for the imaging unit 20” are parameters for controlling the imaging diaphragm 22.

3つ目の方法は、複数回同一パターンを投影して画像撮像を行い、その画像輝度値を加算する(パターンを投影する度に撮像した画像を合成する)方法である。露光時間を長くする方法の場合、センサのダイナミックレンジの関係で画像飽和が生じる。一方、上記のように、同一パターンを複数回投影し、該投影の度に撮像して得られるそれぞれの画像を加算して1つの合成画像を生成する方法であれば、画像飽和を防ぎつつ、露光量を増加させることができる。このような方法により得られる合成画像では、撮像素子のノイズ成分は低減する。具体的には、1枚撮像時の撮像素子のノイズ量をσbとすると、N回撮影して加算した場合のノイズ量はσb/√Nとなる。複数回撮像して加算すると述べたが、複数回撮像した画像の平均画像を計算する方法でも同様の効果が得られる。   The third method is a method in which the same pattern is projected a plurality of times to capture an image, and the image brightness value is added (the captured image is synthesized each time the pattern is projected). In the method of extending the exposure time, image saturation occurs due to the dynamic range of the sensor. On the other hand, as described above, if the same pattern is projected a plurality of times and each image obtained by imaging each time of the projection is added to generate one composite image, while preventing image saturation, The amount of exposure can be increased. In the composite image obtained by such a method, the noise component of the image sensor is reduced. Specifically, assuming that the noise amount of the image sensor at the time of single image capturing is σb, the noise amount when N images are captured and added is σb / √N. Although it is described that the image is captured a plurality of times and added, the same effect can be obtained by a method of calculating an average image of images captured a plurality of times.

対象物5は、ランダムに山積みされた対象物の集合である。   The object 5 is a set of objects stacked at random.

対象物位置姿勢認識部7は、画像処理装置1による距離計測結果を用いて、ロボット61が取り扱う座標系(ロボット座標系)における対象物5の位置姿勢(実際には、対象物5のうち撮像部20から観察可能なそれぞれの対象物)を認識する。位置姿勢の認識方法には様々な周知の認識方法を採用することができる。例えば、距離計測結果に基づく3D点群データとCADモデルとのマッチング処理により、対象物の位置姿勢を認識する方法を採用しても良い。   The object position / orientation recognition unit 7 uses the distance measurement result of the image processing apparatus 1 to detect the position / orientation of the object 5 in the coordinate system (robot coordinate system) handled by the robot 61 (actually, the object 5 is imaged). Recognize each object) that can be observed from the unit 20. Various known recognition methods can be employed as the position and orientation recognition method. For example, a method of recognizing the position and orientation of an object by matching processing of 3D point cloud data based on a distance measurement result and a CAD model may be employed.

なお、対象物位置姿勢認識部7は、画像処理装置1内のユニットとしても良いし、画像処理装置1とは別個の装置としても良い。何れにせよ、画像処理装置1による距離計測結果から対象物5の位置姿勢を認識し、該認識した位置姿勢をロボット制御部62に送出することができるのであれば、如何なる形態を採用しても良い。   The object position / posture recognition unit 7 may be a unit in the image processing apparatus 1 or may be a separate device from the image processing apparatus 1. In any case, any form can be adopted as long as the position and orientation of the object 5 can be recognized from the distance measurement result by the image processing apparatus 1 and the recognized position and orientation can be sent to the robot controller 62. good.

ロボット制御部62は、対象物位置姿勢認識部7によって認識された位置姿勢に従ってロボット61を制御し、該ロボット61に位置姿勢を認識した対象物をピッキングさせる。ピッキングされた対象物は次の工程に運ばれる。対象物がピッキングされていくにつれて、山積みの高さは段々と低くなる。そのため、撮像部20からの距離も大きくなる。   The robot control unit 62 controls the robot 61 in accordance with the position and orientation recognized by the object position and orientation recognition unit 7, and causes the robot 61 to pick an object that has recognized the position and orientation. The picked object is carried to the next process. As the object is picked, the height of the pile gradually decreases. Therefore, the distance from the imaging unit 20 also increases.

本実施形態では上記の通り、空間符号化法に基づいて距離計測を行うが、この空間符号化法には派生形が複数存在する。本実施形態では、特開2011−47931号公報で開示されている方法を用いる。以下にその原理を簡単に説明する。   In the present embodiment, as described above, distance measurement is performed based on the spatial encoding method, and there are a plurality of derivatives in this spatial encoding method. In the present embodiment, the method disclosed in JP 2011-47931 A is used. The principle will be briefly described below.

図2に、4ビットの空間符号化法における投影パターン(パターン光)を示す。図2(a)に示されている投影パターン(全点灯パターン)と図2(b)に示されている投影パターン(全消灯パターン)は、影領域の検出と明暗判定閾値を決めるために使われる。図2(c)〜(f)の投影パターン(それぞれ1〜4ビットポジティブパターン)は、空間コードを決定するために使用される。図2(g)の投影パターン(4ビットネガティブパターン)は、4ビットポジティブパターンとともにパターン位置の特定を高精度に行うために使用される。   FIG. 2 shows a projection pattern (pattern light) in the 4-bit spatial encoding method. The projection pattern (all lighting pattern) shown in FIG. 2 (a) and the projection pattern (all lighting pattern) shown in FIG. 2 (b) are used to detect a shadow area and determine a light / dark judgment threshold. Is called. The projection patterns (1 to 4 bit positive patterns, respectively) in FIGS. 2C to 2F are used to determine the spatial code. The projection pattern (4-bit negative pattern) shown in FIG. 2G is used for specifying the pattern position with high accuracy together with the 4-bit positive pattern.

4ビットの場合、空間コードの数は16となる。投影パターンのビット数をNとすると、空間コードの数は2となる。図2に示した1ビットから4ビットの投影パターンは、グレイコード(GrayCode)と呼ばれる符号に基づいて、パターンの明暗(白黒)の配置を決定している。図3に4ビットグレイコードを示す。グレイコードは隣合うコードとのハミング距離が1となるパターンであるため、コードの判定を誤ったとしても誤差が最小に抑えられる。そのため、空間符号化法の投影パターンとして用いられることが多い。 In the case of 4 bits, the number of spatial codes is 16. If the number of bits of the projection pattern is N, the number of spatial codes is 2N . The projection pattern of 1 to 4 bits shown in FIG. 2 determines the arrangement of light and dark (black and white) patterns based on a code called a Gray code. FIG. 3 shows a 4-bit gray code. Since the gray code is a pattern in which the Hamming distance between adjacent codes is 1, an error can be minimized even if the code determination is wrong. For this reason, it is often used as a projection pattern of the spatial encoding method.

次に、撮像画像から空間コードをデコードする方法について述べる。図2に示した1ビットから4ビットの投影パターンを計測対象物に対して投影し、それぞれの投影パターンが投影された計測対象物の画像を撮像する。そして、この撮像により得られたそれぞれの撮像画像中の各画素の輝度階調値から、該画素が投影パターンの明部が照射されている箇所であるのか、それとも暗部が照射されている箇所であるのかを判定する。この判定のための判定基準は、全点灯パターンと全消灯パターンの輝度階調値の平均値を用いることができる。すなわち、撮像画像中の各画素について、該画素の輝度階調値が平均値以上であれば、該画素を明部、平均値未満であれば該画素を暗部と判定する。明部と判定された画素にはビット値「1」を割り当て、暗部と判定された画素にはビット値「0」を割り当てる。このような処理を、1ビットから4ビットの投影パターンの撮像画像のそれぞれに対して行うことで、該撮像画像中の各画素に対して4ビット分のビット値(4ビット分のグレイコード)が与えられることになる。この4ビット分のグレイコードを空間コードに変換することで、投影部からの出射方向を一意に特定することができる。図3に示すように、例えばある画素に「0110」というコードが割り振られた場合、グレイコードは6となる。このグレイコードを空間コードに変換すると4となる。   Next, a method for decoding a spatial code from a captured image will be described. The 1-bit to 4-bit projection patterns shown in FIG. 2 are projected onto the measurement object, and an image of the measurement object on which each projection pattern is projected is captured. Then, from the luminance gradation value of each pixel in each captured image obtained by this imaging, whether the pixel is a portion where the bright portion of the projection pattern is irradiated or a portion where the dark portion is irradiated Determine if there is. As a determination criterion for this determination, an average value of luminance gradation values of all lighting patterns and all lighting patterns can be used. That is, for each pixel in the captured image, if the luminance gradation value of the pixel is equal to or greater than the average value, the pixel is determined to be a bright portion, and if the pixel is less than the average value, the pixel is determined to be a dark portion. A bit value “1” is assigned to a pixel determined to be a bright portion, and a bit value “0” is assigned to a pixel determined to be a dark portion. By performing such processing on each of the captured images of the projection pattern of 1 to 4 bits, a bit value for 4 bits (gray code for 4 bits) for each pixel in the captured image. Will be given. By converting the 4-bit gray code into a spatial code, the emission direction from the projection unit can be uniquely specified. As shown in FIG. 3, for example, when a code “0110” is assigned to a certain pixel, the gray code is 6. When this gray code is converted into a spatial code, 4 is obtained.

図4に示すように、撮像画像の画素位置から撮像部(より詳しくは撮像部の主点位置)への光の入射方向が決まる。また、その画素位置の空間コードが決まると、投影部からの出射方向が特定される。2つの方向が決まると、三角測量の原理に基づき、計測対象物に対する距離計測が可能となる。以上が空間符号化法に基づく距離計測の原理である。   As shown in FIG. 4, the incident direction of light from the pixel position of the captured image to the imaging unit (more specifically, the main point position of the imaging unit) is determined. When the spatial code of the pixel position is determined, the emission direction from the projection unit is specified. When the two directions are determined, distance measurement with respect to the measurement object can be performed based on the principle of triangulation. The above is the principle of distance measurement based on the spatial coding method.

空間符号化法では、投影パターンの明暗を反転させたパターン光(図2の場合、(g)の4ビットネガティブパターン)を併用することで、誤差を低減することができる。その誤差の低減方法について、引き続き図4を用いて説明する。   In the spatial encoding method, errors can be reduced by using together pattern light (in the case of FIG. 2, the 4-bit negative pattern of (g)) in which the brightness of the projection pattern is inverted. A method for reducing the error will be described with reference to FIG.

投影部からの出射方向は空間コード1つ分の幅だけ広がりを持つため、ΔZで示した分だけ距離計測誤差を生む。その誤差を低減するために、最下位のビット(図2では4ビット目のビット)の投影パターン(図2の場合、(f)の4ビットポジティブパターン)の明暗を反転させたネガティブパターン(図2の場合、(g)の4ビットネガティブパターン)をさらに投影する。そして、ポジティブパターンを投影した対象物の撮像画像を構成する各画素の輝度値から成る輝度値波形と、ネガティブパターンを投影した対象物の撮像画像を構成する各画素の輝度値から成る輝度値波形と、の交点位置をパターン位置とする。このパターン位置は、上記の距離計測に使用する。交点位置は隣合う空間コードとの境界位置であるため、理想的には幅を持たない。現実には、デジタル画像信号として取り込む際に量子化と標本化を実施するとともに、撮像画像の輝度階調値に撮像素子ノイズが含まれるため、幅は0にはならないが、距離計測誤差を大きく低減できる。以上が距離計測誤差を低減させる方法の説明である。   Since the emission direction from the projection unit has a width corresponding to one space code, a distance measurement error is generated by the amount indicated by ΔZ. In order to reduce the error, a negative pattern (FIG. 2) in which the lightness and darkness of the projection pattern of the least significant bit (the fourth bit in FIG. 2) (the 4-bit positive pattern of (f) in FIG. 2) is inverted is shown. In the case of 2, (g) 4-bit negative pattern) is further projected. Then, a luminance value waveform composed of the luminance value of each pixel composing the captured image of the object projected with the positive pattern and a luminance value waveform composed of the luminance value of each pixel composing the captured image of the object projected with the negative pattern The position of the intersection of and is the pattern position. This pattern position is used for the distance measurement. Since the intersection position is a boundary position with an adjacent space code, ideally, it does not have a width. In reality, quantization and sampling are performed when capturing as a digital image signal, and the image sensor noise is included in the luminance gradation value of the captured image, so the width is not zero, but the distance measurement error is greatly increased. Can be reduced. The above is the description of the method for reducing the distance measurement error.

次に、パターン位置の特定精度について、図5を用いて説明する。図5(a)は横軸に画像座標、縦軸に輝度階調値をとったグラフである。横軸の画像座標は、撮像画像中の投影パターンの縞の方向に対して垂直な方向における座標とした。実線は、ポジティブパターンを投影した対象物の撮像画像において、該ポジティブパターンの縞の方向に対して垂直な方向に沿った1ライン上の各画素の輝度値から成る輝度値波形(ポジティブパターン波形)を示す。点線は、ネガティブパターンを投影した対象物の撮像画像において、該ネガティブパターンの縞の方向に対して垂直な方向に沿った1ライン上の各画素の輝度値から成る輝度値波形(ネガティブパターン波形)を示す。なお、それぞれの波形は、それぞれの撮像画像で同じ位置のライン上の各画素の輝度値から成る輝度値波形である。太い実線で囲まれた領域のそれぞれの波形を拡大したものを図5(b)に示す。   Next, the pattern position specifying accuracy will be described with reference to FIG. FIG. 5A is a graph in which the horizontal axis represents image coordinates and the vertical axis represents luminance gradation values. The image coordinates on the horizontal axis are the coordinates in the direction perpendicular to the direction of the stripes of the projection pattern in the captured image. A solid line represents a luminance value waveform (positive pattern waveform) composed of luminance values of pixels on one line along a direction perpendicular to the stripe direction of the positive pattern in the captured image of the object on which the positive pattern is projected. Indicates. A dotted line indicates a luminance value waveform (negative pattern waveform) composed of luminance values of pixels on one line along a direction perpendicular to the stripe direction of the negative pattern in the captured image of the object on which the negative pattern is projected. Indicates. Each waveform is a luminance value waveform composed of the luminance value of each pixel on the line at the same position in each captured image. FIG. 5B shows an enlarged view of each waveform in the area surrounded by the thick solid line.

図5(b)では、ポジティブパターン波形とネガティブパターン波形との交点近傍の4点(何れもポジティブパターン波形上若しくはネガティブパターン波形上)に着目している。交点位置から左側にある2点(何れも画像座標(横軸の値)は同じ)のうちポジティブパターン波形上の点における輝度階調値をPL、ネガティブパターン波形上の点における輝度階調値をNLとしている。また、交点位置から右側にある2点(何れも画像座標(横軸の値)は同じ)のうちポジティブパターン波形上の点における輝度階調値をPR、ネガティブパターン波形上の点における輝度階調値をNRとしている。また、輝度階調値の差分(PL−NL)の絶対値をDLとし、輝度階調値の差分(PR−NR)の絶対値をDRとする。   In FIG. 5B, attention is paid to four points near the intersection of the positive pattern waveform and the negative pattern waveform (all on the positive pattern waveform or on the negative pattern waveform). The luminance gradation value at the point on the positive pattern waveform is PL and the luminance gradation value at the point on the negative pattern waveform among the two points on the left side from the intersection position (both are the same image coordinates (value on the horizontal axis)). NL. Also, PR is the luminance gradation value at the point on the positive pattern waveform among the two points on the right side from the intersection position (both are the same image coordinates (value on the horizontal axis)), and the luminance gradation at the point on the negative pattern waveform The value is NR. In addition, the absolute value of the luminance gradation value difference (PL-NL) is DL, and the absolute value of the luminance gradation value difference (PR-NR) is DR.

そして、交点近傍の輝度波形を直線近似する(輝度階調値PLの点と輝度階調値PRの点との間、輝度階調値NLの点と輝度階調値NRの点との間、のそれぞれを直線で近似する)と、それぞれの直線の交点位置C(画像座標)は、以下の(式1)で表される。   Then, the luminance waveform in the vicinity of the intersection is linearly approximated (between the point of the luminance gradation value PL and the point of the luminance gradation value PR, between the point of the luminance gradation value NL and the point of the luminance gradation value NR, And the intersection position C (image coordinates) of each straight line is expressed by the following (Equation 1).

C=L+DL/(DL+DR) (式1)
ここで、Lは、輝度階調値PLの点(輝度階調値NLの点)の画像座標(横軸の値)である。以下では説明を簡単にするために、交点位置Cを、輝度階調値PLの点(輝度階調値NLの点)の画像座標を基準とした相対位置で説明するため、C=DL/(DL+DR)とする。
C = L + DL / (DL + DR) (Formula 1)
Here, L is the image coordinate (value on the horizontal axis) of the point of the luminance gradation value PL (the point of the luminance gradation value NL). In order to simplify the description below, the intersection position C is described as a relative position with reference to the image coordinates of the point of the luminance gradation value PL (the point of the luminance gradation value NL), so that C = DL / ( DL + DR).

ここで、輝度階調値PL、PR、NL、NRは撮像素子ノイズσだけ揺らぎを持つとする。このとき、交点位置も幅ΔCだけ揺らぎをもつことになる。この幅が交点のサブピクセル位置推定誤差である。サブピクセル位置推定誤差ΔCは下記式で求めることができる。   Here, it is assumed that the luminance gradation values PL, PR, NL, and NR have fluctuations by the image sensor noise σ. At this time, the intersection position also fluctuates by the width ΔC. This width is the subpixel position estimation error at the intersection. The subpixel position estimation error ΔC can be obtained by the following equation.

ΔC=σ/(DL+DR) (式2)
交点のサブピクセル位置推定誤差ΔCが小さいほど、距離計測誤差は小さくなる。(式2)から、サブピクセル位置推定誤差ΔCを低減するためには、分母(輝度階調値の差分であるDLやDRの値)を大きくすればよいことがわかる。輝度階調値の差分DL(DR)は、輝度階調値に比例して大きくなる。さらに、撮像素子ノイズσのうち、ショットノイズ成分は輝度階調値の平方根の値に比例する特性を示すことが多いので、輝度階調値の大きさを大きくすると相対的にノイズσの影響は小さくなる。輝度階調値を大きくするためには、撮像部20における露光量を大きくする、または、パターン光の明るさを明るくする、という2通りの方法がある。
ΔC = σ / (DL + DR) (Formula 2)
The smaller the subpixel position estimation error ΔC at the intersection, the smaller the distance measurement error. From (Equation 2), it can be seen that in order to reduce the subpixel position estimation error ΔC, the denominator (the value of DL or DR which is the difference between the luminance gradation values) may be increased. The luminance gradation value difference DL (DR) increases in proportion to the luminance gradation value. Furthermore, among the image sensor noise σ, the shot noise component often exhibits a characteristic proportional to the square root value of the luminance gradation value. Therefore, when the luminance gradation value is increased, the influence of the noise σ is relatively small. Get smaller. In order to increase the luminance gradation value, there are two methods of increasing the exposure amount in the imaging unit 20 or increasing the brightness of the pattern light.

この2通りの方法の両方を実行しても構わないし一方のみを実行しても構わない。本実施形態では一例として、撮像部20における露光量を制御する(露光量を調整対象とする)方法のみを実行する。さらに、露光量の制御方法のうち、露光時間のみを制御することとする。しかし、露光量の制御は、露光時間の制御以外の方法によっても実現可能であり、特定の方法に限るものではない。露光量の制御方法のうち、撮像絞り22を制御する方法にも適用できる。また、パターン光の明るさを制御する方法にも適用できる、光源31の発光輝度の制御、表示素子33の表示階調値の制御、投影絞り34の制御にも適用できる。また、単一の制御量のみを制御する方法に限られるものでなく、複数の制御量を同時に制御することも可能である。   Both of these two methods may be executed, or only one of them may be executed. In the present embodiment, as an example, only the method for controlling the exposure amount in the imaging unit 20 (with the exposure amount as an adjustment target) is executed. Further, in the exposure amount control method, only the exposure time is controlled. However, the control of the exposure amount can be realized by a method other than the control of the exposure time, and is not limited to a specific method. Of the exposure amount control methods, the present invention can also be applied to a method for controlling the imaging aperture 22. The present invention can also be applied to the method of controlling the brightness of the pattern light, the control of the light emission luminance of the light source 31, the control of the display gradation value of the display element 33, and the control of the projection stop 34. Further, the method is not limited to a method of controlling only a single control amount, and a plurality of control amounts can be controlled simultaneously.

ノイズσの多くの成分がショットノイズだとすると、誤差を1/nにするためには、パターン光の明るさ、あるいは、撮像部20における露光量をn倍にする必要がある。例えば、誤差を1/2にするためには、パターン光の明るさ、あるいは、撮像部20における露光量を4倍にする。露光量を4倍にすると、分母の(DL+DR)は4倍になる。露光量を4倍にすると、分子のノイズσは画像輝度階調値の平方根の値に比例するので、√4、すなわち2倍になる。分子が2倍、分母が4倍となるため、誤差は1/2倍になることがわかる。 If many components of the noise σ are shot noise, in order to reduce the error to 1 / n, it is necessary to increase the brightness of the pattern light or the exposure amount in the imaging unit 20 by n 2 times. For example, in order to halve the error, the brightness of the pattern light or the exposure amount in the imaging unit 20 is quadrupled. When the exposure amount is quadrupled, the denominator (DL + DR) is quadrupled. When the exposure amount is quadrupled, the numerator noise σ is proportional to the square root value of the image luminance gradation value, so it becomes √4, that is, doubles. Since the numerator is doubled and the denominator is quadrupled, the error is halved.

図6(a)〜(c)に示すように、山積みにされた複数部品(対象物5)のうち、位置姿勢が認識された部品をピッキングするというケースでは、部品が取り除かれるとともに山積みの高さが変化する。山積みの高さが高い場合には、図6(a)に示す如く、撮像部20から撮像対象までの距離は近く、山積みの高さが低い場合には、図6(c)に示す如く、撮像部20から撮影対象までの距離は遠くなる。ここで、撮像部20による撮像画像中に写っている部品の輝度値は、撮像部20から撮像対象までの距離の2乗に比例して低下する。   As shown in FIGS. 6A to 6C, in the case of picking a part whose position and orientation are recognized among a plurality of parts (target object 5) stacked, the parts are removed and the height of the stack is increased. Changes. When the pile height is high, as shown in FIG. 6A, the distance from the imaging unit 20 to the imaging target is short, and when the pile height is low, as shown in FIG. The distance from the imaging unit 20 to the subject to be photographed is long. Here, the luminance value of the component shown in the image captured by the imaging unit 20 decreases in proportion to the square of the distance from the imaging unit 20 to the imaging target.

ここで、撮像部20による撮像画像中の輝度値と、撮像部20から撮像対象までの距離と、の関係について、図7を用いて説明する。ここでは、図7(b)に示す如く、撮像部20の露光量が、撮像部20から撮像対象までの距離Zm(中距離)で最適となるように設定されているものとする。図7(b)においては、全点灯パターンの波形やポジティブパターン、ネガティブパターンの波形において一部飽和レベルを超えているが、パターン位置の特定に使用する交点位置近傍の輝度階調値は飽和レベルを超えていない。そのため、交点位置の特定も可能であるし、交点近傍の輝度階調値も高い値となるため、サブピクセル位置推定誤差を低減することができる。   Here, the relationship between the luminance value in the captured image by the imaging unit 20 and the distance from the imaging unit 20 to the imaging target will be described with reference to FIG. Here, as shown in FIG. 7B, it is assumed that the exposure amount of the imaging unit 20 is set to be optimal at a distance Zm (medium distance) from the imaging unit 20 to the imaging target. In FIG. 7B, the waveform of all lighting patterns, the waveform of the positive pattern, and the waveform of the positive pattern partially exceed the saturation level, but the luminance gradation value near the intersection position used for specifying the pattern position is the saturation level. Is not exceeded. Therefore, the position of the intersection can be specified, and the luminance gradation value in the vicinity of the intersection becomes a high value, so that the subpixel position estimation error can be reduced.

ここで、撮像部20から撮像対象までの距離が、Zmよりも小さいZn(近距離)における輝度階調値の波形を図7(a)示す。この波形の中央部では、飽和レベルを超えている。図7(a)では便宜上、飽和レベルを超えた波形を図示したが、実際には飽和レベルを超えた波形は飽和レベルの輝度階調値に頭打ちされて出力される。図7(a)では、交点位置が飽和レベルの輝度階調値に頭打ちされるため、交点位置の特定が不可能となる。   Here, FIG. 7A shows a waveform of the luminance gradation value in Zn (short distance) where the distance from the imaging unit 20 to the imaging target is smaller than Zm. In the central part of this waveform, the saturation level is exceeded. In FIG. 7A, for the sake of convenience, the waveform exceeding the saturation level is illustrated, but actually, the waveform exceeding the saturation level is output to the saturation gradation value at the saturation level. In FIG. 7A, since the intersection position reaches the saturation level luminance gradation value, it is impossible to specify the intersection position.

次に、撮像部20から撮像対象までの距離が、Zmよりも大きいZf(遠距離)における輝度階調値の波形を図7(c)示す。図7(c)の状態では、輝度階調値の波形がすべて飽和レベルには達しておらず、距離計測精度が低精度であるといえる。   Next, FIG. 7C shows a waveform of a luminance gradation value at Zf (far distance) where the distance from the imaging unit 20 to the imaging target is larger than Zm. In the state of FIG. 7C, it can be said that the luminance gradation value waveforms are not all saturated and the distance measurement accuracy is low.

すなわち、以上の説明から、近距離〜中距離〜遠距離において距離計測を確実且つ高精度に行うためには、「撮像部20が次回撮像する撮像画像の明暗を制御するためのパラメータ」を、距離に応じて調整することが必要であることが分かる。   That is, from the above description, in order to perform distance measurement reliably and with high accuracy in a short distance, a medium distance, and a long distance, “parameters for controlling the brightness and darkness of a captured image that the imaging unit 20 captures next time” It can be seen that it is necessary to adjust according to the distance.

次に、画像処理部40が、撮像部20の露光量(露光時間)を調整するために行う処理について、同処理のフローチャートを示す図8を用いて説明する。図8のフローチャートに従った処理は、基準となる露光量(基準露光量)及び該基準露光量で撮像した撮像画像を用いて計測した距離(基準距離)を求める処理(ステップS100)と、該露光量を調整する処理(ステップS110)と、を有する。   Next, processing performed by the image processing unit 40 to adjust the exposure amount (exposure time) of the imaging unit 20 will be described with reference to FIG. 8 showing a flowchart of the processing. The processing according to the flowchart of FIG. 8 includes processing for obtaining a reference exposure amount (reference exposure amount) and a distance (reference distance) measured using a captured image captured with the reference exposure amount (step S100), And a process for adjusting the exposure amount (step S110).

先ず、ステップS100における処理について説明する。先ず、ステップS101では、撮像画像露光量制御部45は、現在設定されている露光量のパラメータに応じて、撮像部20の露光量を制御する。また、パターン光明るさ制御部44は、現在設定されているパターン光の明るさのパラメータに応じて、投影部30から投影されるパターン光の明るさを制御する。   First, the process in step S100 will be described. First, in step S101, the captured image exposure amount control unit 45 controls the exposure amount of the imaging unit 20 according to the currently set exposure amount parameter. The pattern light brightness control unit 44 controls the brightness of the pattern light projected from the projection unit 30 according to the currently set pattern light brightness parameter.

そして更に、ステップS101では、投影部30は、上記の複数枚の投影パターンから1つずつ順次選択し、該選択した投影パターンを対象物5に対して照射し、撮像部20は、該対象物5を撮像する。投影パターンの種別は、全点灯パターン、全消灯パターン、ポジティブパターン(図2の場合、(c)〜(f)の4つのポジティブパターン)、ネガティブパターン(図2の場合、(g)のネガティブパターン)の4種類である。4ビットの空間符号化法の場合、ポジティブパターンとして4ビットポジティブパターンを、ネガティブパターンとして4ビットネガティブパターンを使用する。撮像部20は、選択されたパターン光が投影される度に対象物5を撮像する。   In step S101, the projection unit 30 sequentially selects the projection patterns from the plurality of projection patterns one by one, irradiates the selected projection pattern to the object 5, and the imaging unit 20 5 is imaged. The types of projection patterns are all lighting patterns, all lighting patterns, positive patterns (four positive patterns (c) to (f) in the case of FIG. 2), negative patterns (negative pattern (g) in the case of FIG. 2). ). In the case of the 4-bit spatial encoding method, a 4-bit positive pattern is used as a positive pattern, and a 4-bit negative pattern is used as a negative pattern. The imaging unit 20 images the object 5 every time the selected pattern light is projected.

ステップS102では、調整部41は、撮像部20が撮像した撮像画像を用いた明暗判定を行う。ここで、ステップS102における処理の詳細について、図17のフローチャートを用いて説明する。調整部41は、4枚の撮像画像In1〜In4を使用して明暗判定を行い、Out1:暗判定、Out2:明判定、の何れか一方を、明暗判定の結果として出力する。ここで、撮像画像In1は、全点灯パターンが投影された対象物5の撮像画像、撮像画像In2は、全消灯パターンが投影された対象物5の撮像画像である。また、撮像画像In3は、ポジティブパターンが投影された対象物5の撮像画像、撮像画像In4は、ネガティブパターンが投影された対象物5の撮像画像である。   In step S <b> 102, the adjustment unit 41 performs light / dark determination using the captured image captured by the imaging unit 20. Details of the processing in step S102 will be described with reference to the flowchart of FIG. The adjustment unit 41 performs light / dark determination using the four captured images In1 to In4, and outputs either Out1: dark determination or Out2: light determination as a result of the light / dark determination. Here, the picked-up image In1 is a picked-up image of the object 5 onto which the all-lighted pattern is projected, and the picked-up image In2 is a picked-up image of the object 5 onto which the all-off pattern is projected. The captured image In3 is a captured image of the target object 5 on which the positive pattern is projected, and the captured image In4 is a captured image of the target object 5 on which the negative pattern is projected.

また、明暗判定は2段階で実施される。第1段階目では、撮像画像In1と撮像画像In2とを使用して大まかな明暗判定を行う。第2段階目では、撮像画像In3と撮像画像In4とを用いて、詳細な明暗判定を行う。なお、本実施形態では、このように、第1段階及び第2段階の2段階構成で明暗判定を行うものとして説明するが、第1段階目の明暗判定を省略し、第2段階目の明暗判定のみを行うようにしても構わない。   The light / dark determination is performed in two stages. In the first stage, rough contrast determination is performed using the captured image In1 and the captured image In2. In the second stage, detailed light / dark determination is performed using the captured image In3 and the captured image In4. In the present embodiment, it is assumed that the light / dark determination is performed in the two-stage configuration of the first stage and the second stage as described above, but the light / dark determination in the first stage is omitted, and the light / dark determination in the second stage. Only the determination may be performed.

先ず、第1段階目の明暗判定について説明する。   First, the light / dark determination in the first stage will be described.

ステップS4201では、調整部41は、撮像画像In1若しくは撮像画像In2に対して調整領域を設定する。例えば、撮像画像In1若しくは撮像画像In2の何れか一方を表示対象画像として不図示の表示部に表示させ、ユーザが不図示の操作部を操作して、表示対象画像中に写っている対象物5の領域を調整領域として指定(設定)するようにしても構わない。もちろん、調整領域の設定方法はこれに限るものではなく、撮像画像In1若しくは撮像画像In2中の対象物5の領域が予め決まっている若しくは認識処理により決定した場合は、ユーザ操作を介することなく、対象物5の領域を調整領域として設定しても良い。なお、一方の撮像画像に対して調整領域を設定すると、他方の撮像画像中の同位置にも調整領域が設定されたものとする。次に、ステップS4202では、調整部41は、調整領域内の画素数を、「調整領域画素数X」としてカウントする。   In step S4201, the adjustment unit 41 sets an adjustment area for the captured image In1 or the captured image In2. For example, one of the captured image In1 and the captured image In2 is displayed as a display target image on a display unit (not shown), and the user operates the operation unit (not shown) so that the target 5 shown in the display target image is displayed. This area may be designated (set) as the adjustment area. Of course, the adjustment area setting method is not limited to this, and when the area of the object 5 in the captured image In1 or the captured image In2 is determined in advance or determined by recognition processing, without user operation, You may set the area | region of the target object 5 as an adjustment area | region. It is assumed that when an adjustment area is set for one captured image, the adjustment area is also set at the same position in the other captured image. Next, in step S4202, the adjustment unit 41 counts the number of pixels in the adjustment region as “the number of adjustment region pixels X”.

次に、ステップS4203では、調整部41は、撮像画像In1中の調整領域若しくは撮像画像In2中の調整領域から、影とおぼしき領域(影領域)を検出する。影領域の検出方法には、例えば、次のような方法がある。即ち、撮像画像In1中の調整領域内の各画素と撮像画像In2中の調整領域内の各画素とで位置的に対応する画素間の輝度階調値の差分値を計算し、差分値が予め設定された閾値(影領域閾値)を下回る画素位置における画素から成る領域を影領域と判定する。ただし、この判定方法だけでは、撮像画像In2中の調整領域内の輝度階調値が飽和レベルに近い、あるいは、飽和レベルに達しているケースにおいても、上記の差分値は小さくなるので、影領域と判定してしまう。このようなケースに対処するために、撮像画像In2の輝度階調値に影領域閾値の値を加算した値が飽和レベルを超える場合には、影領域から除外するという判定式をさらに導入するとよい。もちろん、画像から影領域を特定する方法は上記の方法に限るものではない。   Next, in step S4203, the adjustment unit 41 detects a shadow and a shadow area (shadow area) from the adjustment area in the captured image In1 or the adjustment area in the captured image In2. For example, there are the following methods for detecting the shadow region. That is, the difference value of the luminance gradation value between pixels corresponding in position between each pixel in the adjustment region in the captured image In1 and each pixel in the adjustment region in the captured image In2 is calculated, and the difference value is calculated in advance. An area composed of pixels at pixel positions below a set threshold (shadow area threshold) is determined as a shadow area. However, with this determination method alone, the above difference value becomes small even in the case where the luminance gradation value in the adjustment area in the captured image In2 is close to the saturation level or has reached the saturation level, the shadow area It will be judged. In order to deal with such a case, if the value obtained by adding the value of the shadow region threshold to the luminance gradation value of the captured image In2 exceeds the saturation level, it is preferable to further introduce a determination formula that excludes the value from the shadow region. . Of course, the method of specifying the shadow area from the image is not limited to the above method.

ステップS4204では、調整部41は、ステップS4202でカウントした調整領域画素数から、ステップS4203で検出した影領域内の画素数を差し引いた残りの画素数を、非影領域の画素数Yとして求める。非影領域の画素数とは、調整領域から影領域を除いた残りの領域内の画素数である。   In step S4204, the adjustment unit 41 obtains the number of remaining pixels by subtracting the number of pixels in the shadow area detected in step S4203 from the number of adjustment area pixels counted in step S4202 as the number Y of pixels in the non-shadow area. The number of pixels in the non-shadow area is the number of pixels in the remaining area excluding the shadow area from the adjustment area.

ステップS4205では、調整部41は、非影領域の画素数Yを調整領域内の画素数Xで割った値(調整領域内の画素数Xに対する非影領域の画素数Yの割合)が、予め設定されている閾値Aを超えているか否かを判断する。調整領域内に影領域が多く占めている場合には、Y/Xは比較的小さな値をとることになる。然るに、Y/X≦閾値A(閾値以下)であれば、調整領域内には影領域が多く占めていることになり、その結果、調整部41は、明暗判定の結果として「暗判定(Out1)」を出力する。   In step S4205, the adjustment unit 41 obtains a value obtained by dividing the number Y of pixels in the non-shadow area by the number X of pixels in the adjustment area (the ratio of the number Y of pixels in the non-shadow area to the number X of pixels in the adjustment area) in advance. It is determined whether or not a set threshold A is exceeded. When there are many shadow areas in the adjustment area, Y / X takes a relatively small value. However, if Y / X ≦ threshold A (threshold or lower), the shadow area occupies a large amount in the adjustment area. As a result, the adjustment unit 41 determines that “dark determination (Out1) ) "Is output.

一方、調整領域内に非影領域が多く占めている場合には、Y/Xは比較的大きな値をとることになる。然るに、Y/X>閾値Aであれば、第2段階目の明暗判定を実行すべく、処理はステップS4206に進む。   On the other hand, when there are many non-shadow areas in the adjustment area, Y / X takes a relatively large value. However, if Y / X> threshold A, the process advances to step S4206 to execute the second-level light / dark determination.

続いて、第2段階目の明暗判定について説明する。第2段階目の明暗判定では、上記の如く、撮像画像In3と撮像画像In4とを用いる。ステップS4206では、調整部41は、撮像画像In3(撮像画像In4)における調整領域内で、上記の交点位置を、パターン位置として推定する処理を行う。例えば、撮像画像In3内の画素位置(x−1,y)における輝度階調値をP1、撮像画像In3内の画素位置(x+1,y)における輝度階調値をP2とする。また、撮像画像In4内の画素位置(x−1,y)における輝度階調値をQ1、撮像画像In4内の画素位置(x+1,y)における輝度階調値をQ2とする。このとき、「P1>Q1ならばP2<Q2」(条件1)若しくは「P1<Q1ならばP2>Q2」(条件2)が満たされていれば、画素位置(x、y)は交点位置と判断する。一方、条件1及び条件2の何れも満たされていない場合には、画素位置(x、y)は交点位置ではないと判断する。このようにして、撮像画像In3(撮像画像In4)における調整領域内の全ての画素位置(x、y)についてこのような条件判定を行うことで、各画素位置が交点位置か否かを判断することができる。ステップS4207では、調整部41は、ステップS4206で推定した交点位置(計測画素)の数を、「計測画素数Z」としてカウントする。   Next, the second level light / dark determination will be described. In the second-level light / dark determination, the captured image In3 and the captured image In4 are used as described above. In step S4206, the adjustment unit 41 performs a process of estimating the intersection position as a pattern position within the adjustment region in the captured image In3 (captured image In4). For example, the luminance gradation value at the pixel position (x−1, y) in the captured image In3 is P1, and the luminance gradation value at the pixel position (x + 1, y) in the captured image In3 is P2. The luminance gradation value at the pixel position (x-1, y) in the captured image In4 is Q1, and the luminance gradation value at the pixel position (x + 1, y) in the captured image In4 is Q2. At this time, if “P1> Q1, P2 <Q2” (Condition 1) or “P1 <Q1, P2> Q2” (Condition 2) is satisfied, the pixel position (x, y) is the intersection position. to decide. On the other hand, if neither condition 1 nor condition 2 is satisfied, it is determined that the pixel position (x, y) is not an intersection position. In this way, by performing such a condition determination for all pixel positions (x, y) in the adjustment region in the captured image In3 (captured image In4), it is determined whether or not each pixel position is an intersection position. be able to. In step S4207, the adjustment unit 41 counts the number of intersection positions (measurement pixels) estimated in step S4206 as “measurement pixel number Z”.

ステップS4208では、調整部41は、計数画素数Zを非影領域の画素数Yで割った値(非影領域の画素数Yに対する計数画素数Zの割合、即ち、計測画素の検出量に相当)が、予め設定されている閾値Bを超えているか否かを判断する。非影領域の画素数に対する交点位置の数の割合が低い場合、調整領域内の多くの画素の輝度階調値が飽和レベルに達しているために、交点位置があまり多く得られていないと考えられる。例えば、図7(a)の中央付近では、交点位置における画素の輝度階調値は何れも飽和レベルを超えており、結果としてこれら交点位置を求めることはできないために、Z/Yの値は比較的小さな値となる。然るに、Z/Y≦閾値Bであれば、調整部41は、明暗判定の結果として「明判定(Out2)」を出力する。一方、Z/Y>閾値Bであれば、交点位置の多くが算出可能であるために、処理はステップS4209に進む。   In step S4208, the adjustment unit 41 divides the count pixel number Z by the pixel number Y of the non-shadow region (the ratio of the count pixel number Z to the pixel number Y of the non-shadow region, that is, the detection amount of the measurement pixel). ) Exceeds a preset threshold value B or not. If the ratio of the number of intersection positions to the number of pixels in the non-shadow area is low, the luminance gradation values of many pixels in the adjustment area have reached the saturation level, so it is considered that there are not many intersection positions. It is done. For example, in the vicinity of the center of FIG. 7A, the luminance gradation values of the pixels at the intersection position all exceed the saturation level. As a result, these intersection positions cannot be obtained. A relatively small value. However, if Z / Y ≦ threshold B, the adjustment unit 41 outputs “brightness determination (Out2)” as the result of the lightness / darkness determination. On the other hand, if Z / Y> threshold B, since many of the intersection positions can be calculated, the process advances to step S4209.

ステップS4209では、調整部41は、各交点位置について、該交点位置の近傍位置にある画素の輝度階調値が飽和しているか否かを判断する。より詳しくは、先ず、交点位置に近接する、ポジティブパターン波形上の2点及びネガティブパターン波形上の2点の計4点(図5(b)の場合、PR,PL,NR,NLのそれぞれの輝度階調値を有する4点)の輝度階調値を参照する。そしてこの4点のうち、輝度階調値が飽和レベル以上となる点が1以上あれば、交点位置における画素を、飽和計測画素と判定する。このような処理を、求めたそれぞれの交点位置について行う。ステップS4210では、調整部41は、ステップS4209で飽和計測画素として判定された画素の個数を、「飽和計測画素数g」としてカウントする。   In step S4209, the adjustment unit 41 determines, for each intersection position, whether or not the luminance gradation value of a pixel near the intersection position is saturated. More specifically, first, a total of four points (two points on the positive pattern waveform and two points on the negative pattern waveform) close to the intersection position (in the case of FIG. 5B, each of PR, PL, NR, and NL). Reference is made to the 4) luminance gradation values having luminance gradation values. If one or more of the four points has a luminance gradation value equal to or higher than the saturation level, the pixel at the intersection is determined as a saturation measurement pixel. Such processing is performed for each obtained intersection position. In step S4210, the adjustment unit 41 counts the number of pixels determined as saturation measurement pixels in step S4209 as “saturation measurement pixel number g”.

ステップS4211では、調整部41は、「飽和計測画素数g」を「計測画素数Z」で割った値(計測画素数Zに対する飽和計測画素数gの割合)が、予め設定されている閾値Cを超えているか否かを判断する。そして調整部41は、g/Z>閾値Cの場合には、明暗判定の結果として「明判定(Out2)」を出力し、g/Z≦閾値Cの場合には、明暗判定の結果として「暗判定(Out1)」を出力する。   In step S4211, the adjustment unit 41 sets a value obtained by dividing the “saturation measurement pixel number g” by the “measurement pixel number Z” (the ratio of the saturation measurement pixel number g to the measurement pixel number Z) as a preset threshold value C. It is determined whether or not it exceeds. When g / Z> threshold C, adjustment unit 41 outputs “brightness determination (Out2)” as the result of light / dark determination, and when g / Z ≦ threshold C, the adjustment unit 41 outputs “lightness / darkness determination”. "Dark determination (Out1)" is output.

なお、ステップS102において行う撮像画像の明暗判定処理は、図17のフローチャートに従った処理に限るものではなく、他の方法を採用しても構わない。   Note that the brightness / darkness determination processing of the captured image performed in step S102 is not limited to the processing according to the flowchart of FIG. 17, and other methods may be employed.

ステップS103では、調整部41は、ステップS102での判定結果が「明」の場合には、撮像部20の現在の露光量をより小さい露光量に調整すべく(現在の露光時間をより短い露光時間に調整すべく)、撮像部20のパラメータを調整する。一方、調整部41は、ステップS102での判定結果が「暗」の場合には、撮像部20の現在の露光量をより大きい露光量に調整すべく(現在の露光時間をより長い露光時間に調整すべく)、撮像部20のパラメータを調整する。露光時間は、例えば、2分探索法などで調整するとよい。そして調整部41は、調整した撮像部20のパラメータを、撮像画像露光量制御部45に設定するので、撮像画像露光量制御部45は次回から、この調整されたパラメータに従って撮像部20を制御することになる。   In step S103, when the determination result in step S102 is “bright”, the adjustment unit 41 adjusts the current exposure amount of the imaging unit 20 to a smaller exposure amount (shorter exposure time). In order to adjust the time), the parameters of the imaging unit 20 are adjusted. On the other hand, when the determination result in step S102 is “dark”, the adjustment unit 41 adjusts the current exposure amount of the imaging unit 20 to a larger exposure amount (the current exposure time is set to a longer exposure time). In order to adjust), the parameters of the imaging unit 20 are adjusted. The exposure time may be adjusted by, for example, a binary search method. Then, the adjustment unit 41 sets the adjusted parameters of the imaging unit 20 in the captured image exposure amount control unit 45, so that the captured image exposure amount control unit 45 controls the imaging unit 20 from the next time according to the adjusted parameters. It will be.

そして、処理はステップS101に戻り、ステップS101では、ステップS103で調整された露光時間に基づいた撮像が行われる。このようにして、ステップS101〜ステップS103の処理を複数回繰り返して行い、ステップS104では、調整部41は、該繰り返しの結果として得られる露光量(ここでは露光時間)を、基準露光量Exbとして得る。   Then, the process returns to step S101, and in step S101, imaging is performed based on the exposure time adjusted in step S103. In this way, the processes in steps S101 to S103 are repeated a plurality of times. In step S104, the adjustment unit 41 sets the exposure amount (here, the exposure time) obtained as a result of the repetition as the reference exposure amount Exb. obtain.

ステップS105では、撮像画像露光量制御部45は、基準露光量Exbに応じて、撮像部20の露光量を制御する。また、パターン光明るさ制御部44は、現在設定されているパターン光の明るさのパラメータに応じて、投影部30から投影されるパターン光の明るさを制御する。そして、投影部30は、上記の複数枚の投影パターンから1つずつ順次選択し、該選択した投影パターンを対象物5に対して照射し、撮像部20は、該対象物5を撮像する。そして、距離算出部43は、撮像部20によって撮像されたそれぞれの撮像画像を用いて上記の処理を行うことで、撮像画像中に写っているそれぞれの対象物に対する距離を計測する。   In step S105, the captured image exposure amount control unit 45 controls the exposure amount of the imaging unit 20 according to the reference exposure amount Exb. The pattern light brightness control unit 44 controls the brightness of the pattern light projected from the projection unit 30 according to the currently set pattern light brightness parameter. Then, the projection unit 30 sequentially selects one by one from the plurality of projection patterns described above, irradiates the selected projection pattern to the target object 5, and the imaging unit 20 images the target object 5. And the distance calculation part 43 measures the distance with respect to each target object reflected in the captured image by performing said process using each captured image imaged by the imaging part 20. FIG.

ステップS106では、概略距離算出部42は、撮像画像中に写っているそれぞれの対象物に対する距離の代表的な距離である基準距離(基準概略距離)Zbを求める。撮像画像中に写っているそれぞれの対象物に対する距離から基準距離Zbを求めるための処理について、図9を用いて説明する。図9(a)は、山積み高さが高い場合における基準距離Zbの一例を示しており、図9(b)は、山積み高さが中程度の場合における基準距離Zbの一例を示している。例えば、撮像画像中に写っているそれぞれの対象物に対する距離の平均距離を基準距離としても良いし、最大値、最小値、若しくは中央値等を基準距離として採用しても構わない。   In step S <b> 106, the approximate distance calculation unit 42 obtains a reference distance (reference approximate distance) Zb that is a representative distance to each object shown in the captured image. A process for obtaining the reference distance Zb from the distance to each object shown in the captured image will be described with reference to FIG. FIG. 9A shows an example of the reference distance Zb when the pile height is high, and FIG. 9B shows an example of the reference distance Zb when the pile height is medium. For example, an average distance of distances to the respective objects shown in the captured image may be used as the reference distance, and a maximum value, a minimum value, a median value, or the like may be used as the reference distance.

次に、ステップS110における処理について説明する。ステップS111で撮像画像露光量制御部45は、現在設定されている露光量(1回目のステップS111では基準露光量Exb、2回目以降のステップS111では前回のステップS116で調整した露光量Ext)に応じて、撮像部20の露光量を制御する。また、パターン光明るさ制御部44は、現在設定されているパターン光の明るさのパラメータに応じて、投影部30から投影されるパターン光の明るさを制御する。そして、投影部30は、上記の複数枚の投影パターンから1つずつ順次選択し、該選択した投影パターンを対象物5に対して照射し、撮像部20は、該対象物5を撮像する。   Next, the process in step S110 will be described. In step S111, the captured image exposure amount control unit 45 sets the currently set exposure amount (reference exposure amount Exb in the first step S111, exposure amount Ext adjusted in the previous step S116 in the second and subsequent steps S111). Accordingly, the exposure amount of the imaging unit 20 is controlled. The pattern light brightness control unit 44 controls the brightness of the pattern light projected from the projection unit 30 according to the currently set pattern light brightness parameter. Then, the projection unit 30 sequentially selects one by one from the plurality of projection patterns described above, irradiates the selected projection pattern to the target object 5, and the imaging unit 20 images the target object 5.

ステップS112では、距離算出部43は、撮像部20によって撮像されたそれぞれの撮像画像を用いて上記の処理を行うことで、撮像画像中に写っているそれぞれの対象物に対する距離を計測する。   In step S <b> 112, the distance calculation unit 43 performs the above-described processing using each captured image captured by the imaging unit 20, thereby measuring the distance to each object captured in the captured image.

ステップS113では、概略距離算出部42は、上記のステップS106と同様の処理を行うことで、撮像画像中に写っているそれぞれの対象物に対する距離の代表的な距離(概略距離)Ztを求める。   In step S113, the approximate distance calculation unit 42 obtains a representative distance (approximate distance) Zt of the distance to each object shown in the captured image by performing the same process as in step S106.

ステップS114では、調整部41は、基準距離Zbと距離Ztと、を用いて、現在設定されている露光量の調整量(光学補正量)Czoを求める。ここでは、画像中の輝度値が距離の2乗に比例して暗くなるという光学特性をもとに、光学補正量Czoを算出する。具体的には以下の式(3)を計算することで、光学補正量Czoを求める。   In step S114, the adjustment unit 41 obtains an adjustment amount (optical correction amount) Czo of the currently set exposure amount using the reference distance Zb and the distance Zt. Here, the optical correction amount Czo is calculated based on the optical characteristic that the luminance value in the image becomes darker in proportion to the square of the distance. Specifically, the optical correction amount Czo is obtained by calculating the following equation (3).

Czo = (Zt/Zb) (式3)
ステップS115では、調整部41は、基準露光量Exbを、光学補正量Czoを用いて調整する。例えば、以下の(式4)に従って調整する。
Czo = (Zt / Zb) 2 (Formula 3)
In step S115, the adjustment unit 41 adjusts the reference exposure amount Exb using the optical correction amount Czo. For example, the adjustment is performed according to the following (Equation 4).

Czo×Exb→Ext (式4)
そして、ステップS116では、調整部41は、ステップS115で調整した露光量Extを、撮像画像露光量制御部45に設定する。そして処理はステップS111に戻り、以降の処理が繰り返される。
Czo × Exb → Ext (Formula 4)
In step S116, the adjustment unit 41 sets the exposure amount Ext adjusted in step S115 in the captured image exposure amount control unit 45. Then, the process returns to step S111, and the subsequent processes are repeated.

このように、本実施形態によれば、山積みの高さが高いケースにおいては露光量が小さく設定され、山積みの高さが低いケースにおいては露光量が大きく設定されるため、山積みの高さに応じて適切な露光量を設定することができる。つまり、山積み高さの変化に対して、撮像画像の輝度値をほぼ一定に保つことができる。   Thus, according to the present embodiment, the exposure amount is set small in the case where the pile height is high, and the exposure amount is set large in the case where the pile height is low. An appropriate exposure amount can be set accordingly. That is, the luminance value of the captured image can be kept substantially constant with respect to the change in the pile height.

なお、本実施形態では、空間符号化法に基づいて対象物5に対する距離計測を行ったが、対象物5に対する距離計測を他の方法で実施しても構わない。例えば、光切断法、位相シフト法など種々のパターン投影に基づく距離計測方法を採用しても構わない。   In the present embodiment, the distance measurement for the target object 5 is performed based on the spatial encoding method, but the distance measurement for the target object 5 may be performed by other methods. For example, a distance measurement method based on various pattern projections such as a light cutting method and a phase shift method may be adopted.

[第2の実施形態]
本実施形態では、光学補正量だけでなく、三角測量の誤差も加味して、露光量の調整を行う。以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
[Second Embodiment]
In this embodiment, not only the optical correction amount but also the triangulation error is taken into account to adjust the exposure amount. In the following, differences from the first embodiment will be mainly described, and unless otherwise noted, the same as the first embodiment.

画像処理部40が、撮像部20の露光量を調整するために行う処理について、同処理のフローチャートを示す図10を用いて説明する。図10のフローチャートにおいて、図8に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。   Processing performed by the image processing unit 40 to adjust the exposure amount of the imaging unit 20 will be described with reference to FIG. 10 showing a flowchart of the processing. In the flowchart of FIG. 10, the same processing steps as those shown in FIG. 8 are denoted by the same step numbers, and description thereof will be omitted.

ステップS215では、調整部41は、基準距離Zbと距離Ztと、を用いて、三角測量の誤差の調整量(三角測量補正量)Cztを求める。ここでは、三角測量の誤差が距離の2乗に比例して大きくなるという特性に基づき補正量を算出する。なお、図11に示すように、距離がn倍になると、距離測定の誤差がn倍になるため、計測誤差を一定に保つためには、サブピクセル位置推定誤差ΔCを1/nにする必要がある。前述したが、サブピクセル推定誤差ΔCを1/n倍にするためには、パターン光の明るさ、若しくは露光量をn倍にする必要がある。Cztは以下の(式5)に従って求めることができる。 In step S215, the adjustment unit 41 obtains a triangulation error adjustment amount (triangulation correction amount) Czt using the reference distance Zb and the distance Zt. Here, the correction amount is calculated based on the characteristic that the error of triangulation increases in proportion to the square of the distance. As shown in FIG. 11, when the distance becomes n times, the distance measurement error becomes n 2 times. Therefore, in order to keep the measurement error constant, the subpixel position estimation error ΔC is reduced to 1 / n 2 . There is a need to. As described above, in order to increase the subpixel estimation error ΔC by 1 / n 2 times, it is necessary to increase the brightness of the pattern light or the exposure amount by n 4 times. Czt can be obtained according to (Equation 5) below.

Czt=(Zt/Zb) (式5)
ステップS216では、調整部41は、基準露光量Exbを光学補正量Czo及び三角測量補正量Cztを用いて調整する。例えば、以下の(式6)に従って調整する。
Czt = (Zt / Zb) 4 (Formula 5)
In step S216, the adjustment unit 41 adjusts the reference exposure amount Exb using the optical correction amount Czo and the triangulation correction amount Czt. For example, it adjusts according to the following (Formula 6).

Czo×Czt×Exb→Ext (式6)
そして、ステップS217では、調整部41は、ステップS216で調整した露光量Extを、撮像画像露光量制御部45に設定する。そして処理はステップS111に戻り、以降の処理が繰り返される。
Czo × Czt × Exb → Ext (Formula 6)
In step S217, the adjustment unit 41 sets the exposure amount Ext adjusted in step S216 in the captured image exposure amount control unit 45. Then, the process returns to step S111, and the subsequent processes are repeated.

なお、基準距離Zbと距離Ztとの比が大きい場合に、露光量Ext=露光時間とし、露光時間を(Czo×Czt)倍すると、撮像画像の飽和が発生するケースも起こる。このような場合には、Extのうち、露光時間を光学補正量Czo倍にし、撮像する画像の枚数をCzt倍にすると、撮像画像の飽和が発生せずに、計測誤差を低減することができる。   When the ratio between the reference distance Zb and the distance Zt is large, if the exposure amount Ext = exposure time and the exposure time is multiplied by (Czo × Czt), a case where the captured image is saturated may occur. In such a case, if the exposure time is set to the optical correction amount Czo times and the number of images to be picked up is Czt times in Ext, the measurement error can be reduced without causing saturation of the picked-up images. .

このように、本実施形態によれば、山積みの高さが高いケースにおいては露光量が小さく設定され、山積みの高さが低いケースにおいては露光量が大きく設定されるため、山積みの高さに応じて適切な露光量を設定することができる。つまり、山積み高さの変化に対して、撮像画像の輝度値をほぼ一定に保つことができる。また、三角測量の誤差も加味されているため、山積み高さの変化に対して、撮像画像の明るさと、計測誤差をほぼ一定に保つことができる
[第3の実施形態]
本実施形態に係る対象物ピッキングシステム8の機能構成例について、図12のブロック図を用いて説明する。図12において、図1に示した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。図12に示した構成は、対象物位置姿勢認識部7により認識された位置姿勢を、ロボット制御部62だけでなく、調整部41にも供給する点が、図1の構成と異なる。
Thus, according to the present embodiment, the exposure amount is set small in the case where the pile height is high, and the exposure amount is set large in the case where the pile height is low. An appropriate exposure amount can be set accordingly. That is, the luminance value of the captured image can be kept substantially constant with respect to the change in the pile height. In addition, since the error of triangulation is taken into consideration, the brightness of the captured image and the measurement error can be kept substantially constant with respect to the change in the pile height [Third Embodiment]
A functional configuration example of the object picking system 8 according to the present embodiment will be described with reference to the block diagram of FIG. 12, the same functional units as those shown in FIG. 1 are denoted by the same reference numerals, and the description relating to the functional units is omitted. The configuration shown in FIG. 12 is different from the configuration shown in FIG. 1 in that the position and orientation recognized by the object position and orientation recognition unit 7 are supplied not only to the robot control unit 62 but also to the adjustment unit 41.

本実施形態では、対象物に対する距離の変化による光量変化だけでなく、周辺の光量落ちによる光量変化についても考慮する。そのため、調整部41において、対象物が撮像画像内のどこに位置するのか(言い換えると、対象物が存在する範囲に対する画角が何度であるか)を把握する必要がある。従って、対象物が撮像画像内のどこに位置するのかを把握するために、対象物位置姿勢認識部7からの出力結果を用いる。   In the present embodiment, not only the light amount change due to the change in the distance to the object but also the light amount change due to the surrounding light amount drop is considered. Therefore, it is necessary for the adjusting unit 41 to grasp where the target object is located in the captured image (in other words, what is the angle of view with respect to the range in which the target object exists). Therefore, the output result from the object position / posture recognition unit 7 is used to grasp where the object is located in the captured image.

以下では、第1の実施形態との相違点について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。先ず、図13を用いて、対象物の位置姿勢と、該対象物に対する画角θと、の関係について述べる。ここで、対象物位置姿勢認識部7から出力された対象物の位置が(Xr,Yr,Zr)であるとする。座標原点Oは、画像処理部40が取り扱う座標系の原点と一致させた。奥行きZrにおけるXY平面内において、Z軸から対象物までの距離をrとするとrは以下の(式7)で算出される。   In the following, differences from the first embodiment will be mainly described, and unless otherwise noted, the same as the first embodiment. First, the relationship between the position and orientation of an object and the angle of view θ with respect to the object will be described with reference to FIG. Here, it is assumed that the position of the object output from the object position / posture recognition unit 7 is (Xr, Yr, Zr). The coordinate origin O was made to coincide with the origin of the coordinate system handled by the image processing unit 40. In the XY plane at the depth Zr, when the distance from the Z axis to the object is r, r is calculated by the following (Expression 7).

r=√(Xr+Yr) (式7)
画角θは、rとZrを用いて以下の(式8)で算出することができる。
r = √ (Xr 2 + Yr 2 ) (Formula 7)
The angle of view θ can be calculated by the following (Equation 8) using r and Zr.

θ=tan−1(r/Zr) (式8)
すなわち、対象物の位置(Xr,Yr,Zr)と、画角θと、の関係は、(式8)から把握することができる。
θ = tan −1 (r / Zr) (Formula 8)
That is, the relationship between the position (Xr, Yr, Zr) of the object and the angle of view θ can be grasped from (Equation 8).

次に、画像処理部40が、撮像部20の露光量を調整するために行う処理について、同処理のフローチャートを示す図14を用いて説明する(一部、対象物位置姿勢認識部7が実行する処理も含まれている)。図14のフローチャートに従った処理は、基準露光量Exb、基準距離Zb、基準面内位置θbを求める処理(ステップS300)と、対象物毎に該露光量を調整する処理(ステップS310)と、を有する。   Next, processing performed by the image processing unit 40 to adjust the exposure amount of the imaging unit 20 will be described with reference to FIG. 14 showing a flowchart of the processing (partly executed by the object position / posture recognition unit 7). Is also included). The processing according to the flowchart of FIG. 14 includes processing for obtaining the reference exposure amount Exb, the reference distance Zb, and the reference in-plane position θb (step S300), processing for adjusting the exposure amount for each object (step S310), Have

先ず、ステップS300における処理の詳細について、図15のフローチャートを用いて説明する。なお、図15(a)に示したフローチャート及び図15(b)に示したフローチャートは何れも、ステップS300に適用可能な処理のフローチャートである。また、図15(a)及び図15(b)において、図8に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。   First, details of the processing in step S300 will be described using the flowchart of FIG. Note that both the flowchart shown in FIG. 15A and the flowchart shown in FIG. 15B are flowcharts of processes applicable to step S300. In FIG. 15A and FIG. 15B, the same processing steps as those shown in FIG. 8 are denoted by the same step numbers, and description thereof will be omitted.

先ず、図15(a)のフローチャートに従った処理について説明する。   First, processing according to the flowchart of FIG.

ステップS306では、撮像画像露光量制御部45は、基準露光量Exbに応じて、撮像部20の露光量を制御する。また、パターン光明るさ制御部44は、現在設定されているパターン光の明るさのパラメータに応じて、投影部30から投影されるパターン光の明るさを制御する。そして、投影部30は、上記の複数枚の投影パターンから1つずつ順次選択し、該選択した投影パターンを対象物5に対して照射し、撮像部20は、該対象物5を撮像する。そして、距離算出部43は、撮像部20によって撮像されたそれぞれの撮像画像を用いて上記の処理を行うことで、撮像画像中に写っているそれぞれの対象物に対する距離を計測する。   In step S306, the captured image exposure amount control unit 45 controls the exposure amount of the imaging unit 20 in accordance with the reference exposure amount Exb. The pattern light brightness control unit 44 controls the brightness of the pattern light projected from the projection unit 30 according to the currently set pattern light brightness parameter. Then, the projection unit 30 sequentially selects one by one from the plurality of projection patterns described above, irradiates the selected projection pattern to the target object 5, and the imaging unit 20 images the target object 5. And the distance calculation part 43 measures the distance with respect to each target object reflected in the captured image by performing said process using each captured image imaged by the imaging part 20. FIG.

対象物位置姿勢認識部7は、距離算出部43が算出したそれぞれの対象物に対する距離を用いて、該対象物の位置姿勢を認識するので、調整部41は、対象物位置姿勢認識部7が認識したそれぞれの対象物の位置(Xr,Yr,Zr)を取得する。   Since the object position / posture recognition unit 7 recognizes the position / posture of the target object using the distances to the respective objects calculated by the distance calculation unit 43, the adjustment unit 41 has the object position / posture recognition unit 7 The position (Xr, Yr, Zr) of each recognized object is acquired.

ステップS307では、調整部41は、撮像画像中に写っているそれぞれの対象物に対する基準距離Zbとして、該対象物のZrを設定する。   In step S307, the adjustment unit 41 sets Zr of the target object as the reference distance Zb for each target object shown in the captured image.

ステップS308では、調整部41は、撮像画像中に写っているそれぞれの対象物に対する基準面内位置θbを、上記の(式7)及び(式8)を元にして、以下の(式9)を計算する。   In step S308, the adjustment unit 41 sets the reference in-plane position θb for each object in the captured image based on the above (Expression 7) and (Expression 8) as follows (Expression 9). Calculate

θb=tan−1(√(Xr+Yr)/Zr) (式9)
次に、図15(b)のフローチャートに従った処理について説明する。図15(b)では、山積み全体の概略距離を基準概略距離Zbとし、撮像画像の中心(画角0度の位置)を基準画角θbとする。然るに、ステップS308’では、調整部41は、撮像画像中に写っているそれぞれの対象物に共通の基準面内位置θbを0に設定する。
θb = tan −1 (√ (Xr 2 + Yr 2 ) / Zr) (Formula 9)
Next, processing according to the flowchart of FIG. In FIG. 15B, the approximate distance of the entire stack is set as the reference approximate distance Zb, and the center of the captured image (position at the angle of view of 0 degrees) is set as the reference angle of view θb. However, in step S308 ′, the adjustment unit 41 sets the reference in-plane position θb common to the respective objects shown in the captured image to 0.

次に、ステップS310における処理の詳細について、同処理のフローチャートを示す図16を用いて説明する。なお、図16において、図8に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。   Next, details of the processing in step S310 will be described with reference to FIG. 16 showing a flowchart of the processing. In FIG. 16, the same processing steps as those shown in FIG. 8 are denoted by the same step numbers, and description thereof will be omitted.

ステップS313では、対象物位置姿勢認識部7は、ステップS111で撮像された撮像画像中のそれぞれの対象物について距離算出部43が算出した距離を用いて、該対象物の位置姿勢を認識する。このとき、対象物位置姿勢認識部7は、前回調整部41に出力した対象物(候補1)の位置をロボット制御部62に対して送出すると共に、まだ出力していない1つの対象物(候補2)の位置を調整部41に出力する。ロボット制御部62には、位置だけでなく姿勢も加えて出力しても良い。   In step S313, the target position / posture recognition unit 7 recognizes the position / posture of the target using the distances calculated by the distance calculation unit 43 for each target in the captured image captured in step S111. At this time, the object position / posture recognition unit 7 sends the position of the object (candidate 1) output to the adjustment unit 41 last time to the robot control unit 62 and one object (candidate) that has not been output yet. The position of 2) is output to the adjustment unit 41. The robot controller 62 may output not only the position but also the posture.

なお、対象物位置姿勢認識部7による第1回目の出力では、候補1に該当する対象物がないので、認識したそれぞれの対象物の位置のうちZrが最も小さいものを候補1とすればよい。   In the first output by the object position / posture recognition unit 7, there is no object corresponding to candidate 1, and therefore, the candidate having the smallest Zr among the positions of the recognized objects may be used as candidate 1. .

例えば、対象物位置姿勢認識部7が、対象物1の位置姿勢、対象物2の位置姿勢、対象物3の位置姿勢、対象物4の位置姿勢を認識したとする。ここで、対象物1〜4のそれぞれのZrのうち対象物3のZrが最も小さいとする。このとき、対象物位置姿勢認識部7は、第1回目に、候補1としての対象物3の位置(姿勢を加えても良い)をロボット制御部62に出力すると共に、候補2としての対象物1の位置を調整部41に出力する。第2回目には、候補1としての対象物1の位置(姿勢を加えても良い)をロボット制御部62に出力すると共に、候補2としての対象物2の位置を調整部41に出力する。第3回目には、候補1としての対象物2の位置(姿勢を加えても良い)をロボット制御部62に出力すると共に、候補2としての対象物3の位置を調整部41に出力する。第4回目には、候補1としての対象物3の位置(姿勢を加えても良い)をロボット制御部62に出力すると共に、候補2としての対象物4の位置を調整部41に出力する。そして第5回目には、対象物4の位置をロボット制御部62に出力する。   For example, it is assumed that the object position / posture recognition unit 7 recognizes the position / posture of the target object 1, the position / posture of the target object 2, the position / posture of the target object 3, and the position / posture of the target object 4. Here, it is assumed that the Zr of the object 3 is the smallest among the Zr of the objects 1 to 4. At this time, the object position / posture recognition unit 7 outputs the position of the target object 3 as the candidate 1 (may be added a posture) to the robot control unit 62 and the target object as the candidate 2 for the first time. 1 position is output to the adjustment unit 41. In the second time, the position (position may be added) of the target object 1 as the candidate 1 is output to the robot control unit 62, and the position of the target object 2 as the candidate 2 is output to the adjustment unit 41. In the third time, the position (position may be added) of the object 2 as the candidate 1 is output to the robot control unit 62, and the position of the object 3 as the candidate 2 is output to the adjustment unit 41. In the fourth time, the position (position may be added) of the object 3 as the candidate 1 is output to the robot control unit 62, and the position of the object 4 as the candidate 2 is output to the adjustment unit 41. In the fifth time, the position of the object 4 is output to the robot controller 62.

このようにして、第2候補の位置を調整部41に出力し、前回第2候補だった対象物を今回の第1候補とし、該今回の第1候補の位置(姿勢を加えても良い)をロボット制御部62に出力する。   In this way, the position of the second candidate is output to the adjustment unit 41, the object that was the second candidate last time is set as the first candidate of the present time, and the position of the current first candidate (an attitude may be added). Is output to the robot controller 62.

ステップS314では、調整部41は、第2候補の位置(Xr2,Yr2,Zr2)を受けると、概略距離ZtにZr2を設定する。   In step S314, upon receiving the second candidate position (Xr2, Yr2, Zr2), the adjustment unit 41 sets Zr2 to the approximate distance Zt.

ステップS315では、調整部41は、基準距離Zbと概略距離Ztと、を用いて、上記の(式3)を計算することで、光学補正量Czoを求める。   In step S315, the adjustment unit 41 obtains the optical correction amount Czo by calculating the above (Equation 3) using the reference distance Zb and the approximate distance Zt.

ステップS316では、調整部41は、基準距離Zbと概略距離Ztと、を用いて、上記の(式5)を計算することで、三角測量補正量Cztを求める。   In step S316, the adjustment unit 41 obtains the triangulation correction amount Czt by calculating the above (formula 5) using the reference distance Zb and the approximate distance Zt.

ステップS317では、調整部41は、第2候補の位置(Xr2,Yr2,Zr2)を用いて上記の(式9)を計算することで、第2候補に対する画角θrを求める。   In step S317, the adjustment unit 41 calculates the above (Equation 9) using the position (Xr2, Yr2, Zr2) of the second candidate, thereby obtaining the angle of view θr for the second candidate.

ステップS319では、調整部41は、上記のステップS300(若しくはステップS300’)で計算した基準面内位置θbと、ステップS317で求めた画角θrと、を用いて以下の(式10)を計算することで、画角補正量Cθを求める。   In step S319, the adjustment unit 41 calculates the following (formula 10) using the reference in-plane position θb calculated in step S300 (or step S300 ′) and the angle of view θr calculated in step S317. Thus, the angle of view correction amount Cθ is obtained.

Cθ=cosθb/cosθr (式10)
一般的なレンズでは、コサイン4乗則と呼ばれる法則に基づいて光量落ちすることが知られている。この法則では、画角のコサイン4乗に比例して光量落ちする。
Cθ = cos 4 θb / cos 4 θr (Formula 10)
In general lenses, it is known that the amount of light falls based on a law called the cosine fourth law. According to this law, the amount of light falls in proportion to the cosine fourth power of the angle of view.

ステップS319では、調整部41は、基準露光量Exbを、以下の(式11)を計算することで調整し、該調整の結果として、第2候補に対する露光量Extを求める。   In step S319, the adjustment unit 41 adjusts the reference exposure amount Exb by calculating the following (Expression 11), and obtains the exposure amount Ext for the second candidate as a result of the adjustment.

Czo×Czt×Cθ×Exb→Ext (式11)
すなわち、調整部41は、第2候補の位置を受ける度に、該第2候補に対するExtを計算する。本実施形態では、山積みの高さに加えて、認識される対象物の画面内位置が変化しても、適切な露光量を設定することができる。画角の小さい画面中心付近では、露光量が小さく設定され、画角の大きい画面周辺部では露光量が大きく設定される。
Czo × Czt × Cθ × Exb → Ext (Formula 11)
That is, every time the adjustment unit 41 receives the position of the second candidate, the adjustment unit 41 calculates Ext for the second candidate. In the present embodiment, an appropriate exposure amount can be set even if the position of the recognized object in the screen changes in addition to the height of the stack. The exposure amount is set small near the center of the screen with a small angle of view, and the exposure amount is set large at the periphery of the screen with a large angle of view.

なお、本実施形態においては、対象物の位置姿勢認識結果を元に撮像画像内の位置を把握する例を説明したが、必ずしも対象物の位置姿勢認識結果を用いる必要はない。例えば、撮像画像中の対象物が写っているエリアを複数のエリアに分割し、分割したエリアごとに概略距離を算出する。そして、分割したエリアの中で最も概略距離が小さいエリアの中心位置を対象物が存在する位置としてもよい。   In this embodiment, the example in which the position in the captured image is grasped based on the position / orientation recognition result of the object has been described, but it is not always necessary to use the position / orientation recognition result of the object. For example, the area in which the target object in the captured image is captured is divided into a plurality of areas, and the approximate distance is calculated for each divided area. Then, the center position of the area with the smallest approximate distance among the divided areas may be set as the position where the object exists.

また、上記のステップS318では、撮像画像内の位置(画角)による周辺光量落ちはコサイン4乗則に基づくものとして定式化をしたが、これに限られるものではない。光学系の特性がコサイン4乗則に基づかない場合には、それに合わせて適切な式を用いることができる。あるいは、多項式は用いずに実測データを元に画角と明るさの関係をテーブル化し、対象物の撮像画像内の位置に応じて、対応する画角の値を参照する方法も用いることができる。   Further, in step S318 described above, the peripheral light amount drop due to the position (view angle) in the captured image is formulated based on the cosine fourth power law, but is not limited thereto. In the case where the characteristics of the optical system are not based on the cosine fourth law, an appropriate formula can be used in accordance therewith. Alternatively, a method can be used in which the relationship between the angle of view and the brightness is tabulated based on the actual measurement data without using a polynomial, and the corresponding angle of view value is referred to according to the position of the target in the captured image. .

[第4の実施形態]
画像処理部40を構成する各機能部は何れもハードウェアで構成しても良いが、ソフトウェア(コンピュータプログラム)で構成しても良い。このような場合、このコンピュータプログラムをインストールすると該コンピュータプログラムを実行する装置は、画像処理部40に適用可能である。画像処理部40に適用可能な装置のハードウェア構成例について、図18のブロック図を用いて説明する。
[Fourth Embodiment]
Each functional unit configuring the image processing unit 40 may be configured by hardware, but may be configured by software (computer program). In such a case, when this computer program is installed, an apparatus that executes the computer program can be applied to the image processing unit 40. A hardware configuration example of a device applicable to the image processing unit 40 will be described with reference to the block diagram of FIG.

CPU1601は、RAM1602やROM1603に格納されているコンピュータプログラムやデータを用いて処理を実行することで、本装置全体の動作制御を行うと共に、画像処理部40が行うものとして上述した各処理を実行する。   The CPU 1601 executes processes using computer programs and data stored in the RAM 1602 and the ROM 1603, thereby controlling the operation of the entire apparatus and executing the processes described above as performed by the image processing unit 40. .

RAM1602は、外部記憶装置1606からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1607を介して外部から受信したデータなどを一時的に記憶するためのエリアを有する。更にRAM1602は、CPU1601が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM1602は、各種のエリアを適宜提供することができる。ROM1603には、本装置の設定データやブートプログラムなどが格納されている。   The RAM 1602 has an area for temporarily storing computer programs and data loaded from the external storage device 1606, data received from the outside via an I / F (interface) 1607, and the like. Further, the RAM 1602 has a work area used when the CPU 1601 executes various processes. That is, the RAM 1602 can provide various areas as appropriate. The ROM 1603 stores setting data and a boot program for the apparatus.

操作部1604は、キーボードやマウスなどにより構成されており、本装置のユーザが操作することで、各種の指示をCPU1601に対して入力することができる。例えば、上記の調整領域の指定は、この操作部1604を操作することで指定することができる。   The operation unit 1604 is configured by a keyboard, a mouse, and the like, and various instructions can be input to the CPU 1601 by the user of the apparatus. For example, the adjustment area can be specified by operating the operation unit 1604.

表示部1605は、CRTや液晶画面等により構成されており、CPU1601による処理結果を画像や文字などでもって表示することができる。例えば、撮像画像In1や撮像画像In2を含む、調整領域を指定するための画面を表示することができる。   The display unit 1605 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 1601 with an image, text, or the like. For example, it is possible to display a screen for designating an adjustment area including the captured image In1 and the captured image In2.

外部記憶装置1606は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。この外部記憶装置1606には、OS(オペレーティングシステム)や、図1,12に示した画像処理部40内の各機能部が行うものとして上述した各処理をCPU1601に実行させるためのコンピュータプログラムやデータが保存されている。このデータには、上記の説明において既知の情報として説明した情報も含まれる。外部記憶装置1606に保存されているコンピュータプログラムやデータは、CPU1601による制御に従って適宜RAM1602にロードされ、CPU1601による処理対象となる。   The external storage device 1606 is a mass information storage device represented by a hard disk drive device. The external storage device 1606 includes a computer program and data for causing the CPU 1601 to execute the processes described above as performed by the OS (operating system) and each function unit in the image processing unit 40 illustrated in FIGS. Is saved. This data includes information described as known information in the above description. Computer programs and data stored in the external storage device 1606 are appropriately loaded into the RAM 1602 under the control of the CPU 1601 and are processed by the CPU 1601.

I/F1607は、本装置が外部機器と通信を行うためのものであり、例えば、このI/F1607には、上記の撮像部20、投影部30、対象物位置姿勢認識部7、を接続することができる。上記の各部は何れも、バス1608に接続されている。   The I / F 1607 is for the apparatus to communicate with an external device. For example, the imaging unit 20, the projection unit 30, and the object position / posture recognition unit 7 are connected to the I / F 1607. be able to. Each of the above parts is connected to the bus 1608.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (16)

投影手段によってパターンが投影された複数の対象物を撮像手段によって撮像した撮像画像を取得する取得手段と、
前記撮像画像を用いて、前記撮像手段から前記複数の対象物のそれぞれまでの距離を導出する導出手段と、
前記投影手段から投影されるパターンの明暗を制御するための第1のパラメータ、及び前記撮像手段の露光量を制御するための第2のパラメータ、のうち調整対象の調整量を、前記撮像手段から前記複数の対象物のそれぞれまでの距離に基づいて求め、該求めた調整量に従って該調整対象を調整する調整手段と
を備えることを特徴とする画像処理装置。
An acquisition unit that acquires a captured image obtained by imaging a plurality of objects on which a pattern is projected by the projection unit;
Derivation means for deriving distances from the imaging means to each of the plurality of objects using the captured image;
Of the first parameter for controlling the brightness and darkness of the pattern projected from the projection means and the second parameter for controlling the exposure amount of the imaging means, the adjustment amount of the adjustment target is obtained from the imaging means. An image processing apparatus comprising: an adjustment unit that obtains the distance to each of the plurality of objects and adjusts the adjustment object according to the obtained adjustment amount .
更に、
前記撮像画像の輝度に応じて前記第1のパラメータ及び前記第2のパラメータのうち少なくともいずれか一方を調整する第1の手段と、
前記第1の手段による調整の後、前記第1のパラメータが設定された前記投影手段によってパターンが投影された前記複数の対象物を、前記第2のパラメータが設定された前記撮像手段が撮像した撮像画像を取得し、該取得した撮像画像を用いて、前記撮像手段から前記複数の対象物のそれぞれまでの距離を求め該求めた距離から1つの距離を基準距離として算出する第2の手段と
を備え、
前記調整手段は、前記導出手段が導出した距離から1つの距離を求め、該求めた1つの距離を前記基準距離で除算して得られる演算値に基づいて前記調整量を求め、該調整量を用いて前記調整対象を調整する
ことを特徴とする請求項1に記載の画像処理装置。
Furthermore,
First means for adjusting at least one of the first parameter and the second parameter according to the brightness of the captured image;
After the adjustment by the first means, the imaging means having the second parameter set picked up the plurality of objects on which the pattern has been projected by the projection means having the first parameter set. to acquire a captured image, using the captured image the acquired determines the distance from the imaging means to the each of the plurality of objects, a second means for calculating the one distance from the distance determined the relative distance And
The adjusting unit obtains one distance from the distance derived by the deriving unit , obtains the adjustment amount based on a calculated value obtained by dividing the obtained one distance by the reference distance, and calculates the adjustment amount . The image processing apparatus according to claim 1, wherein the adjustment target is adjusted.
前記調整手段は、
前記調整対象に、前記演算値を2乗した値を乗じることで、該調整対象を調整することを特徴とする請求項2に記載の画像処理装置。
The adjusting means includes
The image processing apparatus according to claim 2, wherein the adjustment target is adjusted by multiplying the adjustment target by a value obtained by squaring the calculation value .
前記調整手段は、
前記第2のパラメータに含まれている露光時間を制御するためのパラメータに、前記演算値を2乗した値を乗じ、前記第2のパラメータに含まれている撮像の回数を制御するためのパラメータに、前記演算値を4乗した値を乗じることで、該第2のパラメータを調整することを特徴とする請求項2に記載の画像処理装置。
The adjusting means includes
A parameter for controlling the number of times of imaging included in the second parameter by multiplying a parameter for controlling the exposure time included in the second parameter by a value obtained by squaring the calculated value. The image processing apparatus according to claim 2, wherein the second parameter is adjusted by multiplying a value obtained by multiplying the calculated value to the fourth power.
前記第1の手段は、
第1のパターンが投影された前記複数の対象物の第1の撮像画像を構成する各画素の輝度値から成る輝度値波形と、該第1のパターンにおける明暗を反転させた第2のパターンが投影された前記複数の対象物の第2の撮像画像を構成する各画素の輝度値から成る輝度値波形と、の交点を求め、
該交点の数に応じて、前記調整対象を調整する
ことを特徴とする請求項2に記載の画像処理装置。
The first means includes
A luminance value waveform composed of luminance values of pixels constituting the first captured image of the plurality of objects on which the first pattern is projected, and a second pattern obtained by inverting light and darkness in the first pattern Finding the intersection of the luminance value waveform composed of the luminance value of each pixel constituting the second captured image of the projected plurality of objects,
The image processing apparatus according to claim 2, wherein the adjustment target is adjusted according to the number of the intersections.
前記第1の手段は、前記第1の撮像画像若しくは前記第2の撮像画像において非影領域として特定した領域内の画素数に対する前記交点の数の割合が閾値以下であれば、前記第1のパラメータをパターンがより暗くなるように調整する、若しくは前記第2のパラメータを露光量がより小さくなるように調整することを特徴とする請求項に記載の画像処理装置。 If the ratio of the number of intersection points to the number of pixels in the area specified as a non-shadow area in the first captured image or the second captured image is equal to or less than a threshold, the first means The image processing apparatus according to claim 5 , wherein the parameter is adjusted so that the pattern becomes darker, or the second parameter is adjusted so that the exposure amount becomes smaller. 前記第1の手段は、前記第1の撮像画像若しくは前記第2の撮像画像において非影領域として特定した領域内の画素数に対する前記交点の数の割合が閾値以下であれば、前記第1のパラメータをパターンがより暗くなるように調整する、且つ前記第2のパラメータを露光量がより小さくなるように調整することを特徴とする請求項に記載の画像処理装置。 If the ratio of the number of intersection points to the number of pixels in the area specified as a non-shadow area in the first captured image or the second captured image is equal to or less than a threshold, the first means The image processing apparatus according to claim 5 , wherein the parameter is adjusted so that the pattern becomes darker, and the second parameter is adjusted so that the exposure amount becomes smaller. 前記第1の手段は、前記第1の撮像画像若しくは前記第2の撮像画像において非影領域として特定した領域内の画素数に対する前記交点の数の割合が閾値を超えている場合には、前記交点の数に対する、画素値が飽和している画素を参照して求めた交点の数の割合を第2の割合として求め、
該第2の割合が閾値を超えている場合には、前記第1のパラメータをパターンがより暗くなるように調整する、若しくは前記第2のパラメータを露光量がより小さくなるように調整する
ことを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
When the ratio of the number of intersections to the number of pixels in the area specified as a non-shadow area in the first captured image or the second captured image exceeds the threshold, the first means The ratio of the number of intersection points obtained by referring to the pixel whose pixel value is saturated with respect to the number of intersection points is obtained as a second ratio,
When the second ratio exceeds a threshold, the first parameter is adjusted so that the pattern becomes darker, or the second parameter is adjusted so that the exposure amount becomes smaller. the image processing apparatus according to any one of claims 5 to 7, characterized.
前記第1の手段は、前記第1の撮像画像若しくは前記第2の撮像画像において非影領域として特定した領域内の画素数に対する前記交点の数の割合が閾値を超えている場合には、前記交点の数に対する、画素値が飽和している画素を参照して求めた交点の数の割合を第2の割合として求め、
該第2の割合が閾値を超えている場合には、前記第1のパラメータをパターンがより暗くなるように調整する、且つ前記第2のパラメータを露光量がより小さくなるように調整する
ことを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
When the ratio of the number of intersections to the number of pixels in the area specified as a non-shadow area in the first captured image or the second captured image exceeds the threshold, the first means The ratio of the number of intersection points obtained by referring to the pixel whose pixel value is saturated with respect to the number of intersection points is obtained as a second ratio,
When the second ratio exceeds a threshold value, the first parameter is adjusted so that the pattern becomes darker, and the second parameter is adjusted so that the exposure amount becomes smaller. the image processing apparatus according to any one of claims 5 to 7, characterized.
前記第1の手段は、前記第1の撮像画像若しくは前記第2の撮像画像において非影領域として特定した領域内の画素数に対する前記交点の数の割合が閾値を超えている場合には、前記交点の数に対する、画素値が飽和している画素を参照して求めた交点の数の割合を第2の割合として求め、
該第2の割合が閾値以下であれば、前記第1のパラメータをパターンがより明るくなるように調整する、若しくは前記第2のパラメータを露光量がより大きくなるように調整する
ことを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
When the ratio of the number of intersections to the number of pixels in the area specified as a non-shadow area in the first captured image or the second captured image exceeds the threshold, the first means The ratio of the number of intersection points obtained by referring to the pixel whose pixel value is saturated with respect to the number of intersection points is obtained as a second ratio,
If the second ratio is equal to or less than a threshold value, the first parameter is adjusted so that the pattern becomes brighter, or the second parameter is adjusted so that the exposure amount becomes larger. the image processing apparatus according to any one of claims 5 to 9.
前記第1の手段は、前記第1の撮像画像若しくは前記第2の撮像画像において非影領域として特定した領域内の画素数に対する前記交点の数の割合が閾値を超えている場合には、前記交点の数に対する、画素値が飽和している画素を参照して求めた交点の数の割合を第2の割合として求め、
該第2の割合が閾値以下であれば、前記第1のパラメータをパターンがより明るくなるように調整する、且つ前記第2のパラメータを露光量がより大きくなるように調整する
ことを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
When the ratio of the number of intersections to the number of pixels in the area specified as a non-shadow area in the first captured image or the second captured image exceeds the threshold, the first means The ratio of the number of intersection points obtained by referring to the pixel whose pixel value is saturated with respect to the number of intersection points is obtained as a second ratio,
If the second ratio is less than or equal to a threshold value, the first parameter is adjusted so that the pattern becomes brighter, and the second parameter is adjusted so that the exposure amount becomes larger. the image processing apparatus according to any of claims 5 to 9.
前記調整手段は、The adjusting means includes
前記撮像手段から前記複数の対象物のそれぞれまでの距離の平均距離、最大値、最小値、中央値の何れかに基づいて前記調整量を求めることを特徴とする請求項1乃至11の何れか1項に記載の画像処理装置。12. The adjustment amount according to claim 1, wherein the adjustment amount is obtained based on any one of an average distance, a maximum value, a minimum value, and a median value of distances from the imaging unit to each of the plurality of objects. The image processing apparatus according to item 1.
投影手段によってパターンが投影された対象物を撮像手段によって撮像した撮像画像を取得する取得手段と、An acquisition means for acquiring a captured image obtained by imaging an object on which a pattern is projected by the projection means;
前記撮像画像から認識された前記対象物の位置に基づいて、前記撮像手段から前記対象物までの距離と、前記撮像画像における前記対象物の位置と、を導出する導出手段と、Derivation means for deriving a distance from the imaging means to the object and a position of the object in the captured image based on the position of the object recognized from the captured image;
前記導出された距離と前記導出された位置とに応じて、前記投影手段から投影されるパターンの明暗を制御するための第1のパラメータ、及び前記撮像手段の露光量を制御するための第2のパラメータ、のうち少なくともいずれか一方を調整する調整手段とIn accordance with the derived distance and the derived position, a first parameter for controlling light and darkness of the pattern projected from the projection unit, and a second parameter for controlling the exposure amount of the imaging unit. Adjusting means for adjusting at least one of the parameters of
を備えることを特徴とする画像処理装置。An image processing apparatus comprising:
画像処理装置が行う画像処理方法であって、
前記画像処理装置の取得手段が、投影手段によってパターンが投影された複数の対象物を撮像手段によって撮像した撮像画像を取得する取得工程と、
前記画像処理装置の導出手段が、前記撮像画像を用いて、前記撮像手段から前記複数の対象物のそれぞれまでの距離を導出する導出工程と、
前記画像処理装置の調整手段が、前記投影手段から投影されるパターンの明暗を制御するための第1のパラメータ、及び前記撮像手段の露光量を制御するための第2のパラメータ、のうち調整対象の調整量を、前記撮像手段から前記複数の対象物のそれぞれまでの距離に基づいて求め、該求めた調整量に従って該調整対象を調整する調整工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
An acquisition step in which the acquisition unit of the image processing apparatus acquires a captured image obtained by imaging the plurality of objects on which the pattern is projected by the projection unit, by the imaging unit;
A derivation step in which a derivation unit of the image processing apparatus derives a distance from the imaging unit to each of the plurality of objects using the captured image;
Adjusting means of the image processing apparatus, a second parameter for controlling the exposure amount of the first parameter, and the image pickup means for controlling the light-dark pattern projected from the projection means, the target adjustment of the An adjustment step of obtaining the adjustment amount based on the distance from the imaging means to each of the plurality of objects, and adjusting the adjustment object according to the obtained adjustment amount .
画像処理装置が行う画像処理方法であって、An image processing method performed by an image processing apparatus,
前記画像処理装置の取得手段が、投影手段によってパターンが投影された対象物を撮像手段によって撮像した撮像画像を取得する取得工程と、An acquisition step in which the acquisition unit of the image processing apparatus acquires a captured image obtained by imaging the object on which the pattern is projected by the projection unit by the imaging unit;
前記画像処理装置の導出手段が、前記撮像画像から認識された前記対象物の位置に基づいて、前記撮像手段から前記対象物までの距離と、前記撮像画像における前記対象物の位置と、を導出する導出工程と、The derivation means of the image processing device derives the distance from the imaging means to the object and the position of the object in the captured image based on the position of the object recognized from the captured image. A derivation process to
前記画像処理装置の調整手段が、前記導出された距離と前記導出された位置とに応じて、前記投影手段から投影されるパターンの明暗を制御するための第1のパラメータ、及び前記撮像手段の露光量を制御するための第2のパラメータ、のうち少なくともいずれか一方を調整する調整工程とA first parameter for controlling light and darkness of a pattern projected from the projection unit according to the derived distance and the derived position, and an adjustment unit of the image processing apparatus; and An adjustment step of adjusting at least one of the second parameters for controlling the exposure amount;
を備えることを特徴とする画像処理方法。An image processing method comprising:
コンピュータを、請求項1乃至13の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。 A computer program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 13 .
JP2013225821A 2013-10-30 2013-10-30 Image processing apparatus and image processing method Active JP6346427B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013225821A JP6346427B2 (en) 2013-10-30 2013-10-30 Image processing apparatus and image processing method
EP14003573.4A EP2869023B1 (en) 2013-10-30 2014-10-20 Image processing apparatus, image processing method and corresponding computer program
US14/519,270 US9819872B2 (en) 2013-10-30 2014-10-21 Image processing apparatus and image processing method that adjust, based on a target object distance, at least one of brightness of emitted pattern light and an exposure amount
CN201410601537.3A CN104601899B (en) 2013-10-30 2014-10-30 Image processing apparatus and image processing method
US15/715,297 US10257428B2 (en) 2013-10-30 2017-09-26 Image processing apparatus and image processing method that adjust, based on a target object distance, at least one of brightness of emitted pattern light and an exposure amount

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013225821A JP6346427B2 (en) 2013-10-30 2013-10-30 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2015087244A JP2015087244A (en) 2015-05-07
JP6346427B2 true JP6346427B2 (en) 2018-06-20

Family

ID=53050175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013225821A Active JP6346427B2 (en) 2013-10-30 2013-10-30 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6346427B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6566832B2 (en) * 2015-10-16 2019-08-28 Ckd株式会社 3D measuring device
JP6062523B1 (en) * 2015-11-27 2017-01-18 Ckd株式会社 3D measuring device
JP6740614B2 (en) * 2016-01-14 2020-08-19 株式会社リコー Object detection device and image display device including the object detection device
JP6671977B2 (en) 2016-01-22 2020-03-25 キヤノン株式会社 MEASURING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6680628B2 (en) * 2016-06-15 2020-04-15 株式会社トプコン Laser scanner
DE102017000908A1 (en) * 2017-02-01 2018-09-13 Carl Zeiss Industrielle Messtechnik Gmbh Method for determining the exposure time for a 3D image
JP7233508B2 (en) * 2017-07-31 2023-03-06 株式会社キーエンス Shape measuring device and shape measuring method
JP6970551B2 (en) * 2017-07-31 2021-11-24 株式会社キーエンス Shape measuring device and shape measuring method
WO2021079810A1 (en) * 2019-10-23 2021-04-29 株式会社小糸製作所 Imaging device, vehicle lamp, vehicle, and imaging method
CN114520881B (en) * 2020-11-18 2023-08-18 成都极米科技股份有限公司 Exposure parameter adjustment method, device, computer equipment and readable storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000241131A (en) * 1998-12-22 2000-09-08 Matsushita Electric Ind Co Ltd Range finder device and image sensing device
DE102006048234A1 (en) * 2006-10-11 2008-04-17 Steinbichler Optotechnik Gmbh Method and device for determining the 3D coordinates of an object
JP5682134B2 (en) * 2010-04-16 2015-03-11 株式会社Ihi Three-dimensional shape measuring device, three-dimensional shape measuring additional device, and three-dimensional shape measuring method
JP5918984B2 (en) * 2011-12-06 2016-05-18 キヤノン株式会社 Information processing apparatus, information processing apparatus control method, and program
JP6112769B2 (en) * 2012-03-05 2017-04-12 キヤノン株式会社 Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2015087244A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6346427B2 (en) Image processing apparatus and image processing method
US10257428B2 (en) Image processing apparatus and image processing method that adjust, based on a target object distance, at least one of brightness of emitted pattern light and an exposure amount
CN112106105B (en) Method and system for generating three-dimensional image of object
EP2920546B1 (en) Structured light active depth sensing systems combining multiple images to compensate for differences in reflectivity and/or absorption
JP6061616B2 (en) Measuring apparatus, control method therefor, and program
JP6161276B2 (en) Measuring apparatus, measuring method, and program
US9659379B2 (en) Information processing system and information processing method
JP6444233B2 (en) Distance measuring device, distance measuring method, and program
KR20090081253A (en) Method and system for determining optimal exposure of structured light based 3d camera
JP6267486B2 (en) Image processing apparatus and image processing method
JP2016075658A (en) Information process system and information processing method
US9714829B2 (en) Information processing apparatus, assembly apparatus, information processing method, and storage medium that generate a measurement pattern having different amounts of irradiation light depending on imaging regions
US20210148694A1 (en) System and method for 3d profile determination using model-based peak selection
US10853935B2 (en) Image processing system, computer readable recording medium, and image processing method
US9560250B2 (en) Information processing apparatus, measurement system, control system, light amount determination method and storage medium
US10255687B2 (en) Distance measurement system applicable to different reflecting surfaces and operating method thereof
JP6593753B2 (en) Illuminance acquisition device, lighting control system and program
US20190301855A1 (en) Parallax detection device, distance detection device, robot device, parallax detection method, and distance detection method
CN109661683B (en) Structured light projection method, depth detection method and structured light projection device based on image content
JP2017161374A (en) Processing apparatus, processing system, imaging device, processing method, program, and recording medium
US10859506B2 (en) Image processing system for processing image data generated in different light emission states, non-transitory computer readable recording medium, and image processing method
CN114731373A (en) Method for determining one or more sets of exposure settings for a three-dimensional image acquisition process
JP2021063700A (en) Three-dimensional measuring device, computer program, control system, and method for manufacturing article
JP2020129187A (en) Contour recognition device, contour recognition system and contour recognition method
CN108332720B (en) Optical distance measuring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180525

R151 Written notification of patent or utility model registration

Ref document number: 6346427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151