JP2016169989A - Parallax image generation system and parallax image generation method - Google Patents

Parallax image generation system and parallax image generation method Download PDF

Info

Publication number
JP2016169989A
JP2016169989A JP2015048879A JP2015048879A JP2016169989A JP 2016169989 A JP2016169989 A JP 2016169989A JP 2015048879 A JP2015048879 A JP 2015048879A JP 2015048879 A JP2015048879 A JP 2015048879A JP 2016169989 A JP2016169989 A JP 2016169989A
Authority
JP
Japan
Prior art keywords
evaluation
value
parallax image
parallax
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015048879A
Other languages
Japanese (ja)
Other versions
JP6554832B2 (en
Inventor
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
大内田 茂
Shigeru Ouchida
茂 大内田
健司 永島
Kenji Nagashima
健司 永島
栄太 渡邊
Eita Watanabe
栄太 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015048879A priority Critical patent/JP6554832B2/en
Publication of JP2016169989A publication Critical patent/JP2016169989A/en
Application granted granted Critical
Publication of JP6554832B2 publication Critical patent/JP6554832B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a highly accurate parallax image in a short time.SOLUTION: The present invention comprises: a pattern projector 3 for radiating a pattern to an object; a reference image capture unit 210 and a comparison image capture unit 220 for capturing the image of the object to which the pattern is radiated; a parallax image generation unit 230 for generating a parallax image from the captured images; a parallax image evaluation unit 430 for changing the value of a parameter associated with the pattern while evaluating the parallax image, and outputting the parallax image on the basis of the evaluation result; and an object determination unit 410 for determining at least one of the size, shape, color, and light transmissivity of the object and the distance from a stereo camera 2. The parallax image evaluation unit 430 acquires a parameter value that is predetermined as a value corresponding to the determination result of the object determination unit 410 as an evaluation criterion value, and narrows down, on the basis of the acquired evaluation criterion value, an evaluation range that is a range of parameter values in which the parallax image is evaluated.SELECTED DRAWING: Figure 7

Description

本発明は、視差画像生成システムおよび視差画像生成方法に関する。   The present invention relates to a parallax image generation system and a parallax image generation method.

ステレオカメラを用いたステレオマッチング処理により、画素ごとの視差値を求めて視差画像(距離画像)を生成する技術が知られている。ステレオマッチング処理とは、撮影位置が異なる2つのカメラのうちの一方で撮像された画像(基準画像)と、他方で撮像された画像(比較画像)との間で対応する画素を探索することにより、画素ごとの視差値を求める処理である。   A technique for generating a parallax image (distance image) by obtaining a parallax value for each pixel by a stereo matching process using a stereo camera is known. Stereo matching processing refers to searching for corresponding pixels between an image (reference image) captured by one of two cameras with different shooting positions and an image captured by the other (comparison image). This is a process for obtaining a parallax value for each pixel.

しかし、ステレオマッチング処理の多くは局所的な輝度変化を手がかりとして基準画像と比較画像との間の画素の対応付けを行うため、被写体となる物体のテクスチャが弱いと視差値を求められない画素が多く発生し、精度のよい視差画像を生成することが難しい。そこで、被写体となる物体に対してパターンを照射することで人工的にテクスチャを付与し、基準画像と比較画像との間の画素の対応付けを行い易くする技術が種々提案されている。例えば特許文献1には、視差画像のノイズ量などを評価してスコアを算出し、算出したスコアが最適となるように拡大縮小率を変えた局所的独自パターンを物体に照射する技術が記載されている。   However, since many stereo matching processes associate pixels between the reference image and the comparison image using a local luminance change as a clue, if the texture of the object that is the subject is weak, there are pixels for which the parallax value cannot be obtained. Many occur and it is difficult to generate a highly accurate parallax image. Therefore, various techniques have been proposed in which texture is artificially imparted by irradiating a pattern as an object to facilitate the association of pixels between a reference image and a comparative image. For example, Patent Document 1 describes a technique for calculating a score by evaluating a noise amount of a parallax image, and irradiating an object with a local unique pattern in which the scaling ratio is changed so that the calculated score is optimal. ing.

被写体となる物体に照射されるパターンがその物体の特性に合っていない場合、信頼性の高い視差値(以下、「有効視差」と呼ぶ。)が得られる画素の数(以下、「有効視差点数」と呼ぶ。)が少なくなり、精度のよい視差画像が得られない。特許文献1に記載の技術では、視差画像のノイズ量などを評価して算出したスコアが最適となるように局所的独自パターンの拡大縮小率を変更しているが、最適なスコアが得られる局所的独自パターンの拡大縮小率を総当たり的に探索すると、最終的に精度のよい視差画像が得られるようになるまでの時間が長くなる。   If the pattern irradiated to the object that is the subject does not match the characteristics of the object, the number of pixels (hereinafter referred to as the “effective parallax score”) that provides a highly reliable parallax value (hereinafter referred to as “effective parallax”). ") And the parallax image with high accuracy cannot be obtained. In the technique described in Patent Document 1, the local original pattern enlargement / reduction ratio is changed so that the score calculated by evaluating the noise amount of the parallax image is optimal, but the locality where the optimal score is obtained is changed. If the search for the enlargement / reduction ratio of the target unique pattern is performed brute-force, it takes a long time until a parallax image with high accuracy is finally obtained.

上述した課題を解決するために、本発明は、物体にパターンを照射するパターン照射手段と、前記パターンが照射された前記物体を撮像する撮像手段と、前記撮像手段により撮像された撮像画像から視差画像を生成する生成手段と、前記パターンに関わるパラメータの値を変更しながら前記生成手段により生成される前記視差画像を評価して、評価結果に基づいて前記視差画像を出力する評価手段と、前記物体のサイズ、形状、色、光透過率、前記撮像手段からの距離の少なくとも1つを判定する判定手段と、を備え、前記評価手段は、前記判定手段の判定結果に対応する値として予め定められた前記パラメータの値を評価基準値として取得し、取得した前記評価基準値に基づいて、前記視差画像を評価する前記パラメータの値の範囲である評価範囲の絞り込みを行う。   In order to solve the above-described problem, the present invention provides a pattern irradiating unit that irradiates a pattern with an object, an imaging unit that images the object irradiated with the pattern, and a parallax from an image captured by the imaging unit. Generation means for generating an image, evaluation means for evaluating the parallax image generated by the generation means while changing a value of a parameter related to the pattern, and outputting the parallax image based on an evaluation result; Determination means for determining at least one of the size, shape, color, light transmittance, and distance from the imaging means of the object, and the evaluation means is predetermined as a value corresponding to the determination result of the determination means. The obtained parameter value is obtained as an evaluation reference value, and the parameter value range for evaluating the parallax image based on the obtained evaluation reference value. Carry out the value range of refinement.

本発明によれば、精度のよい視差画像を短時間で生成することができるという効果を奏する。   According to the present invention, there is an effect that a highly accurate parallax image can be generated in a short time.

図1は、ステレオカメラを用いて物体までの距離を算出する原理を説明する図である。FIG. 1 is a diagram for explaining the principle of calculating a distance to an object using a stereo camera. 図2は、ステレオマッチング処理の概要を説明する図である。FIG. 2 is a diagram for explaining the outline of the stereo matching process. 図3は、候補画素のコスト値とシフト量との関係を示す図である。FIG. 3 is a diagram illustrating the relationship between the cost value of the candidate pixel and the shift amount. 図4は、物体の光透過率とパターンの粒度との関係を説明する図である。FIG. 4 is a diagram for explaining the relationship between the light transmittance of an object and the pattern granularity. 図5は、実施形態のピッキングシステムの概略構成図である。FIG. 5 is a schematic configuration diagram of the picking system according to the embodiment. 図6は、実施形態のピッキングシステムのハードウェア構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a hardware configuration example of the picking system according to the embodiment. 図7は、ステレオカメラおよび情報処理装置の機能的な構成例を示すブロック図である。FIG. 7 is a block diagram illustrating a functional configuration example of the stereo camera and the information processing apparatus. 図8は、視差画像生成部の詳細な構成例を示すブロック図である。FIG. 8 is a block diagram illustrating a detailed configuration example of the parallax image generation unit. 図9は、整数視差および小数視差の算出方法を説明する図である。FIG. 9 is a diagram illustrating a method for calculating integer parallax and decimal parallax. 図10は、評価基準値記憶部が記憶する対応テーブルの一例を示す図である。FIG. 10 is a diagram illustrating an example of a correspondence table stored in the evaluation reference value storage unit. 図11は、評価範囲の絞り込みの一例を説明する図である。FIG. 11 is a diagram illustrating an example of narrowing down the evaluation range. 図12は、ピッキングシステムによる動作の流れを説明するフローチャートである。FIG. 12 is a flowchart for explaining the flow of operations by the picking system. 図13は、物体判定処理の一例を説明するフローチャートである。FIG. 13 is a flowchart illustrating an example of the object determination process. 図14は、パターン最適化処理の一例を説明するフローチャートである。FIG. 14 is a flowchart for explaining an example of the pattern optimization process. 図15は、探索方向決定処理の一例を説明するフローチャートである。FIG. 15 is a flowchart illustrating an example of the search direction determination process. 図16は、二分法を用いた評価範囲の絞り込みを説明する図である。FIG. 16 is a diagram for explaining the narrowing down of the evaluation range using the bisection method. 図17は、第2実施形態のパターン最適化処理を説明するフローチャートである。FIG. 17 is a flowchart for explaining pattern optimization processing according to the second embodiment. 図18は、第3実施形態のピッキングシステムの概略構成図である。FIG. 18 is a schematic configuration diagram of the picking system according to the third embodiment.

以下に添付図面を参照しながら、本発明に係る視差画像生成システムおよび視差画像生成方法の実施形態について詳しく説明する。   Hereinafter, embodiments of a parallax image generation system and a parallax image generation method according to the present invention will be described in detail with reference to the accompanying drawings.

本実施形態の視差画像生成システムは、パターンが照射された物体をステレオカメラで撮像し視差画像を生成する。この際、有効視差点数が多い精度のよい視差画像が得られるようにするため、被写体となる物体に照射するパターンのパラメータの値を変更しながら視差画像を評価して、評価結果が所定の基準を満たす視差画像を出力する。ここで、パターンのパラメータとは、パターンが有するテクスチャのサイズ、形状、色、密度、明度のいずれか1つ以上に関わるパラメータであり、例えばパターンの拡大縮小率やコントラストなどである。評価結果が所定の基準を満たす視差画像が得られるパターンのパラメータの値を探索する処理を以下では「パターン最適化処理」と呼ぶ。本実施形態では、このパターン最適化処理を短時間で効率よく行うために、パターンを照射する物体のサイズ、形状、色、光透過率、ステレオカメラからの距離の少なくとも1つを判定し、その判定結果に対応する値として予め定められたパラメータの値を評価基準値として取得する。そして、取得した評価基準値に基づいて、視差画像を評価するパラメータの値の範囲である評価範囲の絞り込みを行う。これにより、精度のよい視差画像を短時間で生成することができる。   The parallax image generation system of the present embodiment captures an object irradiated with a pattern with a stereo camera and generates a parallax image. At this time, in order to obtain a highly accurate parallax image having a large number of effective parallax points, the parallax image is evaluated while changing the value of the parameter of the pattern irradiated to the object as the subject, and the evaluation result is a predetermined reference A parallax image satisfying the above condition is output. Here, the pattern parameter is a parameter related to one or more of the size, shape, color, density, and brightness of the texture included in the pattern, such as a pattern enlargement / reduction ratio and contrast. Hereinafter, a process of searching for a parameter value of a pattern from which a parallax image whose evaluation result satisfies a predetermined criterion is obtained is referred to as a “pattern optimization process”. In this embodiment, in order to perform this pattern optimization process efficiently in a short time, at least one of the size, shape, color, light transmittance, and distance from the stereo camera of the object that irradiates the pattern is determined. A parameter value predetermined as a value corresponding to the determination result is acquired as an evaluation reference value. Then, based on the acquired evaluation reference value, the evaluation range that is the range of the parameter value for evaluating the parallax image is narrowed down. Thereby, an accurate parallax image can be generated in a short time.

[測距の原理]
まず、本実施形態において適用される測距の原理について、図1を参照して説明する。図1は、ステレオカメラを用いて物体までの距離を算出する原理を説明する図である。ここでは、ステレオマッチング処理によりステレオカメラにおける物体に対する視差値を求め、この視差値によって、ステレオカメラから物体までの距離を測定する。なお、以下では、説明を簡略化するため、複数の画素からなる所定領域のマッチングではなく、画素単位のマッチングを行うものとして説明する。
[Principles of ranging]
First, the principle of distance measurement applied in this embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining the principle of calculating a distance to an object using a stereo camera. Here, the parallax value for the object in the stereo camera is obtained by stereo matching processing, and the distance from the stereo camera to the object is measured by this parallax value. In the following, in order to simplify the description, it is assumed that matching is performed in units of pixels instead of matching a predetermined area composed of a plurality of pixels.

図1に示すステレオカメラは、平行等位に配置された2つの撮像部10a,10bを有する。撮像部10a,10bは、それぞれ、被写体となる物体Eの像をイメージセンサに結像させるレンズ11a,11bを有する。ここで、撮像部10aにより撮像された撮像画像(輝度画像)を基準画像Iaとし、撮像部10bにより撮像された撮像画像(輝度画像)を比較画像Ibとする。   The stereo camera shown in FIG. 1 has two imaging units 10a and 10b arranged in parallel equiposition. The imaging units 10a and 10b respectively include lenses 11a and 11b that form an image of an object E serving as a subject on an image sensor. Here, a captured image (luminance image) captured by the imaging unit 10a is referred to as a reference image Ia, and a captured image (luminance image) captured by the imaging unit 10b is referred to as a comparative image Ib.

図1において、3次元空間内の物体E上の点Sは、基準画像Iaおよび比較画像Ibそれぞれにおいて、レンズ11aとレンズ11bとを結ぶ直線と平行な直線上の位置に写像される。基準画像Iaにおいて物体E上の点Sが写像される位置を点Sa(x,y)とし、比較画像Ibにおいて物体E上の点Sが写像される位置を点Sb(X,y)とする。このとき、視差値dpは、基準画像Iaにおける点Sa(x,y)の座標値と、比較画像Ibにおける点Sb(X,y)の座標値とを用いて、下記式(1)のように表される。
dp=X−x ・・・(1)
In FIG. 1, the point S on the object E in the three-dimensional space is mapped to a position on a straight line parallel to a straight line connecting the lens 11a and the lens 11b in each of the reference image Ia and the comparison image Ib. A position where the point S on the object E is mapped in the reference image Ia is a point Sa (x, y), and a position where the point S on the object E is mapped in the comparison image Ib is a point Sb (X, y). . At this time, the parallax value dp is expressed by the following equation (1) using the coordinate value of the point Sa (x, y) in the reference image Ia and the coordinate value of the point Sb (X, y) in the comparison image Ib. It is expressed in
dp = X−x (1)

また、図1において、基準画像Iaにおける点Sa(x,y)とレンズ11aから撮像面上に下した垂線の交点との距離をΔaとし、比較画像Ibにおける点Sb(X,y)とレンズ11bから撮像面上に下した垂線の交点との距離をΔbとすると、視差値dpは、dp=Δa+Δbと表すこともできる。   In FIG. 1, the distance between the point Sa (x, y) in the reference image Ia and the intersection of the perpendicular line dropped from the lens 11a on the imaging surface is Δa, and the point Sb (X, y) in the comparative image Ib and the lens If the distance from the intersection of the perpendicular line dropped from 11b to the imaging surface is Δb, the parallax value dp can also be expressed as dp = Δa + Δb.

視差値dpを用いることにより、ステレオカメラと物体Eとの間の距離Zを算出することができる。距離Zは、レンズ11aの焦点位置とレンズ11bの焦点位置とを結ぶ直線から物体E上の点Sまでの距離である。図1に示すように、レンズ11a,11bの焦点距離f、レンズ11aとレンズ11bとの間の長さである基線長B、および視差値dpを用いて、下記式(2)により、距離Zを算出することができる。
Z=(B×f)/dp ・・・(2)
この式(2)から分かるように、視差値dpが大きいほど距離Zは小さく、視差値dpが小さいほど距離Zは大きくなる。
By using the parallax value dp, the distance Z between the stereo camera and the object E can be calculated. The distance Z is a distance from a straight line connecting the focal position of the lens 11a and the focal position of the lens 11b to a point S on the object E. As shown in FIG. 1, using the focal length f of the lenses 11a and 11b, the baseline length B which is the length between the lenses 11a and 11b, and the parallax value dp, the distance Z Can be calculated.
Z = (B × f) / dp (2)
As can be seen from Equation (2), the distance Z decreases as the parallax value dp increases, and the distance Z increases as the parallax value dp decreases.

[ステレオマッチング処理]
次に、基準画像Iaに対して比較画像Ibにおける対応画素を求めるステレオマッチング処理の概要について説明する。ここで、対応画素とは、基準画像Iaにおける画素(以下、「基準画素」と呼ぶ。)に最も類似する比較画像Ib内の画素のことをいう。ステレオマッチング処理では、比較画像Ibにおける対応画素の候補について、それぞれ基準画素に対する非類似度を表すコスト値Cを算出し、コスト値Cが最小値となる候補を対応画素として求める。基準画素に対応する対応画素が一意に求まれば、例えば上記式(1)により、その画素について信頼性の高い視差値dpを算出することができる。視差画像は、基準画素を視差値dpで表した画像である。したがって、信頼性の高い視差値dp(有効視差)を算出できた基準画素の数(有効視差点数)が多いほど、精度のよい視差画像となる。なお、有効視差を算出できない基準画素については、例えば視差値dpを「0」として視差画像が構成される。
[Stereo matching processing]
Next, an outline of stereo matching processing for obtaining corresponding pixels in the comparison image Ib with respect to the reference image Ia will be described. Here, the corresponding pixel refers to a pixel in the comparison image Ib that is most similar to a pixel in the reference image Ia (hereinafter referred to as “reference pixel”). In the stereo matching process, for each corresponding pixel candidate in the comparison image Ib, a cost value C representing the degree of dissimilarity with respect to the reference pixel is calculated, and a candidate having the minimum cost value C is obtained as the corresponding pixel. If the corresponding pixel corresponding to the reference pixel is uniquely determined, for example, the highly reliable parallax value dp can be calculated for the pixel by the above equation (1). The parallax image is an image in which the reference pixel is represented by a parallax value dp. Therefore, as the number of reference pixels (effective parallax points) for which a highly reliable parallax value dp (effective parallax) can be calculated, the parallax image becomes more accurate. For reference pixels for which effective parallax cannot be calculated, a parallax image is configured with a parallax value dp of “0”, for example.

図2は、ステレオマッチング処理の概要を説明する図である。図2(a)は、基準画像Iaにおける基準画素pの一例p(x,y)を示す概念図であり、図2(b)は、図2(a)に示す基準画素p(x,y)に対応する比較画像Ibにおける対応画素の候補(以下、「候補画素」と呼ぶ。)の一例q(x+d,y)を示す概念図である。図2に示すように、基準画素p(x,y)に対応する比較画像Ib内のエピポーラ線EL上の各候補画素q(x+d,y)の輝度値を求めて基準画素p(x,y)の輝度値と比較することにより、各候補画素q(x+d,y)のコスト値C(p,d)が算出される。dは、基準画素pに対する候補画素qのシフト量(ずれ量)であり、ここでは画素単位のシフト量を表している。すなわち、図2では、候補画素q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次1画素ずつシフトさせながら、候補画素q(x+d,y)と基準画素p(x,y)との輝度値の非類似度を表すコスト値C(p,d)が算出される。   FIG. 2 is a diagram for explaining the outline of the stereo matching process. FIG. 2A is a conceptual diagram showing an example p (x, y) of the reference pixel p in the reference image Ia, and FIG. 2B is a reference pixel p (x, y shown in FIG. 2A. ) Is a conceptual diagram illustrating an example q (x + d, y) of a corresponding pixel candidate (hereinafter referred to as “candidate pixel”) in the comparison image Ib corresponding to FIG. As shown in FIG. 2, the luminance value of each candidate pixel q (x + d, y) on the epipolar line EL in the comparison image Ib corresponding to the reference pixel p (x, y) is obtained and the reference pixel p (x, y) is obtained. ), The cost value C (p, d) of each candidate pixel q (x + d, y) is calculated. d is a shift amount (shift amount) of the candidate pixel q with respect to the reference pixel p, and represents a shift amount in pixel units here. That is, in FIG. 2, the candidate pixel q (x + d, y) and the reference pixel p are sequentially shifted pixel by pixel within a predetermined range (for example, 0 <d <25). A cost value C (p, d) representing the dissimilarity of the luminance value with (x, y) is calculated.

なお、上述のように、撮像部10a,10bは平行等位に配置されるため、基準画像Iaにおける基準画素pに対応する比較画像Ibにおける対応画素は、図2に示すエピポーラ線EL上に存在することになる。したがって、比較画像Ibにおける対応画素を求めるためには、比較画像Ib内のエピポーラ線EL上の画素を探索すればよい。   As described above, since the imaging units 10a and 10b are arranged in parallel equivalence, the corresponding pixel in the comparison image Ib corresponding to the reference pixel p in the reference image Ia exists on the epipolar line EL shown in FIG. Will do. Therefore, in order to obtain the corresponding pixel in the comparison image Ib, it is only necessary to search for a pixel on the epipolar line EL in the comparison image Ib.

このようにして算出されたコスト値Cは、シフト量dとの関係で、図3に示すようなグラフによって表すことができる。図3の例では、コスト値Cは、シフト量d=5,12,19の場合が「0」となるため、最小値を求めることができない。例えば、テクスチャが弱い物体を被写体とする場合には、基準画素pと同じ輝度値を持つ候補画素qが多く存在するため、このようにコスト値Cの最小値を求めることが困難となる。その結果、基準画素pに対応する対応画素を一意に特定することができず(ミスマッチが生じ)、信頼性の高い視差値dpを算出することができない。   The cost value C calculated in this way can be represented by a graph as shown in FIG. 3 in relation to the shift amount d. In the example of FIG. 3, the cost value C is “0” when the shift amount d = 5, 12, and 19, and thus the minimum value cannot be obtained. For example, when an object having a weak texture is used as a subject, there are many candidate pixels q having the same luminance value as the reference pixel p, and thus it is difficult to obtain the minimum value of the cost value C in this way. As a result, the corresponding pixel corresponding to the reference pixel p cannot be uniquely identified (a mismatch occurs), and the highly reliable parallax value dp cannot be calculated.

このような問題は、被写体となる物体にパターンを照射して人工的にテクスチャを付与することにより改善される。ここでの「テクスチャ」とは、例えば画像上の各画素の明暗として現れ得る模様、柄、パターン、色、ドットなどをいう。物体に照射するパターンは、複数の明度を有するパターンや二次元の乱数パターンであることが好ましい。ただし、繰返し周期を持つパターンはコスト値Cの値が繰り返す場合があるため、好ましくない。   Such a problem is improved by artificially imparting a texture by irradiating an object as a subject with a pattern. Here, “texture” refers to a pattern, pattern, pattern, color, dot, or the like that can appear as the brightness of each pixel on the image, for example. The pattern irradiated on the object is preferably a pattern having a plurality of brightness values or a two-dimensional random number pattern. However, a pattern having a repetition period is not preferable because the cost value C may be repeated.

また、物体に照射するパターンは、物体のサイズ、形状、色、光透過率、ステレオカメラからの距離などに応じて最適なパターンが異なることが分かってきた。例えば、物体の光透過率を例に挙げると、光透過率が高い物体に対して粒度が細かすぎるパターン(テクスチャのサイズが小さすぎるパターン)を照射した場合、物体の表面で拡散反射した光と物体を透過して別の面で拡散反射した光とが干渉することの影響などによりテクスチャが消滅することがある。その結果、類似した輝度値がステレオマッチング処理における探索方向に並んでしまうことが多くなり、有効視差点数が減少して視差画像の精度が低下する。また、例えば、光透過率が低い物体に対してコントラストが高すぎるパターンを照射した場合、物体表面の反射光量が大きいために明度が高いテクスチャに対応する画素の輝度値が飽和してしまう場合がある。その結果、正しい輝度値が得られない画素が多くなり、有効視差点数が減少して視差画像の精度が低下する。   Further, it has been found that the optimum pattern for irradiating an object differs depending on the size, shape, color, light transmittance, distance from the stereo camera, and the like of the object. For example, when the light transmittance of an object is taken as an example, when an object having a high light transmittance is irradiated with a pattern with too fine particle size (pattern with a too small texture size), the light diffusely reflected on the surface of the object The texture may disappear due to the influence of interference with light that is transmitted through the object and diffusely reflected on another surface. As a result, similar luminance values are often arranged in the search direction in the stereo matching process, and the number of effective parallax points is reduced, thereby reducing the accuracy of the parallax image. Also, for example, when an object with low light transmittance is irradiated with a pattern with too high contrast, the luminance value of a pixel corresponding to a texture with high brightness may be saturated due to the large amount of reflected light on the object surface. is there. As a result, the number of pixels from which a correct luminance value cannot be obtained increases, the number of effective parallax points decreases, and the accuracy of the parallax image decreases.

図4は、物体の光透過率とパターンの粒度との関係を説明する図である。図4では、光透過率が低い物体である不透明体と、光透過率が高い物体である半透明体とに対して、粒度が細かいパターンを照射したときに得られる輝度画像(基準画像または比較画像)および視差画像と、粒度が粗いパターンを照射したときに得られる輝度画像および視差画像とをそれぞれ示している。図4に示す視差画像は、便宜上、有効視差が得られた画素をグレーで示し、有効視差が得られなかった画素を黒で示している。   FIG. 4 is a diagram for explaining the relationship between the light transmittance of an object and the pattern granularity. In FIG. 4, a luminance image (reference image or comparison) obtained when an opaque body that is an object with low light transmittance and a translucent body that is an object with high light transmittance are irradiated with a pattern with a fine particle size. (Image) and a parallax image, and the brightness | luminance image and parallax image obtained when a pattern with coarse particle size is irradiated, respectively. In the parallax image shown in FIG. 4, for convenience, pixels for which effective parallax is obtained are shown in gray, and pixels for which effective parallax is not obtained are shown in black.

図4に示すように、被写体となる物体が不透明体の場合、粒度が粗いパターンを照射した場合よりも粒度が細かいパターンを照射した場合の方が、視差画像における有効視差点数が多くなり、精度のよい視差画像を得ることができる。一方、被写体となる物体が半透明体の場合には、粒度が細かいパターンを照射すると輝度画像がぼやけてテクスチャが消滅し、視差画像における有効視差点数が大幅に減少するが、粒度の粗いパターンを照射するとテクスチャが塊として残るため、有効視差点数が多くなり、精度のよい視差画像を得ることができる。   As shown in FIG. 4, when the object that is the subject is an opaque body, the number of effective parallax points in the parallax image is greater when the pattern with the finer particle size is irradiated than when the pattern with the coarser particle size is irradiated. A good parallax image can be obtained. On the other hand, when the subject object is a semi-transparent object, when a pattern with a fine grain size is irradiated, the luminance image is blurred and the texture disappears, and the number of effective parallax points in the parallax image is greatly reduced. Since the texture remains as a lump when irradiated, the number of effective parallax points increases, and an accurate parallax image can be obtained.

以上の例で示すように、精度のよい視差画像を得るために最適なパターンは、被写体となる物体の透過率に応じて異なる。また、物体の透過率だけでなく、物体のサイズ、形状、色、ステレオカメラからの距離などによっても、精度のよい視差画像を得るための最適なパターンが異なる。物体に対して最適なパターンを探す方法としては、パターンに関わるパラメータ(例えばパターンの拡大縮小率やコントラスト)の最適値を総当たり的に探索する方法があるが、この方法では最終的に精度のよい視差画像を得るまでの所要時間が長くなる。そこで、本実施形態では、被写体となる物体のサイズ、形状、色、光透過率、ステレオカメラからの距離の少なくとも1つを判定し、その判定結果に対応する値として予め定められたパラメータの値を評価基準値として取得する。そして、取得した評価基準値に基づいて、視差画像を評価するパラメータの値の範囲である評価範囲の絞り込みを行う。本実施形態では、このようなパターン最適化処理を行うことで、精度のよい視差画像を短時間で生成できるようにしている。   As shown in the above example, the optimum pattern for obtaining a highly accurate parallax image varies depending on the transmittance of the object that is the subject. Also, the optimum pattern for obtaining a highly accurate parallax image differs depending not only on the transmittance of the object but also on the size, shape, color, distance from the stereo camera, and the like of the object. As a method of searching for an optimum pattern for an object, there is a method of searching for an optimum value of parameters related to the pattern (for example, pattern enlargement / reduction ratio and contrast). The time required to obtain a good parallax image becomes longer. Therefore, in the present embodiment, at least one of the size, shape, color, light transmittance, and distance from the stereo camera of the object that is the subject is determined, and a parameter value determined in advance as a value corresponding to the determination result Is obtained as an evaluation reference value. Then, based on the acquired evaluation reference value, the evaluation range that is the range of the parameter value for evaluating the parallax image is narrowed down. In the present embodiment, by performing such pattern optimization processing, a highly accurate parallax image can be generated in a short time.

[第1実施形態]
次に、本発明に係る視差画像生成システムを適用した具体的なシステムの一例として、製品の組み立て工場などにおいて、前工程から搬送された部品や半完成品、完成品などの物体を自動認識し、ロボットアームを用いて物体のピッキングを行うピッキングシステムについて説明する。このピッキングシステムでは、例えば、搬送用トレイ内に平置き、あるいはバラ積みされた状態で、ベルトコンベアなどにより前工程から搬送された物体を被写体としてステレオカメラによる撮像を行って視差画像を生成し、この視差画像をもとに物体の三次元の位置を認識してピッキングを行う。このピッキングシステムは、ピッキング対象となる物体に対し、上述したパターン最適化処理を行うことで、精度のよい視差画像を短時間で生成することができ、ピッキング動作のタクトタイムを短縮することができる。
[First Embodiment]
Next, as an example of a specific system to which the parallax image generation system according to the present invention is applied, a product assembly factory or the like automatically recognizes an object such as a part, a semi-finished product, or a finished product conveyed from a previous process. A picking system for picking an object using a robot arm will be described. In this picking system, for example, a parallax image is generated by performing imaging with a stereo camera on an object conveyed from a previous process by a belt conveyor or the like in a state of being placed flat or stacked in a conveyance tray, Picking is performed by recognizing the three-dimensional position of the object based on the parallax image. This picking system can generate a highly accurate parallax image in a short time by performing the above-described pattern optimization processing on the object to be picked, and can shorten the tact time of the picking operation. .

(全体構成)
図5は、本実施形態のピッキングシステム1の概略構成図である。このピッキングシステム1は、図5に示すように、ステレオカメラ2と、パターン投光器3(パターン照射手段の一例)と、情報処理装置4と、アーム制御装置5とを備える。
(overall structure)
FIG. 5 is a schematic configuration diagram of the picking system 1 of the present embodiment. As shown in FIG. 5, the picking system 1 includes a stereo camera 2, a pattern projector 3 (an example of a pattern irradiation unit), an information processing device 4, and an arm control device 5.

ステレオカメラ2は、2つの撮像部により被写体である物体を撮像し、上述した基準画像および比較画像となる2つの撮像画像(輝度画像)から視差画像を生成して出力する。ステレオカメラ2の機能の詳細については後述する。なお、ステレオカメラ2は3つ以上の撮像部により物体を撮像して視差画像を生成する構成であってもよいが、本実施形態では2つの撮像部を有する構成であるものとする。   The stereo camera 2 captures an object that is a subject using two image capturing units, generates a parallax image from the two captured images (luminance images) serving as the reference image and the comparison image, and outputs the parallax image. Details of the functions of the stereo camera 2 will be described later. Note that the stereo camera 2 may be configured to generate a parallax image by capturing an object with three or more image capturing units. However, in the present embodiment, the stereo camera 2 is configured to include two image capturing units.

パターン投光器3は、被写体となる物体に対してパターンを照射して、物体にテクスチャを付与する。本実施形態では、このパターン投光器3が物体に照射するパターンのパラメータ(例えば拡大縮小率やコントラストなど)の値が、パターン最適化処理によって最適化されることにより、精度のよい視差画像が生成される。また、パターン投光器3は、後述する物体判定用の光を物体に照射する機能も有する。   The pattern projector 3 irradiates a pattern on an object that is a subject and gives a texture to the object. In the present embodiment, a parallax image with high accuracy is generated by optimizing the values of the parameters (for example, the enlargement / reduction ratio and contrast) of the pattern that the pattern projector 3 irradiates the object with the pattern optimization process. The The pattern projector 3 also has a function of irradiating an object with light for object determination described later.

情報処理装置4は、ステレオカメラ2により生成された視差画像を評価し、評価結果が所定の基準を満たす視差画像を用いて物体の認識処理を行う。また、情報処理装置4は、視差画像を評価する際に、上述したようなパターン最適化処理を行う。情報処理装置4の機能の詳細については後述する。   The information processing apparatus 4 evaluates the parallax image generated by the stereo camera 2 and performs object recognition processing using the parallax image whose evaluation result satisfies a predetermined criterion. The information processing apparatus 4 performs the pattern optimization process as described above when evaluating the parallax image. Details of the functions of the information processing apparatus 4 will be described later.

アーム制御装置5は、情報処理装置4による物体に対する認識結果に基づいて、多関節ロボットであるロボットアーム6の動作を制御し、搬送用トレイ7内の物体のピッキングを行う。   The arm control device 5 controls the operation of the robot arm 6, which is an articulated robot, based on the recognition result of the object by the information processing device 4, and picks the object in the transfer tray 7.

(ハードウェア構成)
図6は、本実施形態のピッキングシステム1のハードウェア構成例を示すブロック図である。図6に示すように、ステレオカメラ2は、2つの撮像部10a,10bと、FPGA(Field−Programmable Gate Array)11とを備える。FPGA11には、2つの撮像部10a,10bによる撮像画像から視差画像を生成するためのプログラムが実装されている。
(Hardware configuration)
FIG. 6 is a block diagram illustrating a hardware configuration example of the picking system 1 of the present embodiment. As shown in FIG. 6, the stereo camera 2 includes two imaging units 10 a and 10 b and an FPGA (Field-Programmable Gate Array) 11. The FPGA 11 is equipped with a program for generating a parallax image from images captured by the two imaging units 10a and 10b.

情報処理装置4は、図6に示すように、CPU12、ROM13、RAM14、ROMI/F15、RAMI/F16、およびI/F17〜19などを備えた汎用のコンピュータ装置として構成される。CPU12は、情報処理装置4の各機能を実現させるための演算を実行する演算装置である。ROM13は、プログラムやデータを記憶する不揮発性メモリである。RAM14は、CPU12がプログラムを実行するためのワークエリアとして利用されるメインメモリである。また、RAM14は、ステレオカメラ2から情報処理装置4に送られた撮像画像(輝度画像)や視差画像を一時的に格納する画像メモリとしても用いられる。   As illustrated in FIG. 6, the information processing apparatus 4 is configured as a general-purpose computer apparatus including a CPU 12, a ROM 13, a RAM 14, a ROM I / F 15, a RAM I / F 16, and I / Fs 17 to 19. The CPU 12 is an arithmetic device that executes arithmetic operations for realizing each function of the information processing device 4. The ROM 13 is a non-volatile memory that stores programs and data. The RAM 14 is a main memory used as a work area for the CPU 12 to execute a program. The RAM 14 is also used as an image memory that temporarily stores captured images (luminance images) and parallax images sent from the stereo camera 2 to the information processing device 4.

ROMI/F15は、CPU12がROM13にアクセスするためのインターフェースであり、RAMI/F16は、CPU12がRAM14にアクセスするためのインターフェースである。I/F17〜19は、情報処理装置4とステレオカメラ2、パターン投光器3およびアーム制御装置5とを接続するためのインターフェースである。なお、情報処理装置4には、例えばハードディスク装置などの大容量記憶装置が内蔵または外付けで設けられていてもよい。   The ROM I / F 15 is an interface for the CPU 12 to access the ROM 13, and the RAM I / F 16 is an interface for the CPU 12 to access the RAM 14. The I / Fs 17 to 19 are interfaces for connecting the information processing device 4 to the stereo camera 2, the pattern projector 3, and the arm control device 5. The information processing apparatus 4 may be provided with a large-capacity storage device such as a hard disk device, for example, or may be provided externally.

情報処理装置4の主要な機能は、例えば、CPU12がRAM14をワークエリアとして利用して、ROM13やハードディスク装置に格納されたプログラムを実行することにより実現される。   The main functions of the information processing apparatus 4 are realized, for example, when the CPU 12 uses the RAM 14 as a work area and executes a program stored in the ROM 13 or the hard disk device.

(ステレオカメラおよび情報処理装置の機能構成)
図7は、ステレオカメラ2および情報処理装置4の機能的な構成例を示すブロック図である。図7に示すように、ステレオカメラ2は、上述した2つの撮像部10a,10bにより実現される基準画像撮像部210および比較画像撮像部220(撮像手段)と、上述したFPGA11により実現される視差画像生成部230(生成手段)とを備える。また、情報処理装置4は、例えば上述したCPU12がプログラムを実行することにより実現される機能的な構成要素として、物体判定部410(判定手段)と、視差画像評価部430(評価手段)と、認識処理部440とを備える。また、情報処理装置4は、ROM13やハードディスク装置により実現される評価基準値記憶部420を備える。
(Functional configuration of stereo camera and information processing device)
FIG. 7 is a block diagram illustrating a functional configuration example of the stereo camera 2 and the information processing apparatus 4. As illustrated in FIG. 7, the stereo camera 2 includes a parallax realized by the reference image capturing unit 210 and the comparative image capturing unit 220 (imaging unit) realized by the two imaging units 10 a and 10 b described above and the FPGA 11 described above. An image generation unit 230 (generation means). The information processing apparatus 4 includes, for example, an object determination unit 410 (determination unit), a parallax image evaluation unit 430 (evaluation unit), and the like as functional components realized by the CPU 12 executing the program. A recognition processing unit 440. Further, the information processing apparatus 4 includes an evaluation reference value storage unit 420 realized by the ROM 13 or the hard disk device.

基準画像撮像部210は、被写体となる物体を撮像し、上述した基準画像Iaとなる輝度画像を撮像画像として出力する。また、比較画像撮像部220は、基準画像撮像部210とは異なる位置から被写体となる物体を撮像し、上述した比較画像Ibとなる輝度画像を撮像画像として出力する。これら基準画像撮像部210および比較画像撮像部220からの輝度画像は、視差画像生成部230に入力される。また、基準画像撮像部210からの輝度画像(基準画像Ia)は、情報処理装置4の認識処理部440にも入力される。さらに、物体判定用の光が照射された物体を基準画像撮像部210が撮像することで得られる輝度画像は、情報処理装置4の物体判定部410に入力される。   The reference image capturing unit 210 captures an object that is a subject, and outputs a luminance image that is the reference image Ia described above as a captured image. The comparative image capturing unit 220 captures an object that is a subject from a position different from that of the reference image capturing unit 210, and outputs a luminance image that is the above-described comparative image Ib as a captured image. The luminance images from the reference image capturing unit 210 and the comparative image capturing unit 220 are input to the parallax image generating unit 230. The luminance image (reference image Ia) from the reference image capturing unit 210 is also input to the recognition processing unit 440 of the information processing device 4. Further, the luminance image obtained by the reference image capturing unit 210 capturing an object irradiated with the object determination light is input to the object determining unit 410 of the information processing device 4.

視差画像生成部230は、基準画像撮像部210からの輝度画像(基準画像Ia)と、比較画像撮像部220からの輝度画像(比較画像Ib)とを用いて、視差画像を生成する。視差画像生成部230が生成した視差画像は、情報処理装置4の視差画像評価部430に入力される。図8は、視差画像生成部230の詳細な構成例を示すブロック図である。図8に示すように、視差画像生成部230は、フィルタ部231,232と、コスト算出部233と、整数視差算出部234と、少数視差算出部235とを備える。   The parallax image generation unit 230 generates a parallax image using the luminance image (reference image Ia) from the reference image imaging unit 210 and the luminance image (comparison image Ib) from the comparative image imaging unit 220. The parallax image generated by the parallax image generation unit 230 is input to the parallax image evaluation unit 430 of the information processing device 4. FIG. 8 is a block diagram illustrating a detailed configuration example of the parallax image generation unit 230. As illustrated in FIG. 8, the parallax image generation unit 230 includes filter units 231 and 232, a cost calculation unit 233, an integer parallax calculation unit 234, and a minority parallax calculation unit 235.

フィルタ部231,232は、それぞれ、基準画像撮像部210からの輝度画像(基準画像Ia)と、比較画像撮像部220からの輝度画像(比較画像Ib)に対し、ノイズの除去や高域を強調するためのフィルタリング処理を行う。   The filter units 231 and 232 respectively remove noise and enhance high frequencies for the luminance image (reference image Ia) from the reference image imaging unit 210 and the luminance image (comparison image Ib) from the comparative image imaging unit 220. To perform filtering processing.

コスト算出部233は、上述したように、基準画像Iaにおける基準画素pの輝度値と、比較画像Ibにおける各候補画素qの輝度値とに基づき、各候補画素qのコスト値Cを算出する。コスト算出部233によるコスト値Cの算出方法としては、例えば、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、またはNCC(Normalized Cross−Correlation)などの公知の方法を用いることができる。   As described above, the cost calculation unit 233 calculates the cost value C of each candidate pixel q based on the luminance value of the reference pixel p in the reference image Ia and the luminance value of each candidate pixel q in the comparison image Ib. As a calculation method of the cost value C by the cost calculation unit 233, for example, a known method such as SAD (Sum of Absolute Difference), SSD (Sum of Squared Difference), or NCC (Normalized Cross-Correlation) can be used. .

整数視差算出部234および小数視差算出部235は、コスト算出部233により算出された各候補画素qのコスト値Cに基づき、1画素よりも小さいサブピクセル単位で視差値dpを算出する。以下では、1画素単位で算出される視差値dpを整数視差Δと呼び、サブピクセル単位で算出される視差値dpを小数視差δと呼ぶ。図9は、整数視差Δおよび小数視差δの算出方法を説明する図である。   The integer parallax calculation unit 234 and the decimal parallax calculation unit 235 calculate the parallax value dp in sub-pixel units smaller than one pixel based on the cost value C of each candidate pixel q calculated by the cost calculation unit 233. Hereinafter, the parallax value dp calculated in units of one pixel is referred to as integer parallax Δ, and the parallax value dp calculated in units of subpixels is referred to as decimal parallax δ. FIG. 9 is a diagram for explaining a method of calculating the integer parallax Δ and the decimal parallax δ.

整数視差算出部234では、図9に示すように、各候補画素qごと(つまり基準画素pからのシフト量dごと)に算出されるコスト値Cが最小となるシフト量dが探索される。そして、コスト値Cが最小となるシフト量dの値が整数視差Δとして算出される。小数視差算出部235では、視差値dpを小数まで追求するために、サブピクセル推定手法を使って図9に示す小数視差δが算出される。例えば等角直線法では、整数視差算出部234により算出された整数視差Δを中心として、dの値がひとつ小さいΔ−1とdの値がひとつ大きいΔ+1の合計3つの候補画素に対応する3つのコスト値Cを使って、小数視差δが算出される。また、パラボラフィット法や多項式による近似手法では、上記の3つのコスト値Cを使って小数視差δを算出してもよいし、図9のΔ−2、Δ−1、Δ、Δ+1、Δ+2に対応する5つのコスト値Cを使って小数視差δを算出してもよい。これらに限らず、所望のサブピクセル推定手法を用いて小数視差δを算出してもよい。   As shown in FIG. 9, the integer parallax calculation unit 234 searches for a shift amount d that minimizes the cost value C calculated for each candidate pixel q (that is, for each shift amount d from the reference pixel p). Then, the value of the shift amount d that minimizes the cost value C is calculated as the integer parallax Δ. In the decimal parallax calculation unit 235, the decimal parallax δ shown in FIG. 9 is calculated using the subpixel estimation method in order to pursue the parallax value dp to the decimal. For example, in the equiangular straight line method, the integer parallax Δ calculated by the integer parallax calculation unit 234 is the center, and 3 corresponding to a total of three candidate pixels of Δ−1 having a smaller value of d and Δ + 1 having a larger value of d. The decimal parallax δ is calculated using one cost value C. Further, in the parabolic fit method or the approximation method using a polynomial, the decimal parallax δ may be calculated using the above three cost values C, and Δ-2, Δ-1, Δ, Δ + 1, Δ + 2 in FIG. The decimal parallax δ may be calculated using the corresponding five cost values C. Not limited to these, the decimal parallax δ may be calculated using a desired subpixel estimation method.

視差画像生成部230では、基準画像Ia内の基準画素pのそれぞれについて、コスト算出部233で候補画素qのコスト値Cを算出し、整数視差算出部234および小数視差算出部235で少数視差δを算出する。これにより、物体の三次元情報を表す視差画像が生成される。なお、視差画像生成部230は、基準画像撮像部210から入力した基準画像Iaや比較画像撮像部220から入力した比較画像Ibに対して、歪み補正処理などの処理を施す前処理部を備えていてもよい。基準画像Iaと比較画像Ibの歪み状態はコスト算出部233で算出するコスト値Cの結果に大きな影響を与える場合があるため、コスト値Cの算出前に歪み補正処理を行うことが有効である。また、基準画像撮像部210や比較画像撮像部220におけるレンズとセンサの光軸ずれや、レンズの光学的歪み状態が基準画像Iaと比較画像Ibとで異なる場合は、その歪みを補正するための歪み補正パラメータを前処理部において保持し、キャリブレーション結果を歪み補正パラメータに反映させるといった対策を講じることも有効である。   In the parallax image generation unit 230, for each reference pixel p in the reference image Ia, the cost calculation unit 233 calculates the cost value C of the candidate pixel q, and the integer parallax calculation unit 234 and the decimal parallax calculation unit 235 calculate the minority parallax δ. Is calculated. Thereby, a parallax image representing the three-dimensional information of the object is generated. The parallax image generation unit 230 includes a pre-processing unit that performs processing such as distortion correction processing on the reference image Ia input from the reference image imaging unit 210 and the comparison image Ib input from the comparative image imaging unit 220. May be. Since the distortion states of the reference image Ia and the comparison image Ib may greatly affect the result of the cost value C calculated by the cost calculation unit 233, it is effective to perform distortion correction processing before calculating the cost value C. . In addition, when the optical axis shift between the lens and the sensor in the reference image capturing unit 210 and the comparative image capturing unit 220 and the optical distortion state of the lens are different between the reference image Ia and the comparative image Ib, the distortion is corrected. It is also effective to take measures such as holding the distortion correction parameter in the preprocessing unit and reflecting the calibration result in the distortion correction parameter.

図7に戻り、物体判定部410は、ピッキング対象となる物体について、サイズ、形状、色、光透過率、ステレオカメラ2からの距離の少なくとも1つを判定する。物体判定部410による判定の方法としては様々な方法を用いることができるが、ここでは、一例として、ステレオカメラ2により撮像された物体の撮像画像(輝度画像)を用いて判定する例について説明する。   Returning to FIG. 7, the object determination unit 410 determines at least one of the size, shape, color, light transmittance, and distance from the stereo camera 2 for the object to be picked. Various methods can be used as the determination method by the object determination unit 410. Here, as an example, an example of determination using a captured image (luminance image) of an object captured by the stereo camera 2 will be described. .

物体判定部410は、例えば、ピッキングシステム1によるピッキング動作の開始時やピッキング回数が所定回数(ピッキング回数閾値)を超えた場合など、所定の判定タイミングになると、パターン投光器3に対して物体判定用の光の照射を指示する制御命令を出力するとともに、ステレオカメラ2に対して輝度画像の撮像を指示する制御命令を出力する。そして、パターン投光器3から物体判定用の光が照射された物体の輝度画像がステレオカメラ2の基準画像撮像部210から出力されると、物体判定部410は、この基準画像撮像部210から出力された輝度画像を取得して解析することにより、物体のサイズ、形状、色、光透過率、ステレオカメラ2からの距離の少なくとも1つを判定する。   For example, the object determination unit 410 uses the pattern projector 3 for object determination when a predetermined determination timing is reached, such as when the picking operation is started by the picking system 1 or when the number of picking times exceeds a predetermined number (picking frequency threshold). A control command for instructing the irradiation of the light is output, and a control command for instructing the stereo camera 2 to take a luminance image is output. When the luminance image of the object irradiated with the object determination light from the pattern projector 3 is output from the reference image imaging unit 210 of the stereo camera 2, the object determination unit 410 is output from the reference image imaging unit 210. By acquiring and analyzing the obtained luminance image, at least one of the size, shape, color, light transmittance, and distance from the stereo camera 2 is determined.

例えば物体判定部410は、基準画像撮像部210から出力された輝度画像を2値化してエッジ検出を行うことで、物体の形状を判定することができ、さらにステレオカメラ2のカメラパラメータ(焦点距離や画角、位置など)を参照することで、物体のサイズを判定することができる。また、逆に、所定形状の物体サイズとして既知のサイズと輝度画像における物体サイズとの比率から、ステレオカメラ2から物体までの距離を判定することもできる。さらに、RGB3チャンネルの輝度画像の画素値を用いて物体の色を判定することもできる。なお、パターン投光器3から物体に照射される物体判定用の光は、例えば、明度分布を持たない所定の明るさの一様の光である。物体判定部410の判定結果は、視差画像評価部430に通知される。   For example, the object determination unit 410 can determine the shape of the object by binarizing the luminance image output from the reference image capturing unit 210 and performing edge detection, and can further determine the camera parameters (focal length) of the stereo camera 2. And the angle of view, position, etc.), the size of the object can be determined. Conversely, the distance from the stereo camera 2 to the object can also be determined from the ratio between the size known as the object size of the predetermined shape and the object size in the luminance image. Further, the color of the object can be determined using the pixel values of the luminance image of the RGB 3 channel. Note that the object determination light emitted to the object from the pattern projector 3 is, for example, uniform light having a predetermined brightness and having no brightness distribution. The determination result of the object determination unit 410 is notified to the parallax image evaluation unit 430.

視差画像評価部430は、パターン最適化処理により視差画像の評価を行いながら、精度のよい視差画像を出力する。すなわち、視差画像評価部430は、パターン投光器2から物体に照射されるパターンのパラメータの値を変更しながら、ステレオカメラ2の視差画像生成部230により生成される視差画像を評価して、評価結果が所定の基準を満たす視差画像を出力する。パラメータの値をパターン投光器2から照射されるパターンに反映させる方法としては、例えば、予めパラメータの値ごとに用意されているパターンをパターン投光器2から照射させるようにしてもよいし、視差画像評価部430がパラメータの値に応じたパターンを生成してパターン投光器2から照射させるようにしてもよい。また、パラメータの値に応じてパターン投光器2の光学系や位置を調整する方法であってもよい。また、視差画像の評価方法の一例として、ここでは、視差画像の有効視差点数を評価する方法について説明する。   The parallax image evaluation unit 430 outputs a parallax image with high accuracy while evaluating the parallax image by the pattern optimization process. That is, the parallax image evaluation unit 430 evaluates the parallax image generated by the parallax image generation unit 230 of the stereo camera 2 while changing the value of the parameter of the pattern irradiated to the object from the pattern projector 2, and the evaluation result Outputs a parallax image satisfying a predetermined criterion. As a method of reflecting the parameter value in the pattern irradiated from the pattern projector 2, for example, a pattern prepared for each parameter value may be irradiated from the pattern projector 2, or a parallax image evaluation unit may be used. The pattern projector 430 may generate a pattern according to the parameter value and irradiate it from the pattern projector 2. Moreover, the method of adjusting the optical system and position of the pattern projector 2 according to the value of a parameter may be used. As an example of the parallax image evaluation method, a method for evaluating the effective parallax score of the parallax image will be described here.

有効視差点数は、上述したように、信頼性の高い視差値(有効視差)が得られた画素の数である。有効視差は、基準画像Iaと比較画像Ibとの間の対応関係が一意に特定できた画素の視差値であり、視差画像に含まれる各画素の視差値のうち、対応関係が一意に特定できない画素の視差値や異常値(ノイズ)と判定された視差値(無効視差)を除いたものである。視差画像評価部430は、例えば、ステレオカメラ2の視差画像生成部230により生成される視差画像から、ピッキング対象の物体を映した物体領域を検出し、その物体領域の全画素数および物体領域内における有効視差点数をカウントする。そして、物体領域の全画素数に対する有効視差点数の比率を、有効視差評価値として算出し、有効視差評価値が所定の閾値を超えた視差画像を出力する。なお、物体領域内における有効視差点数の代わりに無効視差の数(無効視差点数)をカウントし、物体領域の全画素数に対する無効視差点数の比率の逆数を、有効視差評価値として算出するようにしてもよい。   As described above, the number of effective parallax points is the number of pixels from which a highly reliable parallax value (effective parallax) is obtained. The effective parallax is a parallax value of a pixel whose correspondence between the reference image Ia and the comparison image Ib can be uniquely identified, and the correspondence between the parallax values of each pixel included in the parallax image cannot be uniquely identified. It excludes the parallax value (invalid parallax) determined to be a parallax value or an abnormal value (noise) of a pixel. For example, the parallax image evaluation unit 430 detects an object region in which an object to be picked is displayed from the parallax image generated by the parallax image generation unit 230 of the stereo camera 2, and the total number of pixels in the object region and the object region The number of effective parallax points at is counted. Then, the ratio of the number of effective parallax points to the total number of pixels in the object region is calculated as an effective parallax evaluation value, and a parallax image whose effective parallax evaluation value exceeds a predetermined threshold is output. Note that the number of invalid parallaxes (invalid parallax points) is counted instead of the effective parallax points in the object region, and the reciprocal of the ratio of the invalid parallax points to the total number of pixels in the object region is calculated as an effective parallax evaluation value. May be.

視差画像評価部430は、以上のようなパターン最適化処理を短時間で効率よく行うために、物体判定部410の判定結果を用いて、視差画像を評価するときに変更するパターンのパラメータの値の範囲である評価範囲の絞り込みを行う。具体的には、視差画像評価部430は、物体判定部410の判定結果に対応する値として予め定められたパラメータの値を評価基準値として評価基準値記憶部420から取得し、取得した評価基準値に基づいて評価範囲の絞り込みを行う。   The parallax image evaluation unit 430 uses the determination result of the object determination unit 410 to perform the pattern optimization process as described above efficiently in a short time, and changes the parameter value of the pattern when evaluating the parallax image. Narrow down the evaluation range that is the range of. Specifically, the parallax image evaluation unit 430 acquires, from the evaluation reference value storage unit 420, a parameter value determined in advance as a value corresponding to the determination result of the object determination unit 410 as the evaluation reference value, and the acquired evaluation reference The evaluation range is narrowed down based on the value.

図10は、評価基準値記憶部420が記憶する対応テーブルの一例を示す図である。評価基準値記憶部420には、図10に示すように、物体判定部410により判定される物体の特性とパターンのパラメータの値とを対応付けた対応テーブルが格納されている。視差画像評価部430は、物体判定部410の判定結果を受け取ると、評価基準値記憶部420が記憶する対応テーブルを参照して、物体判定部410の判定結果に対応するパラメータの値を取得する。   FIG. 10 is a diagram illustrating an example of a correspondence table stored in the evaluation reference value storage unit 420. As shown in FIG. 10, the evaluation reference value storage unit 420 stores a correspondence table in which object characteristics determined by the object determination unit 410 are associated with pattern parameter values. When the parallax image evaluation unit 430 receives the determination result of the object determination unit 410, the parallax image evaluation unit 430 refers to the correspondence table stored in the evaluation reference value storage unit 420 and acquires the parameter value corresponding to the determination result of the object determination unit 410. .

なお、図10(a)は、物体の光透過率とパターンの拡大縮小率およびコントラストとを対応付けた対応テーブルを示し、図10(b)は、物体のサイズとパターンの拡大縮小率およびコントラストとを対応付けた対応テーブルを示している。ただし、評価基準値記憶部420には、光透過率やサイズ以外にも、物体判定部410によって判定される物体の他の特性(形状、色、ステレオカメラ2からの距離など)とパターンのパラメータの値とを対応付けた対応テーブルも格納されている。パターンの拡大縮小率は、パターンの粒度(テクスチャのサイズ)に関わるパラメータであり、コントラストは、パターンの明度分布(テクスチャの明度)に関わるパラメータである。評価基準値記憶部420が記憶する対応テーブルでは、これら拡大縮小率やコントラスト以外の他のパラメータ(例えば、テクスチャの周波数(出現頻度)やテクスチャの輝度レベル(多輝度)など)の値が、物体判定部410により判定される物体の特性と対応付けられていてもよい。   10A shows a correspondence table in which the light transmittance of an object is associated with the pattern enlargement / reduction ratio and contrast, and FIG. 10B shows the object size, the pattern enlargement / reduction ratio and contrast. Shows a correspondence table in which However, in the evaluation reference value storage unit 420, in addition to the light transmittance and size, other characteristics of the object (shape, color, distance from the stereo camera 2, etc.) determined by the object determination unit 410, and pattern parameters A correspondence table in which the values are associated with each other is also stored. The pattern scaling ratio is a parameter related to the pattern granularity (texture size), and the contrast is a parameter related to the pattern lightness distribution (texture lightness). In the correspondence table stored in the evaluation reference value storage unit 420, values of parameters other than the enlargement / reduction ratio and contrast (for example, texture frequency (appearance frequency), texture brightness level (multi-brightness), etc.) It may be associated with the characteristic of the object determined by the determination unit 410.

評価基準値記憶部420が記憶する対応テーブルは、事前に評価実験などを行って作成され、評価基準値記憶部420に格納される。評価実験では、例えば、様々な物体を対象として視差画像を生成して有効視差点数を評価し、良好な評価結果が得られたときのパラメータの値を求める。この評価実験で求めたパラメータの値を、物体のサイズ、形状、色、光透過率、ステレオカメラ2からの距離などに対応付けることで対応テーブルが作成され、評価基準値記憶部420に格納される。   The correspondence table stored in the evaluation reference value storage unit 420 is created by performing an evaluation experiment or the like in advance and is stored in the evaluation reference value storage unit 420. In the evaluation experiment, for example, a parallax image is generated for various objects, the number of effective parallax points is evaluated, and a parameter value when a good evaluation result is obtained is obtained. A correspondence table is created by associating the parameter values obtained in this evaluation experiment with the size, shape, color, light transmittance, distance from the stereo camera 2, etc. of the object, and stored in the evaluation reference value storage unit 420. .

ここで、視差画像評価部430による評価範囲の絞り込みの具体例について説明する。図11は、評価範囲の絞り込みの一例を説明する図である。図11において、横軸はパターンのパラメータ(例えば拡大縮小率やコントラスト)の値を示し、縦軸は視差画像の有効視差評価値を示している。また、図中のP0はパラメータの値の現在値(物体判定部410による判定が行われる判定タイミングのときのパラメータの値)であり、P1は評価基準値記憶部420から取得された評価基準値である。   Here, a specific example of narrowing down the evaluation range by the parallax image evaluation unit 430 will be described. FIG. 11 is a diagram illustrating an example of narrowing down the evaluation range. In FIG. 11, the horizontal axis indicates the values of pattern parameters (for example, the enlargement / reduction ratio and contrast), and the vertical axis indicates the effective parallax evaluation value of the parallax image. Further, P0 in the figure is the current value of the parameter value (the parameter value at the determination timing when the determination by the object determination unit 410 is performed), and P1 is the evaluation reference value acquired from the evaluation reference value storage unit 420 It is.

視差画像評価部430は、評価基準値記憶部420から評価基準値P1を取得すると、まず、パラメータの値が取り得る全範囲のうち、現在値P0を端点として評価基準値P1を含まない範囲を評価範囲から除外することにより、評価範囲の絞り込みを行う。図11(a)に示す例では、現在値P0よりも右側の範囲が評価範囲から除外されることで、評価範囲が、現在値P0よりも左側の範囲R1に絞り込まれる。   When the parallax image evaluation unit 430 obtains the evaluation reference value P1 from the evaluation reference value storage unit 420, first, the parallax image evaluation unit 430 selects a range that does not include the evaluation reference value P1 with the current value P0 as an end point out of all possible ranges of parameter values. By excluding from the evaluation range, the evaluation range is narrowed down. In the example shown in FIG. 11A, the evaluation range is narrowed down to the range R1 on the left side of the current value P0 by excluding the range on the right side of the current value P0 from the evaluation range.

次に、視差画像評価部430は、パラメータの値を評価基準値P1に変更し、このときにステレオカメラ2の視差画像生成部230により生成される視差画像を評価して、有効視差評価値を算出する。そして、算出した有効視差評価値が閾値VThを超えたか否かを判定し、有効視差評価値が閾値VThを超えていれば、その視差画像を出力して評価を終了する。一方、有効視差評価値が閾値VTh以下であれば、パラメータの値を評価範囲内で変更する。このとき、視差画像評価部430は、評価範囲のさらなる絞り込みを行う。   Next, the parallax image evaluation unit 430 changes the parameter value to the evaluation reference value P1, evaluates the parallax image generated by the parallax image generation unit 230 of the stereo camera 2 at this time, and sets the effective parallax evaluation value. calculate. Then, it is determined whether or not the calculated effective parallax evaluation value exceeds the threshold value VTh. If the effective parallax evaluation value exceeds the threshold value VTh, the parallax image is output and the evaluation ends. On the other hand, if the effective parallax evaluation value is equal to or less than the threshold value VTh, the parameter value is changed within the evaluation range. At this time, the parallax image evaluation unit 430 further narrows down the evaluation range.

この評価範囲の絞り込みは、パラメータの値を評価基準値P1から変更したときにステレオカメラ2の視差画像生成部230により生成される視差画像の有効視差評価値が、変更前(つまり、パラメータの値が評価基準値P1のとき)の有効視差評価値より向上しているか否かに基づいて行う。具体的には、視差画像評価部430は、パラメータの値が評価基準値P1のときの有効視差評価値を保持しておく。そして、パラメータの値を評価基準値P1から所定量減少させ、このときにステレオカメラ2の視差画像生成部230により生成される視差画像の有効視差評価値を算出し、保持していた有効視差評価値と比較する。この比較の結果、有効視差評価値が向上していれば、評価基準値P1よりも小さいパラメータの値の範囲に評価範囲を絞り込み、有効視差評価値が低下していれば、評価基準値P1よりも大きいパラメータの値の範囲に評価範囲を絞り込む。このように絞り込まれた評価範囲を評価基準値P1からみた方向を、以下では「探索方向」とよぶ。図11(b)に示す例では、パラメータの値を評価基準値P1よりも減少させたときに有効視差評価値が向上するので、評価範囲が、評価基準値P1よりも左側の範囲R2に絞り込まれる。そして、パラメータの値を減少させる方向(図中の左側に向く方向)が探索方向となる。   The narrowing down of the evaluation range is performed by changing the effective parallax evaluation value of the parallax image generated by the parallax image generation unit 230 of the stereo camera 2 when the parameter value is changed from the evaluation reference value P1 before the change (that is, the parameter value). Is based on whether or not the effective parallax evaluation value is higher than the evaluation reference value P1). Specifically, the parallax image evaluation unit 430 holds an effective parallax evaluation value when the parameter value is the evaluation reference value P1. The parameter value is decreased by a predetermined amount from the evaluation reference value P1, and the effective parallax evaluation value of the parallax image generated by the parallax image generation unit 230 of the stereo camera 2 at this time is calculated and held. Compare with the value. As a result of this comparison, if the effective parallax evaluation value is improved, the evaluation range is narrowed down to a parameter value range smaller than the evaluation reference value P1, and if the effective parallax evaluation value is reduced, the evaluation reference value P1. The evaluation range is narrowed down to the range of parameter values that are also larger. The direction of the narrowed down evaluation range from the evaluation reference value P1 is hereinafter referred to as “search direction”. In the example shown in FIG. 11B, since the effective parallax evaluation value is improved when the parameter value is decreased from the evaluation reference value P1, the evaluation range is narrowed down to the range R2 on the left side of the evaluation reference value P1. It is. The direction in which the parameter value is decreased (the direction toward the left side in the figure) is the search direction.

その後、視差画像評価部430は、パラメータの値を評価範囲内で探索方向に所定量ずつ変更しながら、ステレオカメラ2の視差画像生成部230により生成される視差画像の有効視差評価値を算出する。そして、有効視差評価値が閾値VThを超えた段階でその視差画像を出力し、評価を終了する。なお、ここでは、有効視差評価値が閾値VThを超えた段階で評価を終了するようにしているが、有効視差評価値が最大となるパラメータの値を探索し、有効視差評価値が最大となる視差画像を出力して評価を終了するようにしてもよい。この場合、例えば、パラメータの値を評価範囲内で探索方向に所定量ずつ変更しながら随時算出した有効視差評価値が、向上から低下に転じたパラメータの値の一つ手前の値を有効視差値が最大となるパラメータの値とみなし、そのときの視差画像を出力して評価を終了すればよい。視差画像評価部430が出力する視差画像は、認識処理部440に渡される。また、視差画像評価部430は、絞り込んだ評価範囲をすべて評価しても閾値VThを超える有効視差評価値が得られなかった場合、その評価範囲内で最も高い有効視差評価値が得られた視差画像を出力する構成としてもよい。   Thereafter, the parallax image evaluation unit 430 calculates the effective parallax evaluation value of the parallax image generated by the parallax image generation unit 230 of the stereo camera 2 while changing the parameter value by a predetermined amount in the search direction within the evaluation range. . Then, when the effective parallax evaluation value exceeds the threshold value VTh, the parallax image is output, and the evaluation ends. Here, the evaluation is finished when the effective parallax evaluation value exceeds the threshold value VTh. However, the parameter value that maximizes the effective parallax evaluation value is searched, and the effective parallax evaluation value becomes maximum. The parallax image may be output to end the evaluation. In this case, for example, the effective parallax evaluation value calculated from time to time while changing the parameter value by a predetermined amount in the search direction within the evaluation range is the effective parallax value immediately before the parameter value that has changed from improvement to reduction. Can be regarded as a parameter value that maximizes, and the parallax image at that time may be output to end the evaluation. The parallax image output from the parallax image evaluation unit 430 is passed to the recognition processing unit 440. In addition, when the parallax image evaluation unit 430 does not obtain an effective parallax evaluation value exceeding the threshold value VTh even if all the narrowed evaluation ranges are evaluated, the parallax with the highest effective parallax evaluation value within the evaluation range is obtained. An image may be output.

図7に戻り、認識処理部440は、視差画像評価部430から出力された視差画像と、この視差画像の生成に用いた基準画像Iaとに基づいて、ステレオカメラ2により撮像された物体の三次元空間における形状、位置および距離などを認識する。認識処理部440の認識結果はアーム制御装置5に送られる。これにより、アーム制御装置5によりロボットアーム6の動作が制御され、物体のピッキングが行われる。   Returning to FIG. 7, the recognition processing unit 440 uses the third order of the object imaged by the stereo camera 2 based on the parallax image output from the parallax image evaluation unit 430 and the reference image Ia used to generate the parallax image. Recognize the shape, position and distance in the original space. The recognition result of the recognition processing unit 440 is sent to the arm control device 5. Thereby, the operation of the robot arm 6 is controlled by the arm control device 5, and the picking of the object is performed.

(ピッキングシステムの動作)
次に、本実施形態のピッキングシステム1の動作について、図12乃至図15を参照して説明する。まず、図12を参照して、ピッキングシステム1の動作の概要を説明する。図12は、ピッキングシステム1による動作の流れを説明するフローチャートである。
(Picking system operation)
Next, the operation of the picking system 1 of the present embodiment will be described with reference to FIGS. First, an outline of the operation of the picking system 1 will be described with reference to FIG. FIG. 12 is a flowchart for explaining the flow of operations by the picking system 1.

ピッキングシステム1の動作が開始されると、まず、物体判定部410による物体判定処理が行われる(ステップS101)。物体判定処理は、上述したように、ピッキング対象となる物体のサイズ、形状、色、光透過率、ステレオカメラ2からの距離の少なくとも1つを判定する処理である。なお、ステップS101の物体判定処理の具体例については、詳細を後述する。   When the operation of the picking system 1 is started, an object determination process is first performed by the object determination unit 410 (step S101). As described above, the object determination process is a process for determining at least one of the size, shape, color, light transmittance, and distance from the stereo camera 2 of the object to be picked. Note that a specific example of the object determination processing in step S101 will be described later in detail.

次に、視差画像評価部430によるパターン最適化処理が行われる(ステップS102)。パターン最適化処理は、上述したように、有効視差評価値が閾値VThを超える視差画像が得られるパターンのパラメータの値を探索する処理である。なお、ステップS102のパターン最適化処理の具体例については、詳細を後述する。   Next, a pattern optimization process is performed by the parallax image evaluation unit 430 (step S102). As described above, the pattern optimization process is a process of searching for a parameter value of a pattern from which a parallax image whose effective parallax evaluation value exceeds the threshold value VTh is obtained. A specific example of the pattern optimization process in step S102 will be described later in detail.

次に、認識処理部440により物体認識処理が行われ(ステップS103)、その認識結果に基づいて、アーム制御装置5によりロボットアーム6の動作が制御されることで、物体のピッキングが行われる(ステップS104)。   Next, an object recognition process is performed by the recognition processing unit 440 (step S103), and the operation of the robot arm 6 is controlled by the arm control device 5 based on the recognition result, thereby picking an object ( Step S104).

その後、すべての物体のピッキングが終了したか否かが判定され(ステップS105)、ピッキングが終了していない物体があれば(ステップS105:No)、ピッキング回数がピッキング回数閾値を超えたか否かが判定される(ステップS106)。そして、ピッキング回数がピッキング回数閾値未満であれば(ステップS106:No)、パターン投光器3によりパターンが照射された次のピッキング対象の物体に対し、ステレオカメラ2による撮像および視差画像の生成が行われ(ステップS107)、ステップS103の物体認識処理以降の処理が繰り返される。   Thereafter, it is determined whether or not the picking of all objects has been completed (step S105). If there is an object for which picking has not been completed (step S105: No), whether or not the number of picking has exceeded the picking number threshold is determined. Determination is made (step S106). If the picking count is less than the picking count threshold (step S106: No), the stereo camera 2 captures an image and generates a parallax image for the next picking target object irradiated with the pattern by the pattern projector 3. (Step S107), the processing after the object recognition processing of Step S103 is repeated.

一方、ピッキング回数がピッキング回数閾値を超えた場合は(ステップS106:Yes)、ピッキング対象の物体の変更やパターン投光器3の動作状態の変化などの環境変化が生じている可能性があるため、ステップS101に戻って物体判定処理から処理が繰り返される。また、ステップS105において、すべての物体のピッキングが終了したと判定された場合は、ピッキングシステム1の動作が終了する。   On the other hand, if the picking count exceeds the picking count threshold (step S106: Yes), there is a possibility that an environmental change such as a change of an object to be picked or a change in the operation state of the pattern projector 3 has occurred. Returning to S101, the process is repeated from the object determination process. If it is determined in step S105 that the picking of all objects has been completed, the operation of the picking system 1 is completed.

次に、図13を参照して、図12のステップS101の物体判定処理の具体例について説明する。図13は、物体判定処理の一例を説明するフローチャートである。   Next, a specific example of the object determination process in step S101 of FIG. 12 will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of the object determination process.

物体判定処理が開始されると、物体判定部410は、パターン投光器3に対して物体判定用の光の照射を指示する制御命令を出力するとともに、ステレオカメラ2に対して輝度画像の撮像を指示する制御命令を出力する。これにより、パターン投光器3から物体に対して物体判定用の光が照射され(ステップS201)、ステレオカメラ2により、物体判定用の光が照射された物体が撮像される(ステップS202)。   When the object determination process is started, the object determination unit 410 outputs a control command for instructing the pattern projector 3 to emit light for object determination, and also instructs the stereo camera 2 to capture a luminance image. Output a control command to Thereby, the object light is irradiated from the pattern projector 3 to the object (step S201), and the object irradiated with the object determination light is imaged by the stereo camera 2 (step S202).

次に、物体判定部410は、ステレオカメラ2の基準画像撮像部210から出力される輝度画像を取得し、この輝度画像を解析することにより物体のサイズ、形状、色、光透過率、ステレオカメラ2からの距離の少なくとも1つを判定し(ステップS203)、その判定結果を視差画像評価部430に通知する。   Next, the object determination unit 410 acquires the luminance image output from the reference image imaging unit 210 of the stereo camera 2, and analyzes the luminance image to thereby determine the size, shape, color, light transmittance, and stereo camera of the object. At least one of the distances from 2 is determined (step S203), and the determination result is notified to the parallax image evaluation unit 430.

次に、図14を参照して、図12のステップS102のパターン最適化処理の具体例について説明する。図14は、パターン最適化処理の一例を説明するフローチャートである。   Next, a specific example of the pattern optimization process in step S102 of FIG. 12 will be described with reference to FIG. FIG. 14 is a flowchart for explaining an example of the pattern optimization process.

パターン最適化処理が開始されると、視差画像評価部430は、まず、評価基準値記憶部420が記憶する対応テーブルを参照し、物体判定部410から通知された判定結果に対応するパラメータの値を評価基準値として取得する(ステップS301)。   When the pattern optimization process is started, the parallax image evaluation unit 430 first refers to the correspondence table stored in the evaluation reference value storage unit 420 and the parameter value corresponding to the determination result notified from the object determination unit 410 Is obtained as an evaluation reference value (step S301).

次に、視差画像評価部430は、ステップS301で取得した評価基準値に基づいて、評価範囲の絞り込みを行う(ステップS302)。具体的には、視差画像評価部430は、図11(a)を用いて説明したように、パターン投光器3から物体に照射するパターンのパラメータの値が取り得る全範囲のうち、現在値P0を端点として評価基準値P1を含まない範囲を評価範囲から除外することにより、評価範囲の絞り込みを行う。   Next, the parallax image evaluation unit 430 narrows down the evaluation range based on the evaluation reference value acquired in step S301 (step S302). Specifically, as described with reference to FIG. 11A, the parallax image evaluation unit 430 sets the current value P0 out of the entire range that can be taken by the parameter values of the pattern irradiated from the pattern projector 3 to the object. The evaluation range is narrowed down by excluding a range that does not include the evaluation reference value P1 as an end point from the evaluation range.

次に、視差画像評価部430は、パターン投光器3が物体に照射するパターンのパラメータの値を評価基準値に設定する(ステップS303)。これにより、パラメータの値が評価基準値に設定されたパターンがパターン投光器3から物体に照射され、ステレオカメラ2による撮像および視差画像の生成が行われる(ステップS304)。   Next, the parallax image evaluation unit 430 sets the value of the parameter of the pattern that the pattern projector 3 irradiates the object to the evaluation reference value (step S303). Thus, the pattern whose parameter value is set as the evaluation reference value is irradiated from the pattern projector 3 to the object, and the stereo camera 2 captures an image and generates a parallax image (step S304).

次に、視差画像評価部430は、ステップS304で生成された視差画像の有効視差評価値を算出し、算出した有効視差評価値が閾値VThを超えるか否かを判定する(ステップS305)。そして、有効視差評価値が閾値VThを超えていれば(ステップS305:Yes)、ステップS304で生成された視差画像を出力し(ステップS310)、パターン最適化処理を終了する。一方、有効視差評価値が閾値VTh以下であれば(ステップS305:No)、視差画像評価部430は、次に探索方向決定処理を行う(ステップS306)。なお、探索方向決定処理の具体例については、詳細を後述する。   Next, the parallax image evaluation unit 430 calculates an effective parallax evaluation value of the parallax image generated in step S304, and determines whether or not the calculated effective parallax evaluation value exceeds the threshold value VTh (step S305). If the effective parallax evaluation value exceeds the threshold value VTh (step S305: Yes), the parallax image generated in step S304 is output (step S310), and the pattern optimization process ends. On the other hand, if the effective parallax evaluation value is equal to or less than the threshold value VTh (step S305: No), the parallax image evaluation unit 430 next performs a search direction determination process (step S306). Details of a specific example of the search direction determination process will be described later.

次に、視差画像評価部430は、ステップS306の探索方向決定処理においてステレオカメラ2により生成された視差画像の有効視差評価値が閾値VThを超えるか否かを判定する(ステップS307)。そして、有効視差評価値が閾値VThを超えていれば(ステップS307:Yes)、その視差画像を出力して(ステップS310)、パターン最適化処理を終了する。   Next, the parallax image evaluation unit 430 determines whether or not the effective parallax evaluation value of the parallax image generated by the stereo camera 2 in the search direction determination process in step S306 exceeds the threshold value VTh (step S307). If the effective parallax evaluation value exceeds the threshold value VTh (step S307: Yes), the parallax image is output (step S310), and the pattern optimization process ends.

一方、有効視差評価値が閾値VTh以下であれば(ステップS307:No)、視差画像評価部430は、パターン投光器3が物体に照射するパターンのパラメータの値を、ステップS306の探索方向決定処理において決定した探索方向に所定量変更する(ステップS308)。これにより、パラメータの値が評価基準値に設定されたパターンがパターン投光器3から物体に照射され、ステレオカメラ2による撮像および視差画像の生成が行われる(ステップS309)。   On the other hand, if the effective parallax evaluation value is equal to or less than the threshold value VTh (step S307: No), the parallax image evaluation unit 430 uses the parameter value of the pattern irradiated by the pattern projector 3 to the object in the search direction determination process in step S306. A predetermined amount is changed in the determined search direction (step S308). As a result, the pattern whose parameter value is set to the evaluation reference value is irradiated from the pattern projector 3 to the object, and the stereo camera 2 captures an image and generates a parallax image (step S309).

その後、視差画像評価部430は、ステップS307に戻って、ステップS309で生成された視差画像の有効視差評価値を算出し、算出した有効視差評価値が閾値VThを超えるか否かを判定する。そして、有効視差評価値が閾値VTh以下であればステップS308以降の処理を繰り返し、有効視差評価値が閾値VThを超えた段階でそのときの視差画像を出力し(ステップS310)、パターン最適化処理を終了する。   Thereafter, the parallax image evaluation unit 430 returns to step S307, calculates the effective parallax evaluation value of the parallax image generated in step S309, and determines whether or not the calculated effective parallax evaluation value exceeds the threshold value VTh. If the effective parallax evaluation value is less than or equal to the threshold value VTh, the processing from step S308 is repeated, and when the effective parallax evaluation value exceeds the threshold value VTh, the parallax image at that time is output (step S310), and pattern optimization processing is performed. Exit.

次に、図15を参照して、図14のステップS306の探索方向決定処理の具体例について説明する。図15は、探索方向決定処理の一例を説明するフローチャートである。   Next, a specific example of the search direction determination process in step S306 of FIG. 14 will be described with reference to FIG. FIG. 15 is a flowchart illustrating an example of the search direction determination process.

探索方向決定処理が開始されると、視差画像評価部430は、まず、パラメータの値が評価基準値のときの有効視差評価値(図14のステップS305で算出した有効視差評価値)を保持する(ステップS401)。   When the search direction determination process is started, the parallax image evaluation unit 430 first holds the effective parallax evaluation value (the effective parallax evaluation value calculated in step S305 in FIG. 14) when the parameter value is the evaluation reference value. (Step S401).

次に、視差画像評価部430は、パラメータの値を評価基準値から所定量減少させる(ステップS402)。これにより、パラメータの値が評価基準値から所定量減少されたパターンがパターン投光器3から物体に照射され、ステレオカメラ2による撮像および視差画像の生成が行われる(ステップS403)。   Next, the parallax image evaluation unit 430 decreases the parameter value from the evaluation reference value by a predetermined amount (step S402). As a result, a pattern in which the parameter value is reduced by a predetermined amount from the evaluation reference value is irradiated onto the object from the pattern projector 3, and imaging by the stereo camera 2 and generation of a parallax image are performed (step S403).

次に、視差画像評価部430は、ステップS403で生成された視差画像の有効視差評価値を算出し、算出した有効視差評価値(現在の有効視差評価値)が、パラメータの値が評価基準値のときの有効視差評価値(ステップS401で保持した有効視差評価値)よりも大きいか否か(有効視差評価値が向上したか否か)を判定する(ステップS404)。そして、有効視差評価値が向上していれば(ステップS404:Yes)、パラメータの値を減少させる方向を探索方向に決定する(ステップS405)。この場合、図14のステップS307において、ステップS404で算出した有効視差評価値が閾値VThを超えているか否かの判定が行われる。   Next, the parallax image evaluation unit 430 calculates an effective parallax evaluation value of the parallax image generated in step S403, and the calculated effective parallax evaluation value (current effective parallax evaluation value) is a parameter value that is an evaluation reference value. It is determined whether it is larger than the effective parallax evaluation value at this time (effective parallax evaluation value held in step S401) (whether the effective parallax evaluation value has been improved) (step S404). If the effective parallax evaluation value is improved (step S404: Yes), the direction in which the parameter value is decreased is determined as the search direction (step S405). In this case, in step S307 of FIG. 14, it is determined whether or not the effective parallax evaluation value calculated in step S404 exceeds the threshold value VTh.

一方、有効視差評価値が低下している場合は(ステップS404:No)、視差画像評価部430は、パラメータの値を増加させる方向を探索方向に決定する(ステップS406)。そして、視差画像評価部430は、パラメータの値を評価基準値から所定量増加させる(ステップS407)。これにより、パラメータの値が評価基準値から所定量増加されたパターンがパターン投光器3から物体に照射され、ステレオカメラ2による撮像および視差画像の生成が行われる(ステップS408)。この場合、図14のステップS307において、ステップS408で生成された視差画像の有効視差評価値が算出され、図14のステップS307において有効視差評価値の算出が行われ、算出した有効視差評価値が閾値VThを超えているか否かの判定が行われる。   On the other hand, when the effective parallax evaluation value is decreased (step S404: No), the parallax image evaluation unit 430 determines the direction in which the parameter value is increased as the search direction (step S406). Then, the parallax image evaluation unit 430 increases the parameter value by a predetermined amount from the evaluation reference value (step S407). As a result, a pattern whose parameter value is increased by a predetermined amount from the evaluation reference value is irradiated from the pattern projector 3 to the object, and imaging by the stereo camera 2 and generation of a parallax image are performed (step S408). In this case, in step S307 in FIG. 14, the effective parallax evaluation value of the parallax image generated in step S408 is calculated, and in step S307 in FIG. 14, the effective parallax evaluation value is calculated. It is determined whether or not the threshold value VTh is exceeded.

なお、以上説明した例では、ステップS402でパラメータの値を評価基準値から所定量減少させているが、これに代えて、パラメータの値を評価基準値から所定量増加させてもよい。この場合、ステップS405でパラメータの値を増加させる方向を探索方向に決定し、ステップS406でパラメータの値を減少させる方向を探索方向に決定すればよい。   In the example described above, the parameter value is decreased from the evaluation reference value by a predetermined amount in step S402. Alternatively, the parameter value may be increased from the evaluation reference value by a predetermined amount. In this case, the direction in which the parameter value is increased is determined as the search direction in step S405, and the direction in which the parameter value is decreased is determined as the search direction in step S406.

以上、具体的な例を挙げながら詳細に説明したように、本実施形態のピッキングシステム1は、精度のよい視差画像を得るためのパターン最適化処理を行うにあたり、ピッキング対象となる物体のサイズ、形状、色、光透過率、ステレオカメラ2からの距離の少なくとも1つを判定し、その判定結果に対応する値として予め定められたパラメータの値を評価基準値として取得する。そして、取得した評価基準値に基づいて、視差画像を評価するパラメータの値の範囲である評価範囲の絞り込みを行うようにしている。したがって、本実施形態のピッキングシステム1によれば、精度のよい視差画像を得るためのパターン最適化処理を短時間で効率よく行うことができ、精度のよい視差画像を短時間で生成できるため、物体のピッキング動作に要するタクトタイムを短縮して、作業効率を高めることができる。   As described above in detail with specific examples, the picking system 1 according to the present embodiment performs the pattern optimization processing for obtaining a highly accurate parallax image, the size of an object to be picked, At least one of shape, color, light transmittance, and distance from the stereo camera 2 is determined, and a parameter value predetermined as a value corresponding to the determination result is acquired as an evaluation reference value. Then, based on the obtained evaluation reference value, the evaluation range that is the range of the parameter value for evaluating the parallax image is narrowed down. Therefore, according to the picking system 1 of the present embodiment, pattern optimization processing for obtaining an accurate parallax image can be performed efficiently in a short time, and an accurate parallax image can be generated in a short time. The tact time required for the picking operation of the object can be shortened and the working efficiency can be improved.

なお、以上の実施形態では、物体判定部410が物体のサイズ、形状、色、光透過率、ステレオカメラ2からの距離の少なくとも1つを判定する方法として、ステレオカメラ2により撮像された物体の輝度画像を用いる例を説明したが、物体判定部410による判定方法はこれに限らない。例えば、ステレオカメラ2やパターン投光器3とは異なる光センサやレーザ計測装置などをピッキングシステム1に組み込み、これら光センサやレーザ計測装置などから出力される信号を用いて、物体判定部410が物体のサイズ、形状、色、光透過率、ステレオカメラ2からの距離の少なくとも1つを判定する構成としてもよい。また、ユーザの操作入力を受け付けるユーザインターフェースを設け、このユーザインターフェースにより受け付けたユーザの操作入力に基づいて、物体判定部410が物体のサイズ、形状、色、光透過率、ステレオカメラ2からの距離の少なくとも1つを判定する構成としてもよい。   In the above embodiment, as a method in which the object determination unit 410 determines at least one of the size, shape, color, light transmittance, and distance from the stereo camera 2, the object imaged by the stereo camera 2 is determined. Although the example using a brightness | luminance image was demonstrated, the determination method by the object determination part 410 is not restricted to this. For example, an optical sensor or a laser measurement device different from the stereo camera 2 or the pattern projector 3 is incorporated in the picking system 1, and the object determination unit 410 uses the signals output from the optical sensor or the laser measurement device to detect the object. It may be configured to determine at least one of size, shape, color, light transmittance, and distance from the stereo camera 2. In addition, a user interface that receives a user operation input is provided, and the object determination unit 410 determines the size, shape, color, light transmittance, and distance from the stereo camera 2 based on the user operation input received through the user interface. It is good also as a structure which determines at least 1 of these.

[第2実施形態]
次に、第2実施形態について説明する。本実施形態は、視差画像評価部430によるパターン最適化処理が第1実施形態とは異なっている。具体的には、本実施形態では、最適解を求める求解アルゴリズムとして数値解析の分野で広く利用されている二分法を用いて、評価範囲の絞り込みを行う。なお、視差画像評価部430によるパターン最適化処理以外は第1実施形態と共通であるため、以下では、本実施形態のパターン最適化処理についてのみ説明する。
[Second Embodiment]
Next, a second embodiment will be described. This embodiment is different from the first embodiment in pattern optimization processing by the parallax image evaluation unit 430. Specifically, in this embodiment, the evaluation range is narrowed down using a bisection method widely used in the field of numerical analysis as a solution algorithm for obtaining an optimal solution. In addition, since it is common with 1st Embodiment except the pattern optimization process by the parallax image evaluation part 430, below, only the pattern optimization process of this embodiment is demonstrated.

図16は、二分法を用いた評価範囲の絞り込みを説明する図である。図11に示した例と同様に、図16における横軸はパターンのパラメータ(例えば拡大縮小率やコントラスト)の値を示し、縦軸は視差画像の有効視差評価値を示している。また、図中のP0はパラメータの値の現在値であり、P1は評価基準値記憶部420から取得された評価基準値である。また、図中のP2,P3は、それぞれ評価範囲の絞り込みに用いた中点に相当するパラメータの値を表している。   FIG. 16 is a diagram for explaining the narrowing down of the evaluation range using the bisection method. Similarly to the example shown in FIG. 11, the horizontal axis in FIG. 16 indicates the values of pattern parameters (for example, the enlargement / reduction ratio and contrast), and the vertical axis indicates the effective parallax evaluation value of the parallax image. Further, P0 in the figure is the current value of the parameter value, and P1 is the evaluation reference value acquired from the evaluation reference value storage unit 420. In addition, P2 and P3 in the figure respectively represent parameter values corresponding to the midpoint used for narrowing down the evaluation range.

本実施形態の視差画像評価部430は、評価基準値記憶部420から評価基準値P1を取得すると、まず、パラメータの値が取り得る全範囲のうち、現在値P0を端点として評価基準値P1を含まない範囲を評価範囲から除外することにより、評価範囲の絞り込みを行う。図16(a)に示す例では、現在値P0よりも右側の範囲が評価範囲から除外されることで、評価範囲が、現在値P0よりも左側の範囲R11に絞り込まれる。   When the parallax image evaluation unit 430 of the present embodiment obtains the evaluation reference value P1 from the evaluation reference value storage unit 420, first, the parallax image evaluation unit 430 uses the current value P0 as an end point in the entire range that the parameter value can take. The evaluation range is narrowed down by excluding ranges not included in the evaluation range. In the example shown in FIG. 16A, the evaluation range is narrowed down to the range R11 on the left side of the current value P0 by excluding the range on the right side of the current value P0 from the evaluation range.

次に、視差画像評価部430は、パラメータの値を評価基準値P1に変更し、このときステレオカメラ2により生成される視差画像の有効視差評価値を算出して、算出した有効視差評価値を保持する。   Next, the parallax image evaluation unit 430 changes the parameter value to the evaluation reference value P1, calculates the effective parallax evaluation value of the parallax image generated by the stereo camera 2 at this time, and calculates the calculated effective parallax evaluation value. Hold.

次に、視差画像評価部430は、パラメータの値を、最初に絞り込んだ評価範囲の中点に相当する値P2に変更し、このときステレオカメラ2により生成される視差画像の有効視差評価値を算出する。そして、視差画像評価部430は、パラメータの値が評価基準値P1のときの有効視差評価値とパラメータの値が評価範囲の中点に相当する値P2のときの有効視差評価値とを比較し、その結果に応じて評価範囲をさらに絞り込む。   Next, the parallax image evaluation unit 430 changes the value of the parameter to a value P2 corresponding to the midpoint of the evaluation range narrowed down first. At this time, the parallax image evaluation value of the parallax image generated by the stereo camera 2 is changed. calculate. Then, the parallax image evaluation unit 430 compares the effective parallax evaluation value when the parameter value is the evaluation reference value P1 and the effective parallax evaluation value when the parameter value is the value P2 corresponding to the middle point of the evaluation range. The evaluation range is further narrowed down according to the result.

すなわち、パラメータの値が評価基準値P1のときの有効視差評価値が、パラメータの値が評価範囲の中点に相当する値P2のときの有効視差評価値よりも大きければ、評価範囲の中点に相当する値P2を端点として評価基準値P1を含む範囲に、評価範囲を絞り込む。一方、パラメータの値が評価範囲の中点に相当する値P2のときの有効視差評価値が、パラメータの値が評価基準値P1のときの有効視差評価値よりも大きければ、評価範囲の中点に相当する値P2を端点として評価基準値P1を含まない範囲に、評価範囲を絞り込む。図16(b)に示す例では、パラメータの値がP2のときの有効視差評価値が評価基準値P1のときの有効視差評価値よりも大きいので、評価範囲が、P2よりも左側の範囲R12に絞り込まれる。なお、パラメータの値がP2のときの有効視差評価値は、次の評価範囲の絞り込みを行うために保持される。   That is, if the effective parallax evaluation value when the parameter value is the evaluation reference value P1 is larger than the effective parallax evaluation value when the parameter value is the value P2 corresponding to the middle point of the evaluation range, the midpoint of the evaluation range The evaluation range is narrowed down to a range including the evaluation reference value P1 with the value P2 corresponding to. On the other hand, if the effective parallax evaluation value when the parameter value is the value P2 corresponding to the middle point of the evaluation range is greater than the effective parallax evaluation value when the parameter value is the evaluation reference value P1, the middle point of the evaluation range The evaluation range is narrowed down to a range that does not include the evaluation reference value P1 with the value P2 corresponding to. In the example shown in FIG. 16B, since the effective parallax evaluation value when the parameter value is P2 is larger than the effective parallax evaluation value when the parameter value is the evaluation reference value P1, the evaluation range is the range R12 on the left side of P2. It is narrowed down to. Note that the effective parallax evaluation value when the parameter value is P2 is held to narrow down the next evaluation range.

次に、視差画像評価部430は、パラメータの値を、前回絞り込んだ評価範囲の中点に相当する値P3に変更し、このときステレオカメラ2により生成される視差画像の有効視差評価値を算出する。そして、視差画像評価部430は、パラメータの値がP2のときの有効視差評価値とP3のときの有効視差評価値とを比較し、その結果に応じて評価範囲をさらに絞り込む。   Next, the parallax image evaluation unit 430 changes the parameter value to a value P3 corresponding to the midpoint of the evaluation range narrowed down last time, and calculates the effective parallax evaluation value of the parallax image generated by the stereo camera 2 at this time. To do. Then, the parallax image evaluation unit 430 compares the effective parallax evaluation value when the parameter value is P2 with the effective parallax evaluation value when the parameter value is P3, and further narrows down the evaluation range according to the result.

すなわち、パラメータの値がP2のときの有効視差評価値がP3のときの有効視差評価値よりも大きければ、評価範囲をP2からP3までの範囲に絞り込む。一方、パラメータの値がP3のときの有効視差評価値がP2のときの有効視差評価値よりも大きければ、P3を端点としてP2を含まない範囲に、評価範囲を絞り込む。図16(c)に示す例では、パラメータの値がP2のときの有効視差評価値がP3のときの有効視差評価値よりも大きいので、評価範囲がP2からP3の範囲R13に絞り込まれる。なお、パラメータの値がP3のときの有効視差評価値は、次の評価範囲の絞り込みを行うために保持される。   That is, if the effective parallax evaluation value when the parameter value is P2 is larger than the effective parallax evaluation value when P3, the evaluation range is narrowed down to a range from P2 to P3. On the other hand, if the effective parallax evaluation value when the parameter value is P3 is larger than the effective parallax evaluation value when P2 is set, the evaluation range is narrowed down to a range not including P2 with P3 as an end point. In the example shown in FIG. 16C, since the effective parallax evaluation value when the parameter value is P2 is larger than the effective parallax evaluation value when P3, the evaluation range is narrowed down to a range R13 from P2 to P3. Note that the effective parallax evaluation value when the parameter value is P3 is retained for narrowing down the next evaluation range.

視差画像評価部430は、以上のような評価範囲の絞り込みを所定回数繰り返すことでパラメータの値を最適値に近づけ、評価範囲の絞り込みを所定回数行ったときに得られる最新の視差画像を出力する。なお、本実施形態では、以上のような評価範囲の絞り込みを所定回数行った後に視差画像を出力して評価を終了するようにしているが、第1実施形態と同様に、視差画像の有効視差評価値が閾値VThを超えた段階で視差画像を出力して評価を終了してもよい。   The parallax image evaluation unit 430 repeats the narrowing down of the evaluation range as described above a predetermined number of times to bring the parameter value close to the optimum value, and outputs the latest parallax image obtained when the evaluation range is narrowed down the predetermined number of times. . In this embodiment, the evaluation range is narrowed down as described above, and then the parallax image is output and the evaluation is ended. However, as in the first embodiment, the effective parallax of the parallax image is output. When the evaluation value exceeds the threshold value VTh, the parallax image may be output to end the evaluation.

図17は、第2実施形態のパターン最適化処理を説明するフローチャートである。この図17のフローチャートで示す処理は、図14に示した第1実施形態のパターン最適化処理の代わりに、図12のフローチャートにおけるステップS102で実行される。   FIG. 17 is a flowchart for explaining pattern optimization processing according to the second embodiment. The process shown in the flowchart of FIG. 17 is executed in step S102 in the flowchart of FIG. 12 instead of the pattern optimization process of the first embodiment shown in FIG.

パターン最適化処理が開始されると、視差画像評価部430は、まず、評価基準値記憶部420が記憶する対応テーブルを参照し、物体判定部410から通知された判定結果に対応するパラメータの値を評価基準値として取得する(ステップS501)。   When the pattern optimization process is started, the parallax image evaluation unit 430 first refers to the correspondence table stored in the evaluation reference value storage unit 420 and the parameter value corresponding to the determination result notified from the object determination unit 410 Is obtained as an evaluation reference value (step S501).

次に、視差画像評価部430は、ステップS501で取得した評価基準値に基づいて、評価範囲の絞り込みを行う(ステップS502)。具体的には、視差画像評価部430は、図16(a)を用いて説明したように、パターン投光器3から物体に照射するパターンのパラメータの値が取り得る全範囲のうち、現在値P0を端点として評価基準値P1を含まない範囲を評価範囲から除外することにより、評価範囲の絞り込みを行う。   Next, the parallax image evaluation unit 430 narrows down the evaluation range based on the evaluation reference value acquired in step S501 (step S502). Specifically, as described with reference to FIG. 16A, the parallax image evaluation unit 430 sets the current value P0 out of the entire range that can be taken by the parameter values of the pattern irradiated from the pattern projector 3 to the object. The evaluation range is narrowed down by excluding a range that does not include the evaluation reference value P1 as an end point from the evaluation range.

次に、視差画像評価部430は、パターン投光器3が物体に照射するパターンのパラメータの値を評価基準値に設定する(ステップS503)。これにより、パラメータの値が評価基準値に設定されたパターンがパターン投光器3から物体に照射され、ステレオカメラ2による撮像および視差画像の生成が行われる(ステップS504)。   Next, the parallax image evaluation unit 430 sets the value of the parameter of the pattern that the pattern projector 3 irradiates the object to the evaluation reference value (step S503). As a result, the pattern with the parameter value set as the evaluation reference value is irradiated from the pattern projector 3 to the object, and the stereo camera 2 captures an image and generates a parallax image (step S504).

次に、視差画像評価部430は、ステップS504で生成された視差画像の有効視差評価値を算出し、算出した有効視差評価値を保持する(ステップS505)。   Next, the parallax image evaluation unit 430 calculates an effective parallax evaluation value of the parallax image generated in step S504, and holds the calculated effective parallax evaluation value (step S505).

次に、視差画像評価部430は、パターン投光器3が物体に照射するパターンのパラメータの値を、ステップS502で絞り込んだ評価範囲の中点に相当する値に設定する(ステップS506)。これにより、パラメータの値が評価範囲の中点に相当する値に設定されたパターンがパターン投光器3から物体に照射され、ステレオカメラ2による撮像および視差画像の生成が行われる(ステップS507)。   Next, the parallax image evaluation unit 430 sets the value of the parameter of the pattern irradiated to the object by the pattern projector 3 to a value corresponding to the midpoint of the evaluation range narrowed down in step S502 (step S506). As a result, a pattern whose parameter value is set to a value corresponding to the midpoint of the evaluation range is irradiated onto the object from the pattern projector 3, and the stereo camera 2 captures an image and generates a parallax image (step S507).

次に、視差画像評価部430は、ステップS507で生成された視差画像の有効視差評価値を算出し、算出した有効視差評価値がステップS505で保持した有効視差評価値よりも大きいか否かを判定する(ステップS508)。そして、ステップS507で生成された視差画像の有効視差評価値がステップS505で保持した有効視差評価値よりも大きければ(ステップS508:Yes)、評価範囲を、ステップS506で設定したパラメータの値(これまでの評価範囲の中点に相当する値)を端点として、評価基準値を含まない範囲に絞り込む(ステップS509)。一方、ステップS507で生成された視差画像の有効視差評価値がステップS505で保持した有効視差評価値以下であれば(ステップS508:No)、評価範囲を、ステップS506で設定したパラメータの値を端点として、評価基準値を含む範囲に絞り込む(ステップS510)。   Next, the parallax image evaluation unit 430 calculates an effective parallax evaluation value of the parallax image generated in step S507, and determines whether or not the calculated effective parallax evaluation value is larger than the effective parallax evaluation value held in step S505. Determination is made (step S508). If the effective parallax evaluation value of the parallax image generated in step S507 is larger than the effective parallax evaluation value held in step S505 (step S508: Yes), the evaluation range is the parameter value set in step S506 (this). (The value corresponding to the middle point of the evaluation range up to) is narrowed down to a range not including the evaluation reference value (step S509). On the other hand, if the effective parallax evaluation value of the parallax image generated in step S507 is equal to or smaller than the effective parallax evaluation value held in step S505 (step S508: No), the evaluation range is set to the parameter value set in step S506. Is narrowed down to a range including the evaluation reference value (step S510).

その後、視差画像評価部430は、評価範囲の絞り込み回数が所定回数に達したか否かを判定する(ステップS511)。そして、評価範囲の絞り込み回数が所定回数に達していなければ(ステップS511:No)、ステップS506で設定したパラメータの値(これまでの評価範囲の中点に相当する値)を評価基準値に置き換えて(ステップS512)、ステップS505以降の処理を繰り返す。一方、評価範囲の絞り込み回数が所定回数に達した場合は(ステップS511:Yes)、そのときの最新の視差画像を出力し(ステップS513)、パターン最適化処理を終了する。   Thereafter, the parallax image evaluation unit 430 determines whether or not the number of times of narrowing down the evaluation range has reached a predetermined number (step S511). If the number of narrowing down of the evaluation range has not reached the predetermined number (step S511: No), the parameter value set in step S506 (a value corresponding to the middle point of the evaluation range so far) is replaced with the evaluation reference value. (Step S512), the processing from step S505 onward is repeated. On the other hand, when the number of times of narrowing down the evaluation range has reached a predetermined number (step S511: Yes), the latest parallax image at that time is output (step S513), and the pattern optimization process is terminated.

以上のように、本実施形態では、二分法を用いた評価範囲の絞り込みを行うことで、精度のよい視差画像を得るためのパターン最適化処理を短時間で効率よく行うことができる。したがって、本実施形態によれば、第1実施形態と同様に、精度のよい視差画像を短時間で生成することができ、物体のピッキング動作に要するタクトタイムを短縮して、作業効率を高めることができる。   As described above, in the present embodiment, by narrowing down the evaluation range using the bisection method, pattern optimization processing for obtaining a highly accurate parallax image can be performed efficiently in a short time. Therefore, according to the present embodiment, as in the first embodiment, a highly accurate parallax image can be generated in a short time, and the tact time required for the object picking operation can be shortened to increase work efficiency. Can do.

[第3実施形態]
次に、第3実施形態について説明する。本実施形態では、パターン投光器3が物体に照射するパターンのパラメータとして、物体に対するパターン投光器3の位置を扱う。物体に対するパターン投光器3の位置は、第1実施形態においてパターンのパラメータの一つとして説明した拡大縮小率と等価である。つまり、パターン投光器3の位置が物体に近づくと、物体に照射されるパターンが拡大されることになり、パターン投光器3の位置が物体から離れると、物体に照射されるパターンが縮小されることになる。
[Third Embodiment]
Next, a third embodiment will be described. In the present embodiment, the position of the pattern projector 3 relative to the object is handled as a parameter of the pattern that the pattern projector 3 irradiates the object. The position of the pattern projector 3 relative to the object is equivalent to the enlargement / reduction ratio described as one of the pattern parameters in the first embodiment. That is, when the position of the pattern projector 3 approaches the object, the pattern irradiated to the object is enlarged, and when the position of the pattern projector 3 moves away from the object, the pattern irradiated to the object is reduced. Become.

図18は、本実施形態のピッキングシステム1の概略構成図である。図18に示すように、本実施形態のピッキングシステム1は、第1実施形態のピッキングシステム1の構成(図5参照)に対し、位置調整機構9が追加されている。位置調整機構9は、ピッキング対象となる物体に対するパターン投光器3の位置を調整するものであり、例えば、調整量をリニアに制御可能な電磁アクチュエータや、所定単位での調整が可能なステッピングモータを利用したアクチュエータなどを利用することができる。   FIG. 18 is a schematic configuration diagram of the picking system 1 of the present embodiment. As shown in FIG. 18, in the picking system 1 of the present embodiment, a position adjusting mechanism 9 is added to the configuration of the picking system 1 of the first embodiment (see FIG. 5). The position adjusting mechanism 9 adjusts the position of the pattern projector 3 with respect to the object to be picked. For example, an electromagnetic actuator that can linearly control the adjustment amount or a stepping motor that can be adjusted in a predetermined unit is used. Can be used.

本実施形態のピッキングシステム1では、情報処理装置4の視差画像評価部430が、位置調整機構9に対して制御指令を出力することにより、ピッキング対象となる物体に対するパターン投光器3の位置を調整する。視差画像評価部430は、この位置調整機構9により調整されるパターン投光器3の位置を、パターン投光器3から物体に照射されるパターンのパラメータとして、第1実施形態や第2実施形態と同様の方法により、パターン最適化処理を行う。これにより、第1実施形態や第2実施形態と同様に、精度のよい視差画像を短時間で生成することができ、物体のピッキング動作に要するタクトタイムを短縮して、作業効率を高めることができる。   In the picking system 1 of the present embodiment, the parallax image evaluation unit 430 of the information processing device 4 adjusts the position of the pattern projector 3 relative to the object to be picked by outputting a control command to the position adjustment mechanism 9. . The parallax image evaluation unit 430 uses the position of the pattern projector 3 adjusted by the position adjustment mechanism 9 as a parameter of the pattern irradiated to the object from the pattern projector 3, and is the same method as in the first embodiment and the second embodiment. Thus, pattern optimization processing is performed. As a result, similar to the first embodiment and the second embodiment, a highly accurate parallax image can be generated in a short time, and the tact time required for the object picking operation can be shortened to improve work efficiency. it can.

(補足説明)
上述した各実施形態において説明した情報処理装置4の機能的な構成要素(物体判定部410、視差画像評価部430、認識処理部440など)は、例えば、図6のCPU12がRAM14をワークエリアとして利用して、ROM13やハードディスク装置に格納されたプログラムを実行することにより実現することができる。この場合、上記プログラムは、情報処理装置4にインストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVDなどのコンピュータで読み取り可能な記録媒体に記録して提供される。また、上記プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由で情報処理装置4にダウンロードさせることにより提供するように構成してもよい。さらに、上記プログラムを、インターネットなどのネットワーク経由で提供または配布するように構成してもよい。また、上記プログラムを、例えば情報処理装置4内のROM13などに予め組み込んで提供するようにしてもよい。
(Supplementary explanation)
For example, the CPU 12 of FIG. 6 uses the RAM 14 as a work area for the functional components (the object determination unit 410, the parallax image evaluation unit 430, the recognition processing unit 440, etc.) of the information processing apparatus 4 described in each of the above-described embodiments. This can be realized by executing a program stored in the ROM 13 or the hard disk device. In this case, the program is recorded in a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD in a format that can be installed in the information processing apparatus 4 or an executable format. Provided. Further, the program may be provided by being stored on a computer connected to a network such as the Internet and downloaded to the information processing apparatus 4 via the network. Furthermore, the program may be configured to be provided or distributed via a network such as the Internet. Further, the program may be provided by being incorporated in advance in, for example, the ROM 13 in the information processing apparatus 4.

また、上述した実施形態および各変形例において説明した情報処理装置4の機能的な構成要素は、その一部または全部を、例えばASIC(Application Specific Integrated Circuit)やFPGAなどの専用のハードウェアを用いて実現することもできる。また、上述した実施形態および各変形例において説明した情報処理装置4の機能的な構成要素は、その一部または全部を、例えばステレオカメラ2やパターン投光器3など、情報処理装置4とは別の装置に設けるようにしてもよい。   In addition, the functional components of the information processing apparatus 4 described in the above-described embodiment and each modification use part or all of dedicated hardware such as ASIC (Application Specific Integrated Circuit) or FPGA. Can also be realized. In addition, the functional components of the information processing apparatus 4 described in the above-described embodiments and modifications are partly or entirely different from the information processing apparatus 4 such as the stereo camera 2 and the pattern projector 3. You may make it provide in an apparatus.

以上、本発明の具体的な実施形態について説明したが、上述した実施形態は本発明の一適用例を示したものである。本発明は、上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で様々な変形や変更を加えて具体化することができる。例えば、上述した実施形態では、ステレオカメラ2内の2つの撮像部10a,10bにより基準画像撮像部210および比較画像撮像部220を実現する構成を例示したが、視差画像生成部230を有するステレオカメラ2とは別体のカメラをステレオカメラ2に接続し、この別体のカメラにより基準画像撮像部210と比較画像撮像部220の少なくとも一方を実現する構成としてもよい。   Although specific embodiments of the present invention have been described above, the above-described embodiments show an application example of the present invention. The present invention is not limited to the above-described embodiment as it is, and can be embodied with various modifications and changes without departing from the scope of the invention in the implementation stage. For example, in the above-described embodiment, the configuration in which the reference image capturing unit 210 and the comparative image capturing unit 220 are realized by the two image capturing units 10a and 10b in the stereo camera 2 is exemplified. However, the stereo camera having the parallax image generating unit 230 is illustrated. 2 may be configured such that a separate camera is connected to the stereo camera 2 and at least one of the reference image capturing unit 210 and the comparative image capturing unit 220 is realized by the separate camera.

また、上述した実施形態では、ステレオカメラ2を備えるものとして説明したが、これに限定されるものではなく、ステレオカメラ2に代えて単眼カメラを備える構成としてもよい。この場合、単眼カメラを移動させて被写体としての物体を複数回撮像し、複数回撮像した画像を使用して物体までの距離情報を得る構成であってもよいし、位相シフト法により物体までの距離情報を得る構成であってもよい。   In the above-described embodiment, the stereo camera 2 is described as being provided. However, the present invention is not limited to this, and a monocular camera may be provided instead of the stereo camera 2. In this case, the configuration may be such that the object as a subject is imaged a plurality of times by moving the monocular camera, and distance information to the object is obtained using the image captured a plurality of times. The structure which acquires distance information may be sufficient.

また、上述した実施形態では、パターン最適化処理により値を変更するパラメータとしてパターンの拡大縮小率とコントラストを例示したが、パターン最適化処理で扱うパラメータはこの例に限定されるものではなく、パターンが有するテクスチャのサイズ、形状、色、密度、明度のいずれか一つ以上に関わる他のパラメータを扱うようにしてもよい。例えば、パターンのテクスチャの周波数(出現頻度)やテクスチャの輝度レベル(多輝度)などは、視差画像の有効視差評価値に影響を与えるパターンのパラメータであるため、これらのパラメータをパターン最適化処理で扱うようにしてもよい。   In the above-described embodiment, the pattern enlargement / reduction ratio and contrast are exemplified as parameters whose values are changed by the pattern optimization process. However, the parameters handled in the pattern optimization process are not limited to this example. Other parameters related to one or more of the size, shape, color, density, and brightness of the texture of the image may be handled. For example, the frequency of pattern texture (appearance frequency) and the luminance level of texture (multi-brightness) are pattern parameters that affect the effective parallax evaluation value of parallax images. You may make it handle.

例えば、物体のサイズが小さい場合に、パターンのテクスチャ周波数が低いと、テクスチャが現れる頻度が低く、物体表面に十分なテクスチャが照射されない。その結果、有効視差点数が少なくなる場合が考えられる。物体表面に十分なテクチャを照射するために、テクスチャの出現頻度を高めることで、有効視差点数は増加する。このため、物体判定部410により物体のサイズが判定され、パターンのテクスチャ周波数に対して物体のサイズが小さい場合に、パターン最適化処理においてパターンのパラメータとしてテクスチャ周波数の値を上げることにより、テクスチャの出現頻度が高くなり有効視差点数を増加させることができる。   For example, when the size of the object is small and the texture frequency of the pattern is low, the frequency of appearance of the texture is low, and sufficient texture is not applied to the object surface. As a result, the number of effective parallax points may be reduced. In order to irradiate the object surface with sufficient texture, the number of effective parallax points increases by increasing the appearance frequency of the texture. Therefore, when the object size is determined by the object determination unit 410 and the object size is smaller than the texture frequency of the pattern, by increasing the texture frequency value as the pattern parameter in the pattern optimization process, The appearance frequency increases and the number of effective parallax points can be increased.

また、例えば、物体表面の色が白、黄色といった明るい色の場合、照射したパターンの模様は鮮明に物体表面に照射される。このとき、パターンが2値の白・黒のみの場合、視差画像生成部230において、基準画像と比較画像の対応画素として似た白黒の繰り返しが出現してしまった場合に、ステレオマッチング処理における誤マッチングが発生し、有効視差点数が少なくなる場合が考えられる。ステレオマッチング処理における誤マッチングを減らして有効視差点数を増加させるには、似た繰り返しが出現しないように、複数の輝度レベルを持つテクスチャを照射し、似た繰り返しが出現しないようにすることが有効である。このため、物体判定部410により物体の色が判定され、パターンのテクスチャの輝度レベルが物体の色に対して少ない場合に、テクスチャの輝度レベルを増加(多輝度化)させることにより、ステレオマッチング処理における誤マッチングを防止して有効視差点数を増加させることができる。   Further, for example, when the color of the object surface is a bright color such as white or yellow, the pattern of the irradiated pattern is clearly irradiated on the object surface. At this time, if the pattern is only binary white / black, an error in the stereo matching process occurs when a similar black-and-white repetition appears as a corresponding pixel of the reference image and the comparison image in the parallax image generation unit 230. There may be a case where matching occurs and the number of effective parallax points decreases. To increase the number of effective parallax points by reducing false matching in the stereo matching process, it is effective to irradiate textures with multiple brightness levels so that similar repetitions do not appear and prevent similar repetitions from appearing. It is. For this reason, when the object color is determined by the object determination unit 410 and the luminance level of the texture of the pattern is less than the color of the object, the luminance level of the texture is increased (multi-brightness), thereby performing stereo matching processing. The number of effective parallax points can be increased by preventing erroneous matching in

1 ピッキングシステム
2 ステレオカメラ
3 パターン投光器
4 情報処理装置
5 アーム制御装置
9 位置調整機構
210 基準画像撮像部
220 比較画像撮像部
230 視差画像生成部
410 物体判定部
420 評価基準値記憶部
430 視差画像評価部
440 認識処理部
DESCRIPTION OF SYMBOLS 1 Picking system 2 Stereo camera 3 Pattern projector 4 Information processing apparatus 5 Arm control apparatus 9 Position adjustment mechanism 210 Reference image imaging unit 220 Comparative image imaging unit 230 Parallax image generation unit 410 Object determination unit 420 Evaluation reference value storage unit 430 Parallax image evaluation Part 440 recognition processing part

特許第4473136号公報Japanese Patent No. 4473136

Claims (10)

物体にパターンを照射するパターン照射手段と、
前記パターンが照射された前記物体を撮像する撮像手段と、
前記撮像手段により撮像された撮像画像から視差画像を生成する生成手段と、
前記パターンに関わるパラメータの値を変更しながら前記生成手段により生成される前記視差画像を評価して、評価結果に基づいて前記視差画像を出力する評価手段と、
前記物体のサイズ、形状、色、光透過率、前記撮像手段からの距離の少なくとも一つを判定する判定手段と、を備え、
前記評価手段は、前記判定手段の判定結果に対応する値として予め定められた前記パラメータの値を評価基準値として取得し、取得した前記評価基準値に基づいて、前記視差画像を評価する前記パラメータの値の範囲である評価範囲の絞り込みを行う、視差画像生成システム。
Pattern irradiation means for irradiating the object with a pattern;
Imaging means for imaging the object irradiated with the pattern;
Generating means for generating a parallax image from a captured image captured by the imaging means;
An evaluation unit that evaluates the parallax image generated by the generation unit while changing a value of a parameter related to the pattern, and outputs the parallax image based on an evaluation result;
Determination means for determining at least one of the size, shape, color, light transmittance, and distance from the imaging means of the object,
The evaluation means acquires the parameter value predetermined as a value corresponding to the determination result of the determination means as an evaluation reference value, and evaluates the parallax image based on the acquired evaluation reference value The parallax image generation system which narrows down the evaluation range which is the range of the value of.
前記評価手段は、前記パラメータの値が取り得る全範囲のうち、前記パラメータの現在値を端点として前記評価基準値を含まない範囲を前記評価範囲から除外することで、前記評価範囲の絞り込みを行う、請求項1に記載の視差画像生成システム。   The evaluation means narrows down the evaluation range by excluding, from the evaluation range, a range that does not include the evaluation reference value, with the current value of the parameter as an end point, out of all possible ranges of the parameter value The parallax image generation system according to claim 1. 前記評価手段は、前記パラメータの現在値を前記評価基準値に変更したときの前記視差画像の評価結果が所定の基準を満たさない場合に、前記評価範囲内で前記パラメータの値をさらに変更する、請求項2に記載の視差画像生成システム。   The evaluation means further changes the value of the parameter within the evaluation range when the evaluation result of the parallax image when the current value of the parameter is changed to the evaluation reference value does not satisfy a predetermined reference; The parallax image generation system according to claim 2. 前記評価手段は、前記パラメータの値を前記評価基準値から変更したときの前記視差画像の評価結果が変更前の評価結果より向上しているか否かに基づいて、前記評価範囲をさらに絞り込む、請求項3に記載の視差画像生成システム。   The evaluation means further narrows down the evaluation range based on whether or not an evaluation result of the parallax image when the parameter value is changed from the evaluation reference value is improved from an evaluation result before the change. Item 4. The parallax image generation system according to Item 3. 前記評価手段は、前記パラメータの値を前記評価基準値から変更する際の前記評価範囲を二分法により絞り込む、請求項4に記載の視差画像生成システム。   The parallax image generation system according to claim 4, wherein the evaluation unit narrows down the evaluation range when changing the parameter value from the evaluation reference value by a bisection method. 前記評価手段は、前記視差画像の有効視差点数を評価し、該有効視差点数の評価値が閾値を超えると評価を終了して前記視差画像を出力する、請求項1乃至5のいずれか一項に記載の視差画像生成システム。   The evaluation means evaluates the effective parallax score of the parallax image, and ends the evaluation and outputs the parallax image when the evaluation value of the effective parallax score exceeds a threshold value. The parallax image generation system described in 1. 前記パラメータは、前記パターンが有するテクスチャのサイズ、形状、色、密度、明度のいずれか一つ以上に関わるパラメータである、請求項1乃至6のいずれか一項に記載の視差画像生成システム。   The parallax image generation system according to claim 1, wherein the parameter is a parameter related to any one or more of a size, shape, color, density, and brightness of a texture included in the pattern. 前記物体に対する前記パターン照射手段の位置を調整する位置調整手段をさらに備え、
前記パラメータは、前記物体に対する前記パターン照射手段の位置を含む、請求項1乃至7のいずれか一項に記載の視差画像生成システム。
A position adjusting means for adjusting the position of the pattern irradiation means with respect to the object;
The parallax image generation system according to any one of claims 1 to 7, wherein the parameter includes a position of the pattern irradiation unit with respect to the object.
前記判定手段は、前記撮像手段により撮像された撮像画像に基づいて、前記物体のサイズ、形状、色、光透過率、前記撮像手段からの距離の少なくとも一つを判定する、請求項1乃至8のいずれか一項に記載の視差画像生成システム。   The determination unit determines at least one of a size, a shape, a color, a light transmittance, and a distance from the imaging unit based on a captured image captured by the imaging unit. The parallax image generation system according to any one of the above. 視差画像生成システムにより実行される視差画像生成方法であって、
物体にパターンを照射し、前記パターンが照射された前記物体を撮像手段により撮像して、撮像画像から視差画像を生成する工程と、
前記物体のサイズ、形状、色、光透過率、前記撮像手段からの距離の少なくとも一つを判定して判定結果を出力する工程と、
前記パターンに関わるパラメータの値を変更しながら前記生成手段により生成される前記視差画像を評価して、評価結果に基づいて前記視差画像を出力する工程と、を含み、
前記視差画像を評価する際に、前記判定結果に対応する値として予め定められた前記パラメータの値を評価基準値として取得し、取得した前記評価基準値に基づいて、前記視差画像を評価する前記パラメータの値の範囲である評価範囲の絞り込みを行う、視差画像生成方法。
A parallax image generation method executed by a parallax image generation system,
Irradiating an object with a pattern, imaging the object irradiated with the pattern with an imaging unit, and generating a parallax image from the captured image;
Determining at least one of the size, shape, color, light transmittance, and distance from the imaging means of the object and outputting a determination result;
Evaluating the parallax image generated by the generation unit while changing the value of a parameter related to the pattern, and outputting the parallax image based on an evaluation result,
When evaluating the parallax image, the parameter value predetermined as a value corresponding to the determination result is acquired as an evaluation reference value, and the parallax image is evaluated based on the acquired evaluation reference value A parallax image generation method that narrows down an evaluation range that is a range of parameter values.
JP2015048879A 2015-03-11 2015-03-11 Picking system and picking method Expired - Fee Related JP6554832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015048879A JP6554832B2 (en) 2015-03-11 2015-03-11 Picking system and picking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015048879A JP6554832B2 (en) 2015-03-11 2015-03-11 Picking system and picking method

Publications (2)

Publication Number Publication Date
JP2016169989A true JP2016169989A (en) 2016-09-23
JP6554832B2 JP6554832B2 (en) 2019-08-07

Family

ID=56982322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015048879A Expired - Fee Related JP6554832B2 (en) 2015-03-11 2015-03-11 Picking system and picking method

Country Status (1)

Country Link
JP (1) JP6554832B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019158776A (en) * 2018-03-16 2019-09-19 株式会社リコー Imaging apparatus, vehicle, and imaging method
JP2020190411A (en) * 2019-05-17 2020-11-26 キヤノン株式会社 Imaging device, image processing device, image processing method, calibration method of imaging device, robot device, manufacturing method of articles using robot device, control program and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2647502B2 (en) * 1989-06-30 1997-08-27 株式会社日立製作所 Pattern comparison inspection method and apparatus
JP2000094374A (en) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd Picking device
JP2001267216A (en) * 2000-03-17 2001-09-28 Nikon Corp Method and device for detecting position and method and device for exposure
JP2002343022A (en) * 2001-05-15 2002-11-29 Sony Corp Reproducing device and adaptive equalization method
JP2007034781A (en) * 2005-07-28 2007-02-08 Fuji Electric Fa Components & Systems Co Ltd Method of adjusting control parameter for positioning controller
JP4473136B2 (en) * 2002-11-22 2010-06-02 ストライダー ラブス,インコーポレイテッド Acquisition of 3D images by active stereo technology using local unique patterns

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2647502B2 (en) * 1989-06-30 1997-08-27 株式会社日立製作所 Pattern comparison inspection method and apparatus
JP2000094374A (en) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd Picking device
JP2001267216A (en) * 2000-03-17 2001-09-28 Nikon Corp Method and device for detecting position and method and device for exposure
JP2002343022A (en) * 2001-05-15 2002-11-29 Sony Corp Reproducing device and adaptive equalization method
JP4473136B2 (en) * 2002-11-22 2010-06-02 ストライダー ラブス,インコーポレイテッド Acquisition of 3D images by active stereo technology using local unique patterns
JP2007034781A (en) * 2005-07-28 2007-02-08 Fuji Electric Fa Components & Systems Co Ltd Method of adjusting control parameter for positioning controller

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019158776A (en) * 2018-03-16 2019-09-19 株式会社リコー Imaging apparatus, vehicle, and imaging method
JP7206602B2 (en) 2018-03-16 2023-01-18 株式会社リコー Imaging device, vehicle, and imaging method
JP2020190411A (en) * 2019-05-17 2020-11-26 キヤノン株式会社 Imaging device, image processing device, image processing method, calibration method of imaging device, robot device, manufacturing method of articles using robot device, control program and recording medium
US11637948B2 (en) 2019-05-17 2023-04-25 Canon Kabushiki Kaisha Image capturing apparatus, image processing apparatus, image processing method, image capturing apparatus calibration method, robot apparatus, method for manufacturing article using robot apparatus, and recording medium
JP7427370B2 (en) 2019-05-17 2024-02-05 キヤノン株式会社 Imaging device, image processing device, image processing method, calibration method for imaging device, robot device, method for manufacturing articles using robot device, control program, and recording medium

Also Published As

Publication number Publication date
JP6554832B2 (en) 2019-08-07

Similar Documents

Publication Publication Date Title
US10782126B2 (en) Three-dimensional scanning method containing multiple lasers with different wavelengths and scanner
US20150256813A1 (en) System and method for 3d reconstruction using multiple multi-channel cameras
CN109691092B (en) System and method for improved depth sensing
JP2021192064A (en) Three-dimensional measuring system and three-dimensional measuring method
US9835438B2 (en) Distance measuring apparatus and method
JP5949314B2 (en) Parallax map generator and program for parallax map generator
JP6104198B2 (en) Object recognition device
JP2016075658A (en) Information process system and information processing method
WO2014108976A1 (en) Object detecting device
JP7093915B2 (en) Surface shape measurement method
JP6405124B2 (en) Inspection device, inspection method, and program
JP6554832B2 (en) Picking system and picking method
JP6668594B2 (en) Parallax calculation system, information processing device, information processing method, and program
JP2007508557A (en) Device for scanning three-dimensional objects
JP2016109671A (en) Three-dimensional measuring apparatus and control method therefor
US11803982B2 (en) Image processing device and three-dimensional measuring system
US10497141B2 (en) Three-dimensional imaging using frequency domain-based processing
TWI571099B (en) Device and method for depth estimation
US9674503B2 (en) Stereo matching apparatus using image property
KR102209222B1 (en) Three-dimensional scanning system
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
JP2011064617A (en) Three-dimensional information measuring device and three-dimensional information measuring method
JP2010250651A (en) Vehicle detecting unit
JP2017020971A (en) Pattern image projection device, parallax information creating device, and pattern image creating program
JP2016053481A (en) Information processing device, information processing system, method for controlling information processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190624

R151 Written notification of patent or utility model registration

Ref document number: 6554832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees