JP6435647B2 - Object recognition method, object recognition apparatus, and object recognition program - Google Patents
Object recognition method, object recognition apparatus, and object recognition program Download PDFInfo
- Publication number
- JP6435647B2 JP6435647B2 JP2014111004A JP2014111004A JP6435647B2 JP 6435647 B2 JP6435647 B2 JP 6435647B2 JP 2014111004 A JP2014111004 A JP 2014111004A JP 2014111004 A JP2014111004 A JP 2014111004A JP 6435647 B2 JP6435647 B2 JP 6435647B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- light spot
- feature
- light spots
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、物体認識方法、物体認識装置及び物体認識プログラムに関する。 The present invention relates to an object recognition method, an object recognition apparatus, and an object recognition program.
例えば、格子状に配列された複数の光点を含むパターンを所定の領域に投影し、投影されたパターンを撮影した画像における各光点の基準の位置からのずれに基づいて、光点が投影された領域内の物体の形状を認識する技術がある(例えば、特許文献1参照)。 For example, a pattern including a plurality of light spots arranged in a grid pattern is projected onto a predetermined area, and light spots are projected based on the deviation of each light spot from the reference position in an image obtained by photographing the projected pattern. There is a technique for recognizing the shape of an object in a specified area (see, for example, Patent Document 1).
この種の技術では、各光点の基準の位置からのずれの大きさから、パターンの投影に用いた光源と物体に投影された光点との距離を求めることで、パターンが投影された物体の表面の凹凸などの物体の形状を認識する。 In this kind of technology, the object on which the pattern is projected is obtained by obtaining the distance between the light source used for projecting the pattern and the light spot projected on the object from the magnitude of deviation from the reference position of each light spot. Recognize the shape of objects such as surface irregularities.
物体に投影された各光点までの距離に基づいて物体の形状を認識する技術では、例えば、類似した形状を持つ複数の物体を含む領域にパターンを投影した場合に、物体のそれぞれの素材や表面の特徴に違いがあっても、個々の物体を判別することは困難である。 In the technology for recognizing the shape of an object based on the distance to each light spot projected on the object, for example, when a pattern is projected on an area including a plurality of objects having similar shapes, Even if there are differences in surface characteristics, it is difficult to distinguish individual objects.
本件開示の物体認識方法、物体認識装置及び物体認識プログラムは、形状が類似していても表面の特徴が異なる物体を互いに判別可能とする技術を提供することを目的とする。 An object recognition method, an object recognition apparatus, and an object recognition program disclosed in the present disclosure are intended to provide a technique that enables objects having different surface characteristics to be distinguished from each other even though their shapes are similar.
一つの観点によれば、物体認識方法は、複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、第1物体を示す可能性を持つ候補領域として抽出し、候補領域に含まれる複数の光点の特徴を含む第1ベクトルを求め、物体の種類が既知である複数の第2物体のそれぞれに投影されたパターンに含まれる複数の光点のそれぞれの特徴を含む予め登録された第2ベクトルの中で、候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、第1物体の種類として認識する。 According to one aspect, the object recognition method, from the first object image pattern including a plurality of light spots are projected, brightness, and the light spots or features of clarity of outline similar to each other are distributed The range is extracted as a candidate region having the possibility of indicating the first object, a first vector including features of a plurality of light spots included in the candidate region is obtained, and a plurality of second objects whose types of objects are known Among the second vectors registered in advance including the characteristics of the plurality of light spots included in the projected patterns, the second vector similar to the other second vectors to the first vector of the candidate area The second object identified and associated with the identified second vector is recognized as the type of the first object.
また、別の観点によれば、物体認識装置は、複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、第1物体を示す可能性を持つ候補領域として抽出する抽出部と、候補領域に含まれる複数の光点の特徴を含む第1ベクトルを求める算出部と、物体の種類が既知である複数の第2物体のそれぞれに投影されたパターンに含まれる複数の光点のそれぞれの特徴を含む予め登録された第2ベクトルの中で、候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、第1物体の種類として認識する認識部とを有する。 According to another aspect, the object recognizing device has a light spot similar to each other in brightness or contour clarity from an image of the first object on which a pattern including a plurality of light spots is projected. An extraction unit that extracts a distributed range as a candidate region having a possibility of indicating the first object, a calculation unit that obtains a first vector including features of a plurality of light spots included in the candidate region, and the type of the object are known Among the previously registered second vectors including the features of the plurality of light spots included in the pattern projected onto each of the plurality of second objects, the second vector other than the first vector of the candidate region And a recognizing unit that recognizes the second object associated with the identified second vector as the type of the first object.
さらに別の観点によれば、物体認識プログラムは、複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、第1物体を示す可能性を持つ候補領域として抽出し、候補領域に含まれる複数の光点の特徴を含む第1ベクトルを求め、物体の種類が既知である複数の第2物体のそれぞれに投影されたパターンに含まれる複数の光点のそれぞれの特徴を含む予め登録された第2ベクトルの中で、候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、第1物体の種類として認識する、処理をコンピュータに実行させる。
According to still another aspect, the object recognition program distributes light spots whose characteristics of brightness or contour clarity are similar to each other from an image of a first object on which a pattern including a plurality of light spots is projected. A plurality of second objects whose types of objects are known by obtaining a first vector including features of a plurality of light spots included in the candidate area. A second vector that is similar to the first vector of the candidate region from the other second vectors among the previously registered second vectors including the characteristics of each of the plurality of light spots included in the projected pattern And the computer recognizes the second object associated with the identified second vector as the type of the first object.
本件開示の物体認識方法、物体認識装置及び物体認識プログラムは、形状が類似していても表面の特徴が異なる物体を互いに判別することができる。 The object recognition method, the object recognition apparatus, and the object recognition program disclosed in the present disclosure can discriminate objects having different surface characteristics even if they have similar shapes.
以下、図面に基づいて、実施形態を説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は、物体認識装置の一実施形態を示す。図1に示した物体認識装置10は、抽出部11と、算出部12と、認識部13とを含み、カメラCAMで撮影された画像IMGを受ける。また、物体認識装置10は、特徴データベースDBに接続されており、特徴データベースDBに予め蓄積された情報を参照可能である。なお、特徴データベースDBは、物体認識装置10の内部に設けられてもよい。
FIG. 1 shows an embodiment of an object recognition apparatus. The
物体認識装置10に含まれる各部の機能及び動作の説明に先立って、カメラCAM及び投影装置PRについて説明する。
Prior to the description of the function and operation of each unit included in the
投影装置PRは、例えば、二つの物体T1、T2を含む領域に、図1において白色の円で示す複数の光点を含むパターンPTを投影する。投影装置PRによって投影されるパターンPTは、例えば、所定の間隔の格子状に配列される複数の光点を含んでいる。投影装置PRは、例えば、投影装置PRの内部に含まれる半導体レーザなどの発光素子から射出される光束を、投影装置PRの内部に含まれる回折格子によって回折させることで、複数の光点を格子状に配列させたパターンPTを投影する。なお、図1では、説明を分かりやすくするために、球状の物体T1,T2にパターンPTが投影された場合を示したが、物体T1、T2の形状は、図1に示した形状に限らず、例えば、表面に凹凸があってもよい。また、図1に示した物体T1,T2のそれぞれは、パターンPTが投影された領域に含まれる第1物体の一例である。 For example, the projection apparatus PR projects a pattern PT including a plurality of light spots indicated by white circles in FIG. 1 onto an area including two objects T1 and T2. The pattern PT projected by the projection device PR includes, for example, a plurality of light spots arranged in a grid pattern with a predetermined interval. The projection apparatus PR, for example, diffracts a light beam emitted from a light emitting element such as a semiconductor laser included in the projection apparatus PR by a diffraction grating included in the projection apparatus PR, thereby grating a plurality of light spots. The pattern PT arranged in a shape is projected. In FIG. 1, for ease of explanation, the case where the pattern PT is projected onto the spherical objects T1 and T2 is shown, but the shapes of the objects T1 and T2 are not limited to the shapes shown in FIG. For example, the surface may be uneven. Further, each of the objects T1 and T2 illustrated in FIG. 1 is an example of a first object included in a region where the pattern PT is projected.
カメラCAMは、例えば、投影装置PRによって物体T1,T2を含む領域に投影されたパターンPTを撮影することで、物体T1,T2の表面に投影された複数の光点を含む画像IMGを取得する。カメラCAMは、投影装置PRの内部に含まれる発光素子から射出される光の波長を含む波長帯に対する感度を有する。カメラCAMによって撮影された画像IMGは、物体認識装置10の抽出部11に渡される。
For example, the camera CAM captures an image IMG including a plurality of light spots projected on the surfaces of the objects T1 and T2 by photographing the pattern PT projected onto the area including the objects T1 and T2 by the projection device PR. . The camera CAM has sensitivity to a wavelength band including the wavelength of light emitted from a light emitting element included in the projection apparatus PR. The image IMG photographed by the camera CAM is transferred to the
カメラCAMは、投影装置PRがパターンPTを投影する方向に対して傾いた方向から、物体T1,T2に投影されたパターンPTを撮影する。このため、カメラCAMによって撮影された画像IMGにおいて、パターンPTに含まれる各光点の位置は、光源である投影装置PRと物体T1,T2上に投影された各光点との距離に応じて、基準となる位置からずれることになる。ここで、各光点の基準となる位置とは、例えば、投影装置PRから所定の距離に配置された基準面に投影されたパターンPTをカメラCAMにより撮影した場合に得られる画像IMGにおける各光点の位置である。なお、カメラCAMで撮影された画像の例は、図2を用いて後述される。 The camera CAM photographs the pattern PT projected on the objects T1 and T2 from the direction inclined with respect to the direction in which the projection apparatus PR projects the pattern PT. For this reason, in the image IMG photographed by the camera CAM, the position of each light spot included in the pattern PT depends on the distance between the projection device PR that is the light source and each light spot projected on the objects T1 and T2. , It will deviate from the reference position. Here, the reference position of each light spot is, for example, each light in the image IMG obtained when the pattern PT projected on the reference plane arranged at a predetermined distance from the projection device PR is photographed by the camera CAM. The position of the point. An example of an image photographed by the camera CAM will be described later with reference to FIG.
図1に示した抽出部11は、例えば、パターンPTが投影された物体T1,T2の画像IMGをカメラCAMから受ける。そして、抽出部11は、受けた画像IMGから、類似する特徴を有する光点が分布する範囲のそれぞれを、パターンPTが投影された領域に含まれる物体(例えば、物体T1,T2)を示す可能性を持つ候補領域として抽出する。例えば、抽出部11は、同等の輝度を持つ所定数以上の光点が連続して分布する範囲を画像IMGから検出し、検出した範囲を候補領域の一つとして抽出する。なお、抽出部11により抽出される候補領域の例は、図2を用いて説明される。
The
図1に示した算出部12は、抽出部11から、抽出部11により画像IMGから抽出された候補領域のそれぞれを示す情報を受ける。そして、算出部12は、抽出部11から受けた情報に基づき、候補領域ごとに、候補領域に含まれる複数の光点の特徴を示す第1ベクトルを求める。算出部12は、例えば、候補領域に含まれる各光点の基準の位置からのずれに基づいて、投影装置PRによりパターンPTが投影される基準面から物体T1,T2上に投影された各光点までの距離を算出し、算出した距離を示す情報を第1ベクトルの一部とする。ここで、パターンPTが投影される基準面は、パターンPTに含まれる各光点の基準となる位置の設定に用いられる基準面と同等であり、例えば、投影装置PRから所定の距離に設定される。また、算出部12は、例えば、候補領域に含まれる複数の光点のそれぞれの特徴を示す輝度などの特徴量の平均値を求め、各特徴量について求めた値を第1ベクトルの一部とする。
The
ここで、算出部12により第1ベクトルの一部として求められる、基準面から各光点までの距離を示す情報は、各候補領域に含まれる光点が投影された物体の形状の特徴を示す。また、候補領域ごとの第1ベクトルに含まれる輝度などの特徴量の平均値は、各候補領域に含まれる光点の特徴、即ち、光点が投影された物体の表面の色、材質及び滑らかさ等の性質の特徴を示す。すなわち、候補領域ごとに算出部12によって求められる第1ベクトルは、各候補領域に含まれる物体の形状及び表面の特徴を示す情報であることから、以下の説明において、候補領域の特徴ベクトルと称される場合がある。また、算出部12により各候補領域について求められる特徴ベクトルの例は、図5を用いて説明される。
Here, the information obtained as a part of the first vector by the
図1に示した特徴データベースDBは、複数の既知の物体のそれぞれに投影されたパターンPTに含まれる複数の光点のそれぞれの特徴を示す特徴ベクトルが予め登録されている。即ち、特徴データベースDBは、物体の種類が既知である複数の第2物体のそれぞれに投影されたパターンPTに含まれる複数の光点のそれぞれの特徴を示す予め登録された第2ベクトルの一例である。ここで、既知の各物体に対応して特徴データベースDBに登録された特徴ベクトルは、各物体の形状の特徴を示す情報として、パターンPTが投影される基準面から各物体上に投影された光点のそれぞれまでの距離を示す情報を含む。また、既知の各物体に対応して特徴データベースDBに登録された特徴ベクトルは、各物体の表面の性質の特徴を示す情報として、各物体上に投影された光点の輝度などの特徴量を示す情報を含む。なお、特徴データベースDBに蓄積される特徴ベクトルの例は、図6を用いて後述される。 In the feature database DB shown in FIG. 1, feature vectors indicating the features of a plurality of light spots included in the pattern PT projected onto each of a plurality of known objects are registered in advance. That is, the feature database DB is an example of a pre-registered second vector indicating the features of the plurality of light spots included in the pattern PT projected on each of the plurality of second objects whose types of objects are known. is there. Here, the feature vector registered in the feature database DB corresponding to each known object is light projected onto each object from the reference plane on which the pattern PT is projected as information indicating the feature of the shape of each object. Contains information indicating the distance to each of the points. In addition, the feature vector registered in the feature database DB corresponding to each known object includes information such as the brightness of the light spot projected on each object as information indicating the characteristics of the surface property of each object. Contains information to indicate. An example of feature vectors stored in the feature database DB will be described later with reference to FIG.
図1に示した認識部13は、特徴データベースDBに登録された第2ベクトルの中から、候補領域ごとに求められた特徴ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定する。そして、認識部13は、特定した第2ベクトルに対応付けられた物体の種類を、候補領域で示される物体の種類として認識し、認識した物体の種類を示す情報を、パターンPTが投影された領域に含まれる物体の認識結果として出力する。なお、認識部13の動作は、図5及び図6を用いて後述される。
The recognizing
図2は、図1に示したカメラCAMで撮影された画像IMGの例を示す。図2に示した画像IMGは、図1に示したパターンPTに含まれる複数の光点を含む。なお、図2に示した円形SP0,SP1,SP2及び楕円形SP3,SP4のそれぞれは、画像IMGに含まれる光点の例である。また、図2の例では、画像IMGに含まれる各光点は、あらかじめ設定された所定値以上の輝度を持っており、輝度が高いほど濃度の高い網掛けで示されている。また、パターンPTは、図2に示した9行×12列の行列状に光点を配置した例に限られず、n行×m列(n、mは正の整数)に配置された光点を含んでもよく、n及びmのそれぞれは値9,12よりも大きくてもよい。
FIG. 2 shows an example of an image IMG taken by the camera CAM shown in FIG. The image IMG shown in FIG. 2 includes a plurality of light spots included in the pattern PT shown in FIG. Note that each of the circles SP0, SP1, SP2 and the ellipses SP3, SP4 illustrated in FIG. 2 is an example of a light spot included in the image IMG. In the example of FIG. 2, each light spot included in the image IMG has a luminance that is equal to or higher than a predetermined value that is set in advance, and the higher the luminance is, the higher the density is. The pattern PT is not limited to the example in which the light spots are arranged in a matrix of 9 rows × 12 columns shown in FIG. 2, but the light spots arranged in n rows × m columns (n and m are positive integers). Each of n and m may be greater than the
図2に破線で示した円形C1,C2のそれぞれは、図1に示したパターンPTが投影された物体T1,T2のそれぞれに対応する領域を示す。ここで、図1に示した投影装置PR以外に物体T1,T2を照明する光源がない場合などに、画像IMGに含まれる物体T1,T2のそれぞれの輪郭を示す形状を図2において領域C1,C2を示した円形のように明確な形状として検出することは困難である。そこで、図1に示した抽出部11は、図2に示した画像IMGに含まれる各光点の特徴の違いに基づいて、物体T1,T2を示す領域を抽出する。
Each of circles C1 and C2 indicated by a broken line in FIG. 2 indicates a region corresponding to each of the objects T1 and T2 onto which the pattern PT illustrated in FIG. 1 is projected. Here, in the case where there is no light source for illuminating the objects T1 and T2 other than the projection apparatus PR shown in FIG. 1, the shapes indicating the respective outlines of the objects T1 and T2 included in the image IMG are shown as regions C1 and C1 in FIG. It is difficult to detect C2 as a clear shape like a circle. Therefore, the
図2に示したように、画像IMGにおいて物体T1に対応する領域C1に含まれる光点(例えば、光点SP1,SP3)の輝度及び光点の形状などの特徴は、例えば、領域C1の外側の領域に含まれる光点(例えば、光点SP0)の特徴と異なっている。同様に、画像IMGにおいて物体T2に対応する領域C2に含まれる光点(例えば、光点SP2,SP4)の輝度及び光点の形状などの特徴は、例えば、領域C2の外側の領域に含まれる光点(例えば、光点SP0)の特徴と異なっている。 As shown in FIG. 2, the characteristics such as the brightness of the light spots (for example, the light spots SP1 and SP3) and the shape of the light spots included in the area C1 corresponding to the object T1 in the image IMG are, for example, outside the area C1. This is different from the feature of the light spot (for example, the light spot SP0) included in the region. Similarly, in the image IMG, features such as the brightness of the light spot (for example, the light spots SP2 and SP4) and the shape of the light spot included in the area C2 corresponding to the object T2 are included in the area outside the area C2, for example. This is different from the characteristics of the light spot (for example, the light spot SP0).
図3は、図2に示した各光点の特徴を示す特徴量の例を示す。図3(A),(B),(C)のそれぞれは、図2に示した画像IMGに含まれる光点SP1,SP2,SP3のそれぞれの画像を示す。なお、図3(A),(B),(C)のそれぞれに示した座標軸X,Yは、例えば、図1に示したカメラCAMに含まれる撮像素子における水平方向及び垂直方向の画素の並び方向を示す。また、図3(D),(E),(F)のそれぞれは、図3(A),(B),(C)のそれぞれに示した光点SP1,SP2,SP3のX軸方向の輝度の分布を示す。図3(D),(E),(F)において、座標軸Bは、輝度の大きさを示す。 FIG. 3 shows an example of the feature amount indicating the feature of each light spot shown in FIG. 3A, 3B, and 3C show images of the light spots SP1, SP2, and SP3 included in the image IMG shown in FIG. Note that the coordinate axes X and Y shown in FIGS. 3A, 3B, and 3C are, for example, horizontal and vertical pixel arrangements in the image sensor included in the camera CAM shown in FIG. Indicates direction. 3D, 3E, and 3F are the luminances in the X axis direction of the light spots SP1, SP2, and SP3 shown in FIGS. 3A, 3B, and 3C, respectively. The distribution of. In FIGS. 3D, 3E, and 3F, the coordinate axis B indicates the luminance.
図3(A)に示した光点SP1は、ほぼ一様な輝度を持つ直径r1の円形である。そして、光点SP1の輝度は、図3(D)に示すように、光点SP1の輪郭に相当するX軸方向の位置において、光点SP1の半径よりも小さい幅w1で輝度B1から輝度0へと急峻な変化を示す。 The light spot SP1 shown in FIG. 3A is a circle with a diameter r1 having substantially uniform luminance. Then, as shown in FIG. 3D, the brightness of the light spot SP1 is 0 from the brightness B1 at a width w1 smaller than the radius of the light spot SP1 at a position in the X-axis direction corresponding to the contour of the light spot SP1. Shows a steep change.
一方、図3(B)に示した光点SP2は、中心から離れるに従って小さくなる輝度を持つ直径r2の円形である。そして、光点SP2の輝度は、図3(E)に示すように、光点SP2の中心付近から光点SP2の半径とほぼ同等の幅w2で輝度B2から輝度0へと緩やかに変化する。
On the other hand, the light spot SP2 shown in FIG. 3B is a circle with a diameter r2 having a luminance that decreases as the distance from the center increases. Then, as shown in FIG. 3E, the luminance of the light spot SP2 gradually changes from the luminance B2 to the
また、図3(C)に示した光点SP3は、座標軸Xと角度θで交差する直線L1で示される方向に長軸を持つ楕円形である。図3(C)に示したような光点SP3の形状は、例えば、長軸DLと単軸DSと長軸方向と座標軸Xとの角度θとを用いて表される。また、光点SP3の輝度は、図3(F)に示すように、光点SP3の輪郭に相当するX軸方向の位置において、光点SP3の半径よりも小さい幅w3で輝度B1から輝度0へと急峻な変化を示す。 The light spot SP3 shown in FIG. 3C is an ellipse having a major axis in the direction indicated by the straight line L1 that intersects the coordinate axis X at an angle θ. The shape of the light spot SP3 as shown in FIG. 3C is expressed using, for example, the major axis DL, the single axis DS, the major axis direction, and the angle θ between the coordinate axis X. Further, as shown in FIG. 3F, the brightness of the light spot SP3 is 0 from the brightness B1 at a width w3 smaller than the radius of the light spot SP3 at the position in the X-axis direction corresponding to the outline of the light spot SP3. Shows a steep change.
図3(A),(D)に示したように、光点SP1の形状が直径r1の円形であること、また、光点SP1の中心部の輝度B1および光点SP1の輪郭における輝度の変化の急峻さ等は、光点SP1の特徴の例である。そして、円の直径r1や中心部の輝度B1、及び、輝度の変化の急峻さ、即ち、光点SP1の輪郭の明瞭さを示す明瞭度は、光点SP1の特徴を示す特徴量の例である。なお、光点の輪郭の明瞭さを示す明瞭度は、例えば、図3(D)に示した幅w1と輝度B1との比で示される輝度の変化の傾きが垂直に近いほど値1に近い値となり、輝度の変化の傾きが小さいほど値0に近い値となることが望ましい。
As shown in FIGS. 3A and 3D, the shape of the light spot SP1 is a circle having a diameter r1, and the brightness B1 at the center of the light spot SP1 and the change in brightness at the contour of the light spot SP1. The steepness is an example of the feature of the light spot SP1. The circle diameter r1, the central brightness B1, and the steepness of the change in brightness, that is, the clarity of the outline of the light spot SP1, is an example of the feature quantity indicating the feature of the light spot SP1. is there. Note that the clarity of the outline of the light spot is, for example, closer to the
同様に、図3(B),(E)に示した光点SP2の形状を示す円の直径r2や中心部の輝度B2及び光点SP2の輪郭の明瞭度は、光点SP2の特徴を示す特徴量の例である。なお、光点SP2の輪郭の明瞭度は、図3(E)に示した幅w2と輝度B2との比で示される輝度の変化の傾きから求められる値であり、図3(A),(D)で説明した光点SP1の輪郭の明瞭度よりも小さい値となる。 Similarly, the diameter r2 of the circle showing the shape of the light spot SP2 shown in FIGS. 3B and 3E, the luminance B2 at the center, and the clarity of the outline of the light spot SP2 indicate the characteristics of the light spot SP2. It is an example of a feature-value. Note that the clarity of the outline of the light spot SP2 is a value obtained from the slope of the change in luminance indicated by the ratio between the width w2 and the luminance B2 shown in FIG. It becomes a value smaller than the clarity of the outline of the light spot SP1 described in D).
また、図3(C)に示した光点SP3の形状を示す楕円の長軸DLと単軸DS及び長軸方向と座標軸Xとの交差角θ、中心部の輝度B1及び光点SP3の輪郭の明瞭度は、光点SP3の特徴を示す特徴量の例である。なお、光点SP3の輪郭の明瞭度は、図3(F)に示した幅w3と輝度B1との比で示される輝度の変化の傾きから求められる値であり、図3(A),(D)で説明した光点SP1の輪郭の明瞭度とほぼ同等の値となる。 Further, the long axis DL and the single axis DS of the ellipse showing the shape of the light spot SP3 shown in FIG. 3C, the intersection angle θ between the long axis direction and the coordinate axis X, the brightness B1 at the center, and the contour of the light spot SP3. Is an example of a feature amount indicating the feature of the light spot SP3. Note that the clarity of the outline of the light spot SP3 is a value obtained from the slope of the change in luminance indicated by the ratio between the width w3 and the luminance B1 shown in FIG. The value is almost equal to the clarity of the outline of the light spot SP1 described in D).
また、図3においては図示を省略したが、図2に示した画像IMGに含まれる光点SP0は、図3(A)に示した光点SP1の中心部の輝度B1よりも小さい輝度を持ち、光点SP1とほぼ同等の直径と輪郭の明瞭度とを持つ円形である。 Although not shown in FIG. 3, the light spot SP0 included in the image IMG shown in FIG. 2 has a brightness smaller than the brightness B1 at the center of the light spot SP1 shown in FIG. A circular shape having a diameter substantially equal to that of the light spot SP1 and the clarity of the outline.
図1に示した抽出部11は、例えば、カメラCAMから受けた画像IMGを解析することで、画像IMGに含まれる各光点について、図3で説明した特徴量を求め、求めた特徴量を例えば所定の階級ごとに集計することで、図4に示すような度数分布を求める。
For example, the
図4は、特徴量の度数分布の例を示す。図4(A)は、画像IMGに含まれる複数の光点のうち、横軸Bで示される輝度を持つ光点の数を集計することで得られる度数分布を模式的に示す。また、図4(B)は、画像IMGに含まれる複数の光点のうち、横軸CLで示される明瞭度を持つ光点の数を集計することで得られる度数分布を模式的に示す。なお、図4(A),(B)において、縦軸nは度数を示す。 FIG. 4 shows an example of the frequency distribution of feature amounts. FIG. 4A schematically shows a frequency distribution obtained by aggregating the number of light spots having the luminance indicated by the horizontal axis B among a plurality of light spots included in the image IMG. FIG. 4B schematically shows a frequency distribution obtained by aggregating the number of light spots having the clarity shown by the horizontal axis CL among a plurality of light spots included in the image IMG. 4A and 4B, the vertical axis n indicates the frequency.
図4(A)に曲線で示した光点の輝度についての度数分布は、輝度B0,B1,B2において、それぞれ極大PB0,PB1,PB2を示す。ここで、画像IMGに含まれる光点の輝度は、図1に示したパターンPTが投影された物体の表面の反射率等に依存する。したがって、図4(A)の例のように、画像IMGに含まれる光点の輝度の度数分布が複数の極大を持つということは、画像IMGは反射率が互いに異なる複数の物体に投影された光点を含んでいることを示している。そして、図2に示した画像IMGにおいて、互いに類似した輝度を持つ光点が連続的に分布している領域は、互いに類似した反射率でパターンPTを反射する領域であり、図1に示したパターンPTが投影された領域に含まれる個々の物体を示す。 The frequency distribution regarding the luminance of the light spot shown by a curve in FIG. 4A shows local maximums PB0, PB1, and PB2 at luminances B0, B1, and B2, respectively. Here, the luminance of the light spot included in the image IMG depends on the reflectance of the surface of the object on which the pattern PT shown in FIG. 1 is projected. Therefore, as in the example of FIG. 4A, the fact that the frequency distribution of the luminance of the light spot included in the image IMG has a plurality of maximums means that the image IMG is projected onto a plurality of objects having different reflectances. It shows that it contains a light spot. In the image IMG shown in FIG. 2, areas where light spots having similar brightness are continuously distributed are areas that reflect the pattern PT with similar reflectance, and are shown in FIG. 1. The individual objects included in the area where the pattern PT is projected are shown.
例えば、図4(A)に示した度数分布において、輝度B1を中心とする範囲Rb1に含まれる輝度を持つ光点は、図2に示した光点SP1に類似した反射率で反射された光点である。そして、図2で説明したように、図2に示した領域C1の内部に含まれる各光点の輝度は、光点SP1の輝度B1に類似した値を示す。したがって、抽出部11は、図2に示した画像IMGにおいて、図4(A)に示した範囲Rb1に含まれる輝度を持つ光点が分布する範囲を抽出することで、図1に示した物体T1を示す候補領域として、図2に示した領域C1を抽出することができる。同様に、抽出部11は、図4(A)に示した輝度B2を中心とする範囲Rb2に含まれる輝度を持つ光点が分布する範囲を画像IMGから抽出することで、図1に示した物体T2を示す候補領域として、図2に示した領域C2を抽出することができる。なお、図4(A)に示した輝度B0は、図2に示した光点SP0の輝度を示し、輝度B0を中心とする範囲Rb0に含まれる輝度を持つ光点、即ち、光点SP0に類似した特徴を示す光点は、画像IMGから候補領域C1,C2を除いた領域C0に分布している。したがって、抽出部11は、輝度B0を中心とする範囲Rb0に含まれる輝度を持つ光点が画像IMGにおいて分布する範囲を抽出することで、物体T1,T2の背景を示す候補領域として領域C0を抽出することができる。
For example, in the frequency distribution shown in FIG. 4A, the light spot having the luminance included in the range Rb1 centered on the luminance B1 is the light reflected at the reflectance similar to the light spot SP1 shown in FIG. Is a point. As described with reference to FIG. 2, the luminance of each light spot included in the area C1 shown in FIG. 2 shows a value similar to the luminance B1 of the light spot SP1. Therefore, the
図1に示した抽出部11は、図4(A)で説明した光点の輝度に着目した候補領域の抽出に代えて、各光点について求めた他の特徴量に着目した候補領域の抽出を行ってもよい。
The
図4(B)に曲線で示した光点の輪郭の明瞭度についての度数分布は、明瞭度CL0,CL1,CL2において、それぞれ極大PC0,PC1,PC2を示す。ここで、画像IMGに含まれる光点の輪郭の明瞭度は、図1に示したパターンPTが投影された物体の表面の素材や性質に依存し、例えば、投影された物体の表面が滑らかであるほど高い明瞭度を示す。なお、図4(B)に示した極大PC0の中央の明瞭度CL0は、図3(B)に示した光点SP0の特徴の一つとして求められた明瞭度に相当する。また、図4(B)に示した極大PC1の中央の明瞭度CL1は、図3(B)に示した光点SP1の特徴の一つとして求められた明瞭度に相当する。そして、図4(B)に示した極大PC2の中央の明瞭度CL2は、抽出部11により、図2に示した光点SP2の特徴の一つとして求められた明瞭度に相当する。 The frequency distribution regarding the intelligibility of the contour of the light spot shown by the curve in FIG. 4B shows the maximum PC0, PC1, and PC2 at the intelligibility CL0, CL1, and CL2, respectively. Here, the clarity of the outline of the light spot included in the image IMG depends on the material and properties of the surface of the object onto which the pattern PT shown in FIG. 1 is projected. For example, the surface of the projected object is smooth. The higher the clarity. Note that the clarity C0 at the center of the maximum PC0 shown in FIG. 4B corresponds to the clarity obtained as one of the features of the light spot SP0 shown in FIG. Further, the clarity C1 at the center of the maximum PC1 shown in FIG. 4B corresponds to the clarity obtained as one of the features of the light spot SP1 shown in FIG. The clarity C2 at the center of the maximum PC 2 shown in FIG. 4B corresponds to the clarity obtained as one of the features of the light spot SP2 shown in FIG.
したがって、図4(B)の例のように、画像IMGに含まれる光点の明瞭度の度数分布が複数の極大を持つということは、画像IMGが、表面の素材や性質が互いに異なる複数の物体のそれぞれに投影された光点を含んでいることを示している。そして、図2に示した画像IMGにおいて、互いに類似した明瞭度を持つ光点が連続的に分布している領域は、たがいに類似した性質でパターンPTを反射する領域であり、図1に示したパターンPTが投影された領域に含まれる個々の物体を示す。 Therefore, as in the example of FIG. 4B, the fact that the frequency distribution of the clarity of the light spots included in the image IMG has a plurality of local maxima means that the image IMG has a plurality of surface materials and properties different from each other. It shows that it contains a light spot projected on each of the objects. In the image IMG shown in FIG. 2, regions where light spots having similar clarity are continuously distributed are regions that reflect the pattern PT with similar properties, and are shown in FIG. 1. The individual objects included in the area where the pattern PT is projected are shown.
即ち、抽出部11は、図2に示した画像IMGにおいて、例えば、図4(B)に示した明瞭度CL2を中心とする範囲Rc2に含まれる明瞭度を持つ光点が分布する範囲C2として、図1に示した物体T2を示す候補領域を抽出することができる。同様に、抽出部11は、図2に示した画像IMGにおいて、図4(B)に示した明瞭度CL1を中心とする範囲Rc1に含まれる明瞭度を持つ光点が分布する範囲C1として、図1に示した物体T1を示す候補領域を抽出することができる。なお、図2の例では、図4(B)に示した明瞭度CL0を中心とする範囲Rc0に含まれる明瞭度を持つ光点、即ち、光点SP0に類似した特徴を示す光点が分布する範囲は、画像IMGから候補領域C1,C2を除いた領域C0となる。抽出部11は、明瞭度CL0を中心とする範囲Rc0に含まれる明瞭度を持つ光点が画像IMGにおいて分布する領域C0を、例えば、物体T1,T2の背景を示す候補領域として抽出してもよい。
That is, the
同様にして、抽出部11は、各光点の特徴を示す特徴量のそれぞれについて求めた度数分布に基づいて、類似した特徴を示す光点が連続して分布する画像IMGの領域を、候補領域として抽出してもよい。
Similarly, the
抽出部11は、各光点の特徴を示す複数種類の特徴量に順次に着目し、着目した特徴量を用いて候補領域を抽出してもよいし、例えば、複数種類の特徴量を含むベクトル相互の距離に基づいて生成したクラスタ毎に候補領域を抽出してもよい。なお、複数種類の特徴量から順次に選択した特徴量に着目して候補領域を抽出する抽出部11の例は、図8から図11を用いて後述される。
The
図2から図4で説明した抽出処理により画像IMGから抽出された候補領域のそれぞれに含まれる光点の画像IMGにおける位置と各光点の特徴を示す情報は、図1に示した算出部12に渡される。そして、算出部12は、抽出部11から受けた情報に基づいて、図1に示した投影装置PRから各候補領域に含まれる光点までの距離で示される形状の特徴を表す情報と、各光点の特徴量で示される表面の特徴を表す情報とを含む特徴ベクトルを求める。
Information indicating the position of the light spot in the image IMG and the characteristics of each light spot included in each of the candidate areas extracted from the image IMG by the extraction processing described with reference to FIGS. 2 to 4 is the
図5は、図1に示した算出部12で求められる特徴ベクトルの例を示す。図5の例は、図2に示した候補領域C0,C1,C2のそれぞれに含まれる光点の情報に基づいて、算出部12で求められた特徴ベクトルを示している。なお、図5に示す要素のうち、図4に示した要素と同等のものは、同一の符号で示すとともに要素の説明を省略する場合がある。
FIG. 5 shows an example of the feature vector obtained by the
図5において、形状の特徴欄に示した符号Y1,Y2,Y3,Y4,Yk(kは5以上の整数)は、各光点の位置と基準となる位置との差に基づいて算出された距離の集計に用いられる階級の例を示す。階級Y1,Y2,Y3,Y4,Ykは、例えば、パターンPTに含まれる光点の位置のずれに基づいて測定が可能な距離の範囲を数ミリから数センチ程度の長さごとに区切った区間のそれぞれに相当する。 In FIG. 5, symbols Y1, Y2, Y3, Y4, and Yk (k is an integer of 5 or more) shown in the shape feature column are calculated based on the difference between the position of each light spot and the reference position. The example of the class used for the total of distance is shown. The classes Y1, Y2, Y3, Y4, and Yk are, for example, sections in which a range of distances that can be measured based on the displacement of the position of the light spot included in the pattern PT is divided into lengths of several millimeters to several centimeters. It corresponds to each of.
図5に示した候補領域C0,C1,C2の特徴ベクトルは、形状の特徴を表す情報として、各光点の位置と基準となる位置との差に基づいて算出された距離を、階級Y1,Y2,Y3,Y4,Ykを含む複数の階級ごとに集計することで得られる度数分布を含む。なお、図5の例は、図2に示した候補領域C1,C2のそれぞれに含まれる光点が、距離の階級Y1,Y2,Y3,Y4のそれぞれに1個、4個、6個及び0個分布し、候補領域C0に含まれる86個の光点の全てが階級Ykに分布する場合を示した。 The feature vectors of the candidate areas C0, C1, and C2 shown in FIG. 5 are obtained by using the distances calculated based on the difference between the position of each light spot and the reference position as information representing the shape features. It includes a frequency distribution obtained by counting for each of a plurality of classes including Y2, Y3, Y4, and Yk. In the example of FIG. 5, the light spots included in each of the candidate regions C1 and C2 illustrated in FIG. 2 are one, four, six, and zero in each of the distance classes Y1, Y2, Y3, and Y4. A case is shown in which all of the 86 light spots included in the candidate area C0 are distributed in the class Yk.
また、図5において、候補領域C0,C1,C2のそれぞれに対応して示した特徴ベクトルは、各候補領域に含まれる光点の特徴量を示す情報として、例えば、輝度の平均値B0,B1,B2および明瞭度の平均値CL0,CL1,CL2を含む。なお、図5に示した特徴ベクトルの例は、候補領域C0,C1,C2のそれぞれに含まれる光点の輝度および明瞭度のそれぞれが正規分布を示す場合を示す。即ち、候補領域C0に含まれる光点の輝度の分布および明瞭度の分布の特徴を示す情報として、候補領域C0の特徴ベクトルは、図4(A),(B)のそれぞれに示した度数分布の極大PB0,PC0の極大値である輝度B0および明瞭度CL0を含む。同様に、候補領域C1に含まれる光点の輝度の分布および明瞭度の分布の特徴を示す情報として、候補領域C1の特徴ベクトルは、図4(A),(B)のそれぞれに示した度数分布の極大PB1,PC1の極大値である輝度B1および明瞭度CL1を含む。また、候補領域C2に含まれる光点の輝度の分布および明瞭度の分布の特徴を示す情報として、候補領域C2の特徴ベクトルは、図4(A),(B)のそれぞれに示した度数分布の極大PB2,PC2の極大値である輝度B2および明瞭度CL2を含む。なお、図5の例では、候補領域C1,C2,C3の特徴ベクトルに光点の特徴を示す情報として含まれる要素のうち、輝度および明瞭度以外の特徴である光点の形状や大きさ等を示す要素の図示を省略している。 In FIG. 5, the feature vectors shown corresponding to the candidate regions C0, C1, and C2 are, for example, average luminance values B0 and B1 as information indicating the feature amount of the light spot included in each candidate region. , B2 and average values CL0, CL1, CL2 of the intelligibility. The example of the feature vector shown in FIG. 5 shows a case where the brightness and clarity of the light spots included in each of the candidate areas C0, C1, and C2 show a normal distribution. That is, as information indicating the characteristics of the luminance distribution and the clarity distribution of the light spots included in the candidate area C0, the feature vectors of the candidate area C0 are the frequency distributions shown in FIGS. 4A and 4B, respectively. Luminance B0 and intelligibility CL0, which are local maximum values PB0 and PC0. Similarly, as information indicating the characteristics of the luminance distribution and the clarity distribution of the light spots included in the candidate area C1, the feature vector of the candidate area C1 includes the frequencies shown in FIGS. 4A and 4B, respectively. It includes the brightness B1 and the clarity CL1, which are the maximum values of the local maximums PB1 and PC1 of the distribution. In addition, as information indicating the characteristics of luminance distribution and clarity distribution of light spots included in the candidate area C2, the feature vector of the candidate area C2 is a frequency distribution shown in each of FIGS. 4A and 4B. Brightness B2 and clarity CL2 which are the maximum values of local maximums PB2 and PC2. In the example of FIG. 5, among the elements included as information indicating the characteristics of the light spot in the feature vectors of the candidate regions C1, C2, and C3, the shape and size of the light spot that is a feature other than brightness and clarity The illustration of the element indicating is omitted.
図1に示した認識部13は、特徴データベースDBに登録された特徴ベクトルの中から、図5に示した特徴ベクトルのそれぞれに類似する特徴ベクトルを特定し、特定した特徴ベクトルに対応付けられた物体の種類を各候補領域に含まれる物体の認識結果とする。
The
図6は、図1に示した特徴データベースDBの例を示す。なお、図6に示す要素のうち、図5に示した要素と同等のものは、同一の符号で示すとともに要素の説明を省略する場合がある。 FIG. 6 shows an example of the feature database DB shown in FIG. Among the elements shown in FIG. 6, elements equivalent to those shown in FIG. 5 are denoted by the same reference numerals and description of the elements may be omitted.
図6に示した特徴データベースDBは、「ボールA」、「ボールB」を含む複数の物体の種類のそれぞれに対応して、物体に投影された各光点までの距離により物体の形状を示す情報及び投影された光点の特徴を示す情報を含む特徴ベクトルを保持している。 The feature database DB shown in FIG. 6 indicates the shape of an object by the distance to each light spot projected onto the object corresponding to each of a plurality of types of objects including “Ball A” and “Ball B”. A feature vector including information and information indicating the feature of the projected light spot is held.
図6に示した特徴データベースDBは、ボールA、ボールBの各々の形状の特徴を表す情報として、ボールA、ボールBのそれぞれに投影されたパターンPTを撮影した画像IMGに含まれる光点の位置に基づいて算出された距離の度数分布を保持する。なお、図6の例は、ボールA及びボールBのそれぞれに投影された光点が、共に、距離の階級Y1,Y2,Y3,Y4のそれぞれに順に1個、4個、6個及び0個分布する場合、即ち、ボールAの形状とボールBの形状とがほぼ同等である場合を示している。 The feature database DB shown in FIG. 6 includes information on the light spots included in the image IMG obtained by capturing the pattern PT projected on each of the balls A and B as information representing the characteristics of the shapes of the balls A and B. The frequency distribution of the distance calculated based on the position is held. In the example of FIG. 6, the light spots projected onto the balls A and B are one, four, six, and zero in order of the distance classes Y1, Y2, Y3, and Y4, respectively. In the case of distribution, that is, the shape of the ball A and the shape of the ball B are substantially equal.
また、図6に示した特徴データベースDBは、ボールAの表面の性質を表す情報として、ボールAに投影された光点の特徴を示す情報、即ち、光点の輝度の平均値Baと明瞭度の平均値CLaとを含む情報を保持している。同様に、図6に示した特徴データベースDBは、ボールBの表面の性質を表す情報として、ボールBに投影された光点の特徴を示す情報、即ち、光点の輝度の平均値Bbと明瞭度の平均値CLbとを含む情報を保持している。 In addition, the feature database DB shown in FIG. 6 includes information indicating the characteristics of the light spot projected on the ball A as information indicating the surface property of the ball A, that is, the average value Ba and the clarity of the brightness of the light spot. Information including the average value CLa. Similarly, the feature database DB shown in FIG. 6 has information indicating the characteristics of the light spot projected on the ball B as information indicating the surface property of the ball B, that is, the average value Bb of the brightness of the light spot. Information including the average value CLb of the degree is held.
例えば、図5において候補領域C1に対応して示した特徴ベクトルに含まれる形状の特徴を表す情報と、図6に示したボールAの形状の特徴及びボールBの形状の特徴とは、ほぼ同等である。このため、特徴データベースDBに物体の種類ごとに登録された形状を示す情報と候補領域C1の特徴ベクトルに含まれる形状を示す情報との比較に基づいて、候補領域C1に含まれる物体T1がボールAであるかボールBであるかを判別することは困難である。同様に、特徴データベースDBに物体の種類ごとに登録された形状を示す情報と候補領域C2の特徴ベクトルに含まれる形状を示す情報との比較に基づいて、候補領域C2に含まれる物体T2がボールAであるかボールBであるかを判別することは困難である。 For example, the information indicating the feature of the shape included in the feature vector corresponding to the candidate region C1 in FIG. 5 is almost the same as the feature of the shape of the ball A and the feature of the ball B shown in FIG. It is. Therefore, the object T1 included in the candidate region C1 is a ball based on a comparison between information indicating the shape registered for each type of object in the feature database DB and information indicating the shape included in the feature vector of the candidate region C1. It is difficult to determine whether it is A or ball B. Similarly, based on the comparison between the information indicating the shape registered for each type of object in the feature database DB and the information indicating the shape included in the feature vector of the candidate region C2, the object T2 included in the candidate region C2 is a ball It is difficult to determine whether it is A or ball B.
しかしながら、図1に示した算出部12により候補領域ごとに求められる特徴ベクトル及び特徴データベースDBに物体の種類ごとに登録された特徴ベクトルは、共に、物体の形状の特徴を表す情報に加えて物体の表面の性質の特徴を示す情報を含んでいる。
However, the feature vector obtained for each candidate area by the
したがって、認識部13は、例えば、算出部12により候補領域C1について求められた特徴ベクトルと、特徴データベースDBに登録された各特徴ベクトルとの間の距離に基づいて、候補領域C1に含まれる物体に類似する特徴を持つ物体を特定できる。
Therefore, the
例えば、認識部13は、特徴データベースDBに登録された特徴ベクトルの中で、候補領域C1の特徴ベクトルとの距離が他の特徴ベクトルとの距離よりも小さくなる特徴ベクトルを特定する。そして、認識部13は、特定した特徴ベクトルに対応付けられた物体の種類を、候補領域C1に含まれる物体T1の認識結果として出力する。例えば、図5に候補領域C1に対応して示した輝度B1が、図6にボールBに対応して示した輝度BbよりもボールAに対応する輝度Baに近い値である場合を考える。この場合に、候補領域C1の特徴ベクトルとボールAに対応する特徴ベクトルとの距離は、ボールBに対応する特徴ベクトルを含む他の特徴ベクトルと候補領域C1の特徴ベクトルとの距離よりも小さくなる。即ち、認識部13は、候補領域C1に含まれる物体T1を、特徴ベクトル間の距離が最小となるボールAと認識する。
For example, the
同様に、認識部13は、特徴データベースDBに登録された特徴ベクトルの中で、候補領域C2の特徴ベクトルとの距離が他の特徴ベクトルとの距離よりも小さくなる特徴ベクトルを特定することで、候補領域C1に含まれる物体を認識できる。例えば、図5に候補領域C2に対応して示した輝度B2が、図6にボールAに対応して示した輝度BaよりもボールBに対応する輝度Bbに近い値である場合に、認識部13は、候補領域C2に含まれる物体T2をボールBと認識する。
Similarly, the recognizing
即ち、図1に示した抽出部11、算出部12及び認識部13を有する物体認識装置10は、物体の形状の特徴を表す情報とともに物体の表面の性質の特徴を示す情報を用いて認識することで、形状が類似していても表面の性質が異なる物体を互いに判別可能である。
That is, the
図7は、図1に示した物体認識装置10の動作を示す。図7に示したステップS301〜ステップS304の処理は、図1に示した物体認識装置10の動作を示すとともに、物体認識方法および物体認識プログラムの例を示す。例えば、図7に示す処理は、物体認識装置10に搭載されたプロセッサが物体認識プログラムを実行することで実現される。なお、図7に示す処理は、物体認識装置10に搭載されるハードウェアによって実行されてもよい。
FIG. 7 shows the operation of the
ステップS301において、物体認識装置10に含まれる抽出部11は、カメラCAMから受けた画像IMGに含まれる各光点の特徴として、図3で説明したようにして、光点の輝度、光点の輪郭の明瞭度及び光点の形状を含む特徴量を求める。
In step S301, the
ステップS302において、抽出部11は、類似した特徴量を持つ光点が画像IMGにおいて分布する範囲のそれぞれを、パターンPTが投影された領域に含まれる物体を示す候補領域として抽出する。例えば、抽出部11は、図2から図4で説明したようにして、図2に破線の円形で示した候補領域C1,C2と、図2において、候補領域C1,C2以外の範囲として示される候補領域C0とを抽出する。
In step S302, the
ステップS303において、算出部12は、ステップS302の処理で抽出された各候補領域に含まれる光点の情報に基づいて、各候補領域に含まれる物体の形状及び表面の性質の特徴を示す特徴ベクトルを求める。例えば、算出部12は、図2に示した候補領域C0,C1,C2のそれぞれに含まれる各光点の位置及び各光点の特徴に基づいて、図5に候補領域C0,C1,C2に対応して示した特徴ベクトルのそれぞれを算出する。
In step S303, the
ステップS304において、認識部13は、特徴データベースDBに登録された特徴ベクトルの中で、ステップS303で候補領域毎に求められた特徴ベクトルに類似する特徴を示す特徴ベクトルを特定することで、各候補領域に含まれる物体を認識する。例えば、認識部13は、候補領域ごとに求められた特徴ベクトルと、特徴データベースDBに登録された特徴ベクトルのそれぞれとの距離に基づいて、各候補領域に含まれる物体を認識する。なお、認識部13は、特徴データベースDBに登録された特徴ベクトルの中で、候補領域ごとに求められた特徴ベクトルに類似する特徴ベクトルを特定するために求める距離は、特徴ベクトルに含まれる全ての要素を用いて求められる距離に限られない。例えば、認識部13は、特徴ベクトルに含まれる一部の要素に基づく距離で物体の種類を特定できない場合に、他の要素を追加して算出した特徴ベクトル間の距離に基づいて、候補領域に含まれる物体の種類を絞り込んでもよい。候補領域に含まれる物体の種類を段階的に絞り込むことで物体の認識を行う認識部13は、図8から図12を用いて後述される。
In step S304, the
以上に説明したように、図1に示した物体認識装置10は、物体を含む領域に投影されたパターンPTを撮影した画像IMGから、類似した特徴量を持つ光点が分布する範囲を候補領域として抽出する。そして、物体認識装置10は、抽出した候補領域ごとに求めた特徴ベクトルに類似する特徴ベクトルを特徴データベースDBにおいて特定することで、抽出した候補領域に含まれる物体を認識する。つまり、物体認識装置10は、物体の形状の特徴を表す情報とともに物体の表面の性質の特徴を示す情報を用いて、各候補領域に含まれる物体を認識する。これにより、図1に示した物体認識装置10は、図2に示した候補領域C1,C2のように、光点の位置から求められる形状を示す情報が互いに類似する場合でも、個々の光点の特徴で示される表面の性質の違いに基づいて、物体T1,T2の種類を判別可能である。
As described above, the
図8は、物体認識装置の別実施形態を示す。なお、図8に示す構成要素のうち、図1に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。 FIG. 8 shows another embodiment of the object recognition apparatus. 8 that are equivalent to the components shown in FIG. 1 are denoted by the same reference numerals and description of the components may be omitted.
図8に示した物体認識装置10aは、図1に示した抽出部11に相当する抽出部11aと、算出部12と、図1に示した認識部13に相当する認識部13aと、特徴データベースDBとを含んでいる。
An
抽出部11aは、評価部111と、分類部112と、抽出制御部113と、特定部114と、検出部115とを含んでいる。評価部111は、カメラCAMで撮影された画像IMGを受ける。
The extraction unit 11a includes an
評価部111は、カメラCAMから受けた画像IMGに含まれる光点毎に、光点の輝度及び光点の輪郭の明瞭度を含む複数種類の特徴量を評価する。評価部111は、例えば、図3で説明したようにして、光点毎に、光点の中心の輝度及び光点の輪郭の明瞭度とともに、光点の形状を示す情報として、光点の長軸及び短軸の長さや長軸の傾きなどを評価する。評価部111により、各光点について求められた特徴量は、分類部112に渡される。
The
分類部112は、評価部111から受けた複数種類の特徴量の一つを順に選択し、選択した特徴量に基づいて、画像IMGに含まれる光点を互いに類似した特徴量を持つグループに分類する。分類部112は、図4で説明したようにして、選択した特徴量を示す値毎に光点を集計することで、選択した特徴量についての度数分布を求め、求めた度数分布に基づいて、特徴量を示す値が互いに近似している光点をグループにまとめることで、光点を分類する。例えば、図4(A)に示したように、光点の輝度の度数分布が輝度B0,B1,B2において極大を示す場合に、分類部112は、画像IMGに含まれる光点を、輝度B0,B1,B2のそれぞれに近似した輝度を持つ光点を含む3つのグループに分類する。
The
抽出制御部113は、分類部112による分類により、画像IMGに含まれる光点が複数のグループに分類された場合に、複数のグループのそれぞれに属する光点を示す情報を特定部114に渡す。一方、分類部112による分類により、画像IMGに含まれる光点が複数のグループに分類されない場合に、抽出制御部113は、分類部112に対して、別の特徴量に基づく分類の実行を指示する。即ち、抽出制御部113は、分類部112により複数のグループに分類されない場合に、分類に用いられた特徴量とは異なる特徴量に基づく分類を分類部112に実行させる制御部の一例である。
When the light spot included in the image IMG is classified into a plurality of groups by the classification by the
特定部114は、抽出制御部113から受けた情報に基づいて、分類部112の処理で得られたグループごとに、グループに属する光点が画像IMGにおいて分布する範囲を特定する。特定部114は、例えば、グループに属する各光点の画像IMGにおける位置を示す情報に基づいて、画像IMGにおいて、グループに属する光点が分布する範囲を特定する。例えば、図4(A)に示した輝度B0,B1,B2のそれぞれに対応するグループ内の各光点の位置を示す情報に基づいて、特定部114は、図2に示した領域C0,C1,C2のそれぞれを、画像IMGにおいて各グループに属する光点が分布する範囲として特定する。特定部114により、各グループに属する光点が分布する範囲として特定された領域を示す情報は、検出部115に渡される。
Based on the information received from the
検出部115は、特定部114で特定された範囲のうち、例えば5〜6程度の値に設定される所定数以上の光点を含む範囲を候補領域として検出し、検出した候補領域を示す情報を算出部12に渡す。なお、検出部115において、候補領域として検出するか否かの判定に用いる所定数は値5〜6に限らず、例えば、特徴データベースDBに登録された物体が画像IMGにおいて占める大きさの下限などに基づいて予め設定される。また、検出部115は、特定部114で特定された範囲のうち、図2に示した領域C0のように、図1に示した物体T1,T2の背景に相当する範囲を候補領域から除外することが望ましい。
The
検出部115によって検出された候補領域を示す情報は、算出部12に渡されるとともに、抽出制御部113にも渡される。そして、抽出制御部113は、検出部115から受けた情報に基づいて、候補領域として抽出可能な領域が画像IMGにまだ残っているか否かを判定し、残っていると判定した場合に、分類部112に対して新たな特徴量に基づく分類の実行を指示する。
Information indicating the candidate area detected by the
なお、抽出部11aに含まれる抽出制御部113、特定部114及び検出部115の動作は、図9から図11を用いて後述される。
The operations of the
図8に示した認識部13aは、検索部131と、認識制御部132とを含む。
The
検索部131は、認識制御部132から候補領域ごとに求められた特徴ベクトルの少なくとも一部の要素を受け、特徴データベースDBに登録された特徴ベクトルの中から、受けた要素に類似する要素を含む特徴ベクトルを検索する。検索部131は、例えば、認識制御部132から受けた要素との差が所定の閾値以下となる要素を含む特徴ベクトルを、特徴データベースDBに登録された特徴ベクトルの中から検索する。検索部131において、特徴データベースDBに登録された特徴ベクトルの要素と認識制御部132から受けた要素との類似の判定に用いる閾値は、例えば、異なる種類の物体の各々に対応する特徴ベクトルに含まれる要素間の差よりも小さい値に設定される。また、検索部131は、特徴データベースDBに対する検索で得られた特徴ベクトルに対応付けられた物体の種類を示す情報を認識制御部132に返す。
The
認識制御部132は、候補領域ごとに算出部12で求められた特徴ベクトルを受け、受けた特徴ベクトルに含まれる要素から、次に説明する順序で要素を選択し、選択した要素に基づく特徴データベースの検索を検索部131に指示する。
The recognition control unit 132 receives the feature vector obtained by the
例えば、認識制御部132は、まず、算出部12から受けた特徴ベクトルに含まれる要素のうち、候補領域に含まれる各光点までの距離を示す要素を選択し、選択した要素を検索部131に渡す。ここで、候補領域に含まれる各光点までの距離を示す要素は、図5で説明したように、距離について設けられた各階級に含まれる光点の数、即ち、各光点までの距離の度数分布を示す情報であり、候補領域に含まれる光点が投影された物体の形状の特徴を示す。その後、認識制御部132は、検索部131により複数種類の物体を示す情報が返された場合に、算出部12から受けた特徴ベクトルの要素の中でまだ選択されていない要素を順次に選択する。そして、選択した要素に類似する要素を含むか否かに基づいて、以前の検索で得られた複数種類の物体に対応付けられた特徴ベクトルを絞り込む処理を検索部131に実行させる。
For example, the recognition control unit 132 first selects an element indicating the distance to each light spot included in the candidate region from among the elements included in the feature vector received from the
例えば、認識制御部132は、検索部131により複数種類の物体を示す情報が返された場合に特徴ベクトルの絞り込みに用いる要素として、まず、算出部12から受けた特徴ベクトルに含まれる光点の特徴量から光点の輝度を選択する。そして、更に特徴ベクトルの絞り込みを行う場合に、認識制御部132は、算出部12から受けた特徴ベクトルに光点の特徴量として含まれる光点の輪郭の明瞭度や光点の形状を示す要素を順次に選択し、選択した要素を検索部131に渡す。
For example, when the information indicating a plurality of types of objects is returned by the
また、認識制御部132は、検索部131から単一の物体を示す情報が返された場合に、検索部131から受けた情報で示される物体の種類を、候補領域に含まれる物体を示す情報として出力する。
In addition, when the information indicating the single object is returned from the
なお、認識部13aに含まれる選択部131及び認識制御部132の動作は、図12を用いて後述される。
The operations of the
ここで、図9に示す画像IMGを受けた場合を例として、図8に示した抽出部11aの動作を説明する。 Here, the operation of the extraction unit 11a illustrated in FIG. 8 will be described using the case where the image IMG illustrated in FIG. 9 is received as an example.
図9は、図8に示したカメラCAMで撮影された画像IMGの例を示す。図9に示した画像IMGは、図1に示した投影装置PRによって投影されたパターンPTに含まれる複数の光点を含む。なお、図9に示した円形SP0,SP1,SP2及び楕円形SP3のそれぞれは、画像IMGに含まれる光点の例である。また、図9の例では、画像IMGに含まれる各光点は、輝度が高いほど濃度の高い網掛けで示されている。また、パターンPTは、図2に示した9行×12列の行列状に光点を配置した例に限られず、n行×m列(n、mは正の整数)に配置された光点を含んでもよく、n及びmのそれぞれは値9,12よりも大きくてもよい。
FIG. 9 shows an example of an image IMG taken by the camera CAM shown in FIG. The image IMG illustrated in FIG. 9 includes a plurality of light spots included in the pattern PT projected by the projection apparatus PR illustrated in FIG. Note that each of the circular SP0, SP1, SP2, and the elliptical SP3 illustrated in FIG. 9 is an example of a light spot included in the image IMG. In the example of FIG. 9, each light spot included in the image IMG is indicated by shading with higher density as the luminance is higher. The pattern PT is not limited to the example in which the light spots are arranged in a matrix of 9 rows × 12 columns shown in FIG. 2, but the light spots arranged in n rows × m columns (n and m are positive integers). Each of n and m may be greater than the
また、図9に破線で囲んで示した領域C1は、図8に示した特定部114により、光点SP1に類似した特徴を持つ光点が画像IMGにおいて分布する範囲として特定された領域を示す。同様に、図9に破線で囲んで示した領域C2−1,C2−2のそれぞれは、図8に示した特定部114により、光点SP2に類似した特徴を持つ光点が画像IMGにおいて分布する範囲として特定された領域を示す。また、図9に破線で囲んで示した領域C3は、図8に示した特定部114により、光点SP3に類似した特徴を持つ光点が画像IMGにおいて分布する範囲として特定された領域を示す。なお、領域C1,C2−1,C2−2及び領域C3のそれぞれを示す閉曲線は、特定部114により特定された領域の画像IMGにおける位置を示すためのものであり、画像IMGには含まれない。
In addition, a region C1 surrounded by a broken line in FIG. 9 indicates a region specified by the specifying
図8に示した評価部111は、図9に示した画像IMGに含まれる各光点の特徴を示す複数の特徴量として、例えば、光点の中心の輝度と、光点の輪郭の明瞭度と、光点の形状を示す楕円の離心率とを求め、求めた特徴量を分類部112に渡す。
The
そして、図8に示した分類部112は、評価部111から受けた情報に基づいて、複数の特徴量から選択した特徴量を示す値毎に光点を集計することで、図10に示すように、選択した特徴量についての度数分布を求める。
Then, the
図10は、図9に示した画像IMGに含まれる光点の特徴量の度数分布の例を示す。図10(A)は、図9に示した画像IMGに含まれる複数の光点を、横軸Bで示される輝度毎に集計することで得られる度数分布を模式的に示す。同様に、図10(B)は、図9に示した画像IMGに含まれる複数の光点を、横軸CLで示される明瞭度毎に集計することで得られる度数分布を模式的に示す。また、図10(C)は、図9に示した画像IMGに含まれる複数の光点を、横軸ecで示される離心率毎に集計することで得られる度数分布を模式的に示す。なお、図10(A),(B),(C)において、縦軸nは度数を示す。 FIG. 10 shows an example of the frequency distribution of the feature amount of the light spot included in the image IMG shown in FIG. FIG. 10A schematically shows a frequency distribution obtained by aggregating a plurality of light spots included in the image IMG shown in FIG. 9 for each luminance indicated by the horizontal axis B. FIG. Similarly, FIG. 10B schematically shows a frequency distribution obtained by aggregating a plurality of light spots included in the image IMG shown in FIG. 9 for each clarity shown by the horizontal axis CL. FIG. 10C schematically shows a frequency distribution obtained by counting a plurality of light spots included in the image IMG shown in FIG. 9 for each eccentricity indicated by the horizontal axis ec. In FIGS. 10A, 10B, and 10C, the vertical axis n indicates the frequency.
図10(A)に曲線で示した光点の輝度についての度数分布は、図9に示した光点SP0の輝度B0及び光点SP1の輝度B1において、それぞれ極大PB0,PB1を示す。なお、図10(A)の例は、図9において閉曲線C1で囲まれた領域に含まれる各光点が、光点SP1の輝度B1を含む範囲Rb1に含まれる輝度を持ち、閉曲線C1の外側にある光点が、光点SP0の輝度B0を含む範囲Rb0に含まれる輝度を持つ場合を示す。 The frequency distribution with respect to the luminance of the light spot shown by a curve in FIG. 10A shows local maximums PB0 and PB1 at the luminance B0 of the light spot SP0 and the luminance B1 of the light spot SP1 shown in FIG. In the example of FIG. 10A, each light spot included in the region surrounded by the closed curve C1 in FIG. 9 has a brightness included in the range Rb1 including the brightness B1 of the light spot SP1, and the outside of the closed curve C1. The case where the light spot in FIG. 2 has the brightness included in the range Rb0 including the brightness B0 of the light spot SP0 is shown.
また、図10(B)に曲線で示した光点の輪郭の明瞭度についての度数分布は、図9に示した光点SP0の輪郭の明瞭度CL0及び光点SP2の輪郭の明瞭度CL2において、それぞれ極大PC0,PC2を示す。なお、図10(B)の例は、図9において閉曲線C2−1、C2−2で囲まれた領域に含まれる各光点の明瞭度は光点SP2の明瞭度CL2を含む範囲Rc2に含まれる場合を示す。同様に、図10(B)の例は、図9において閉曲線C2−1、C2−2の外側にある光点の明瞭度は、光点SP0の明瞭度CL0を含む範囲Rc0に含まれる場合を示す。 Further, the frequency distribution of the clarity of the contour of the light spot shown by the curve in FIG. 10B is the clarity of the contour CL0 of the light spot SP0 and the clarity of the contour CL2 of the light spot SP2 shown in FIG. , Show maximum PC0 and PC2, respectively. In the example of FIG. 10B, the clarity of each light spot included in the region surrounded by the closed curves C2-1 and C2-2 in FIG. 9 is included in the range Rc2 including the clarity CL2 of the light spot SP2. Shows the case. Similarly, in the example of FIG. 10B, the clarity of the light spot outside the closed curves C2-1 and C2-2 in FIG. 9 is included in the range Rc0 including the clarity CL0 of the light spot SP0. Show.
そして、図10(C)に曲線で示した光点の形状である楕円の離心率についての度数分布は、図9に示した光点SP0を示す円形の離心率である値0及び光点SP3を示す楕円の離心率e3において、それぞれ極大PE0,PE3を示す。なお、図10(C)の例は、図9において閉曲線C2−1、C2−2で囲まれた領域に含まれる各光点の離心率が、光点SP2の離心率e3を含む範囲Re3に含まれる場合を示す。同様に、図10(C)の例は、図9に示した閉曲線C2−1、C2−2の外側の光点の離心率が、光点SP0の離心率である値0を含む範囲Re0に含まれる場合を示す。
The frequency distribution of the eccentricity of the ellipse, which is the shape of the light spot shown by the curve in FIG. 10C, is the
図11は、図8に示した抽出部11aの動作を示す。図11に示したステップS310からステップS318の処理は、図7に示した物体認識プログラムに含まれるステップS302の処理の例である。例えば、図11に示す処理は、図8に示した物体認識装置10aに搭載されたプロセッサが物体認識プログラムを実行することで実現される。なお、図11に示す処理は、物体認識装置10aに搭載されるハードウェアによって実行されてもよい。
FIG. 11 shows the operation of the extraction unit 11a shown in FIG. The process from step S310 to step S318 shown in FIG. 11 is an example of the process of step S302 included in the object recognition program shown in FIG. For example, the processing shown in FIG. 11 is realized by a processor installed in the
ステップS310において、図8に示した評価部111は、画像IMGに含まれる各光点について、例えば、中心の輝度、輪郭の明瞭度、及び光点の形状である楕円の離心率を含む複数の特徴量を求める。
In step S310, for each light spot included in the image IMG, the
ステップS311において、図8に示した分類部112は、ステップS310の処理で求められた特徴量の一つを選択し、選択した特徴量の値毎に光点を集計することで、図10(A)、(B),(C)に示すような度数分布を求める。分類部112は、ステップS311の処理において、例えば、まず、特徴量の一つとして光点の輝度を選択し、図10(A)に示した度数分布を求め、その後、抽出制御部113からの指示に従って、他の特徴量を順次に選択する。
In step S311, the
ステップS312において、図8に示した抽出制御部113は、ステップS311の処理で求められた度数分布により複数の極大が示されるか否かを判定する。
In step S312, the
図10(A)に示したように、複数の極大を持つ度数分布が得られた場合に(ステップS312の肯定判定(YES))、抽出制御部113は、ステップS311の処理で選択された特徴量に基づいて背景と区別される物体が画像IMGに含まれていると判断する。ステップS312の肯定判定(YES)の場合に、処理は、ステップS313に移行する。一方、ステップS312の否定判定(NO)の場合に、処理は、ステップS317に移行する。
As shown in FIG. 10A, when a frequency distribution having a plurality of maximums is obtained (affirmative determination in step S312 (YES)), the
ステップS313において、分類部112は、画像IMGに含まれる光点を、ステップS311の処理で求めた度数分布の極大のそれぞれに対応するグループに分類する。例えば、分類部112は、図10(A)に示した輝度についての度数分布に基づいて、画像IMGに含まれる光点を、輝度B0を含む範囲Rb0に含まれる輝度を持つ光点のグループと、輝度B1を含む範囲Rb1に含まれる輝度を持つ光点のグループとに分類する。
In step S313, the
ステップS314において、図8に示した特定部114は、ステップS313の処理で生成されたグループの一つを順次に選択し、選択したグループに含まれる光点が画像IMGにおいて分布する範囲を特定する。特定部114は、例えば、図10(A)に示した輝度の範囲Rb1に対応づけられたグループに含まれる光点が画像IMGにおいて分布する範囲として、図9に示した領域C1を特定する。また、特定部114は、図10(A)に示した輝度の範囲Rb0に対応づけられたグループに含まれる光点が画像IMGにおいて分布する範囲として、図9に示した領域C1の外側に相当する範囲を特定する。
In step S314, the specifying
ステップS315において、図8に示した検出部115は、ステップS314の処理で特定された範囲のうち、所定数(例えば5)以上の光点が連続して分布する範囲を候補領域として検出する。例えば、検出部115は、特定部114により特定された領域C1に含まれる光点の数10が予め設定された所定数5よりも多いことから、図9に示した領域C1を候補領域として検出する。ここで、図10(A)に示した輝度の範囲Rb0に対応づけられたグループに属する光点が分布する範囲として特定された領域は、画像IMGから領域C1を除いた範囲に相当し、特定された領域の外側の境界は画像IMGの境界に一致する。輝度の範囲Rb0に対応づけられたグループについて特定された領域のように、特定された領域の境界が画像IMGの境界に一致する場合に、検出部115は、特定された領域は背景に相当すると判断する。即ち、特定された領域の境界が画像IMGの境界に一致する場合に、検出部115は、特定された領域内の光点の数にかかわらず、物体を示す候補領域としては検出せず、背景以外の物体を示す領域として分類されていない未分類の領域とする。
In step S315, the
ステップS316において、抽出制御部113は、ステップS313の分類処理で生成された全てのグループについて、ステップS314及びステップS315の処理を実行したか否かを判定する。
In step S316, the
ステップS314及びステップS315の処理が完了していないグループがまだ残っている場合に(ステップS316の否定判定(NO))、処理はステップS314に戻る。そして、特定部114により、新たに選択されたグループに属する光点が画像IMGにおいて分布する範囲が特定される。その後、ステップS315において、新たに特定された範囲に含まれる光点の数に応じて、検出部115により、新たな候補領域が検出される。
If there is still a group for which the processes in steps S314 and S315 have not been completed (No determination in step S316 (NO)), the process returns to step S314. Then, the specifying
一方、ステップS313の分類処理で生成された全てのグループについての処理が完了した場合に(ステップS316の肯定判定(YES))、処理はステップS317に移行する。 On the other hand, when the process for all the groups generated in the classification process in step S313 is completed (Yes in step S316 (YES)), the process proceeds to step S317.
ステップS317において、抽出制御部113は、画像IMGの中に未分類の領域が残っているか否かを判定する。抽出制御部113は、例えば、ステップS315の処理で候補領域が検出される毎に、検出された候補領域に含まれる光点を画像IMGに含まれる光点から除いていく。そして、除かれずに残った光点の数が検出部115において候補領域の判定に用いる所定数以上であり、かつ、画像IMGにおいて連続して分布している場合に、抽出制御部113は、ステップS317の肯定判定(YES)とする。
In step S317, the
ステップS317の肯定判定(YES)の場合に、抽出制御部113は、ステップS318の処理に進む。一方、画像IMGの中に未分類の領域が残っていない場合に(ステップS317の否定判定(NO))、抽出制御部113は、候補領域を抽出する処理を終了する。
If the determination in step S317 is affirmative (YES), the
ステップS318において、抽出制御部113は、ステップS310の処理で各光点について求められた全ての特徴量に基づく分類が完了したか否かを判定する。
In step S318, the
まだ分類に用いられていない特徴量がある場合に(ステップS318の否定判定(NO))、処理はステップS311に戻る。この場合に、抽出制御部113からの指示に応じて、分類部112により、新たな特徴量として例えば明瞭度が選択され、図10(B)に示したような明瞭度についての度数分布が求められる。
If there is a feature amount that has not been used for classification yet (No determination in step S318), the process returns to step S311. In this case, for example, intelligibility is selected as a new feature amount by the
そして、明瞭度についての度数分布に基づいてステップS313の処理を行うことで、分類部112は、画像IMGに含まれる光点を、図10(B)に示した極大PC0に対応するグループと、極大PC2に対応するグループとに分類する。例えば、分類部112は、図10(B)において、明瞭度CL0を含む範囲Rc0に含まれる明瞭度を持つ光点を極大PC0に対応するグループに分類し、明瞭度CL2を含む範囲Rc2に含まれる明瞭度を持つ光点を極大PC2に対応するグループに分類する。
Then, by performing the process of step S313 based on the frequency distribution regarding the intelligibility, the
その後、ステップS314において、特定部114は、例えば、図10(B)に示した極大PC2に対応付けられたグループに属する光点が画像IMGにおいて分布する範囲として、図9に示した領域C2−1,C2−2を特定する。図9に示した領域C2−1は、所定数(例えば5)以上の光点を内部に含んでいることから、ステップS315の処理で、検出部115により光点の特徴が互いに類似する候補領域の一つとして検出される。一方、図9に示した領域C2−2に含まれる光点の数が所定数未満であることから、ステップS315の処理で、検出部115は、領域C2−2は物体を示す候補領域ではなく、ノイズを示すと判断し、候補領域として検出しない。
Thereafter, in step S314, the specifying
図9に示した画像IMGに含まれる光点の数から領域C1及び領域C2−1のそれぞれに含まれる光点の数を差し引いて得られた値は、候補領域の判定に用いる所定数(例えば5)以上であることから、抽出制御部113は、未分類の領域が残っていると判断する。そして、領域C1及び領域C2−1が候補領域として検出された段階で、評価部111により各光点について求められた特徴量のうち、まだ、光点の形状の特徴を示す離心率は分類に用いられていない。
A value obtained by subtracting the number of light spots included in each of the areas C1 and C2-1 from the number of light spots included in the image IMG illustrated in FIG. 5) As described above, the
この場合に、抽出制御部113は、ステップS318において、まだ分類に用いられていない特徴量があると判断し、再び、ステップS311に戻る。ステップS311において、分類部112により、新たな特徴量として離心率が選択され、図10(C)に示したような離心率についての度数分布が求められる。
In this case, the
そして、離心率についての度数分布に基づいてステップS313の処理を行うことで、分類部112は、画像IMGに含まれる光点を、図10(C)に示した極大PE0に対応するグループと、極大PE3に対応するグループとに分類する。例えば、分類部112は、図10(C)において、離心率e0を含む範囲Re0に含まれる離心率を持つ光点を極大PE0に対応するグループに分類し、離心率e3を含む範囲Rc2に含まれる明瞭度を持つ光点を極大PC2に対応するグループに分類する。
Then, by performing the process of step S313 based on the frequency distribution of the eccentricity, the
その後、ステップS314において、特定部114は、例えば、図10(C)に示した極大PE3に対応付けられたグループに属する光点が画像IMGにおいて分布する範囲として、図9に示した領域C3を特定する。図9に示した領域C3は、所定数(例えば5)以上の光点を内部に含んでいることから、ステップS315の処理で、検出部115により光点の特徴が互いに類似する候補領域の一つとして検出される。
Thereafter, in step S314, the specifying
つまり、図8に示した抽出部11aは、光点の特徴として求められた輝度、明瞭度及び離心率の各々に着目し、図11に示したステップS311からステップS318の処理を繰り返す。これにより、図8に示した抽出部11aは、例えば、光点の特徴として求められた各特徴量の全てを一括して用いるクラスタリングなどを行う場合に比べて簡易な処理により、各特徴量で背景から区別される物体を示す候補領域を漏れなく抽出できる。 That is, the extraction unit 11a illustrated in FIG. 8 repeats the processing from step S311 to step S318 illustrated in FIG. 11 while paying attention to each of the luminance, clarity, and eccentricity obtained as the characteristics of the light spot. Accordingly, the extraction unit 11a illustrated in FIG. 8 performs each feature amount by a simple process compared to, for example, clustering that uses all the feature amounts obtained as light spot features collectively. Candidate regions indicating objects distinguished from the background can be extracted without omission.
そして、評価部111によって求められた特徴量の全てに順次に着目した分類処理が終了した場合に、抽出制御部113は、未分類の領域が残っているか否かにかかわらず、ステップS318の肯定判定(YES)ルートに従って候補領域の抽出処理を終了する。
Then, when the classification process focusing on all of the feature amounts obtained by the
図8から図11で説明したようにして抽出された各候補領域に含まれる光点の情報は、図8に示した算出部12に渡され、算出部12による候補領域毎の特徴ベクトルを求める処理に用いられる。
The light spot information included in each candidate area extracted as described with reference to FIGS. 8 to 11 is passed to the
図12は、図8に示した認識部13aの動作を示す。図12に示したステップS320からステップS327の処理は、図7に示した物体認識プログラムに含まれるステップS304の処理の例である。図12に示す処理は、例えば、図8に示した算出部12により各候補領域の特徴ベクトルが求められる毎に、図8に示した物体認識装置10aに搭載されたプロセッサがプログラムを実行することで実現される。なお、図12に示す処理は、物体認識装置10aに搭載されるハードウェアによって実行されてもよい。
FIG. 12 shows the operation of the
ステップS320において、図8に示した認識部13aの認識制御部132は、算出部12から受けた特徴ベクトルから候補領域内の各光点までの距離の度数分布を示す要素を選択し、選択した要素を検索部131に渡す。認識制御部132は、例えば、図5において、図2に示した候補領域C1、C2のそれぞれに対応して示した特徴ベクトルに含まれる要素のうち、階級Y1〜Y4を含む複数の階級に含まれる光点の数を示す要素を含む部分ベクトルを検索部131に渡す。
In step S320, the recognition control unit 132 of the
ステップS321において、検索部131は、特徴データベースDBに登録された特徴ベクトルの中から、ステップS320の処理で選択した候補領域内の各光点までの距離の度数分布を示す要素に類似する要素を含む特徴ベクトルを検索する。例えば、検索部131は、ステップS320の処理で受けた各光点までの距離の度数分布を示す要素を含む部分ベクトルと、特徴データベースDBに登録された各特徴ベクトルにおいて距離の度数分布を示す要素を含む部分ベクトルとの距離をそれぞれ求める。そして、検索部131は、特徴データベースDBに登録された特徴ベクトルの中で、予め設定された閾値以下の距離が求められた特徴ベクトルを、候補領域に対応する特徴ベクトルに類似する要素を含む特徴ベクトルとして検索する。また、検索部131は、特徴データベースDBから検索した特徴ベクトルのそれぞれに対応付けられた物体の種類を示す情報を、候補領域に含まれる物体の認識結果の候補として認識制御部132に渡す。
In step S321, the
例えば、検索部131は、図5に候補領域C1に対応して示した特徴ベクトルに含まれる距離の度数分布を示す部分ベクトルと、図6に示した特徴データベースDBに登録された各特徴ベクトルに含まれる距離の度数分布を示す部分ベクトルとの距離を求める。この場合に検索部131は、図5に候補領域C1に対応して示した特徴ベクトルに含まれる距離の度数分布を示す部分ベクトルとの距離が所定の閾値以下となる特徴ベクトルとして、図6にボールA及びボールBに対応して示した特徴ベクトルを検索する。
For example, the
ステップS322において、認識制御部132は、検索部131により少なくとも一つの特徴ベクトルが特徴データベースDBから検索されたか否かを判定する。
In step S322, the recognition control unit 132 determines whether or not the
検索部131により、一つ以上の特徴ベクトルが検索された場合に(ステップS322の肯定判定(YES))、処理はステップS323に移行する。 When one or more feature vectors are searched by the search unit 131 (Yes in step S322 (YES)), the process proceeds to step S323.
ステップS323において、認識制御部132は、検索部131による検索により、候補領域に含まれる物体の種類が一つに特定されたか否かを判定する。
In step S323, the recognition control unit 132 determines whether one type of object included in the candidate area is specified by the search by the
候補領域に対応する特徴ベクトルに類似する要素を含む複数の特徴ベクトルが検索部131によって検索された場合に、認識制御部132は、候補領域に含まれる物体の種類はまだ一つに特定されないと判断する。この場合に、認識制御部132は、ステップS323の否定判定(NO)ルートに従ってステップS324及びステップS325の処理を実行する。例えば、ステップS321の処理で、検索部131に検索により、図6にボールA及びボールBのそれぞれに対応して示した特徴ベクトルの双方が検索された場合に、処理はステップS324に移行する。
When the
一方、候補領域に対応する特徴ベクトルに類似する要素を含む単一の特徴ベクトルが検索部131によって検索された場合に、認識制御部132は、候補領域に含まれる物体の種類は一つに特定されたと判断する。この場合に、認識制御部132は、ステップS323の肯定判定(YES)ルートに従ってステップS326の処理を実行する。
On the other hand, when the
ステップS324において、認識制御部132は、算出部12から受けた特徴ベクトルに含まれる光点の特徴を示す要素の中の一つを順次に選択し、検索部131に渡す。認識制御部132は、例えば、算出部12から受けた特徴ベクトルに光点の特徴として含まれる光点の輝度、光点の輪郭の明瞭度及び光点の形状の特徴のそれぞれを示す要素を順に選択し、選択した要素を検索部131に渡す。
In step S <b> 324, the recognition control unit 132 sequentially selects one of the elements indicating the feature of the light spot included in the feature vector received from the
ステップS325において、検索部131は、ステップS324の処理で受けた要素を用いて、ステップS321の処理で特徴データベースDBから検索した特徴ベクトルを絞り込む。例えば、検索部131は、ステップS324の処理で渡された要素(例えば、輝度)と、ステップS321の処理で図6に示した特徴データベースDBから検索されたボールA及びボールBのそれぞれに対応する特徴ベクトルに含まれる対応する要素とを比較する。そして、検索部131は、ステップS324の処理で渡された要素(例えば、輝度)と、ステップS321の処理で検索した各特徴ベクトルの対応する要素との差が所定の閾値以内であるか否かに基づいて、特徴ベクトルの絞り込みを行う。なお、検索部131において、特徴ベクトルの絞り込みに用いられる閾値は、例えば、要素の種類ごとに、異なる種類の物体に投影された光点が示す対応する特徴量の差よりも小さい値に予め設定されることが望ましい。
In step S325, the
ステップS325の処理の終了後に、処理は、ステップS323に戻る。そして、ステップS323において、認識制御部132は、ステップS325の絞り込み処理により、特徴ベクトルが一つに特定されたか否かを判定する。 After the process of step S325 ends, the process returns to step S323. In step S323, the recognition control unit 132 determines whether one feature vector is specified by the narrowing-down process in step S325.
例えば、図6にボールAに対応して示した輝度Baの方がボールBに対応する輝度Bbよりも、図5に候補領域C1に対応して示した輝度B1に近い値である場合を考える。この場合に、ステップS325の処理により、検索部131は、ボールA,Bのそれぞれに対応する特徴ベクトルを、候補領域C1の特徴ベクトルに含まれる輝度B1に近い輝度Baを含むボールAの特徴ベクトルに絞り込む。
For example, let us consider a case where the brightness Ba shown in FIG. 6 corresponding to the ball A is closer to the brightness B1 shown in FIG. 5 corresponding to the candidate area C1 than the brightness Bb corresponding to the ball B. . In this case, by the process of step S325, the
ステップS325の処理により、特徴データベースDBに登録された特徴ベクトルの中で、算出部12から渡された特徴ベクトルに類似する単一の特徴ベクトルが特定された場合に(ステップS323の肯定判定(YES))、処理はステップS326に移行する。
When a single feature vector similar to the feature vector passed from the
ステップS326において、認識制御部132は、特徴データベースDBにおいて、ステップS321あるいはステップS325の処理で特定された特徴ベクトルに対応付けられた物体の種類を、候補領域に含まれる物体の認識結果として出力する。例えば、ステップS325の処理で、特徴データベースDBにボールAに対応して登録された特徴ベクトルが他よりも候補領域C1の特徴ベクトルに類似するとされた場合に、認識制御部132はボールAを候補領域C1に含まれる物体の認識結果として出力する。 In step S326, the recognition control unit 132 outputs, as the recognition result of the object included in the candidate area, the type of the object associated with the feature vector specified in the process of step S321 or step S325 in the feature database DB. . For example, if the feature vector registered in the feature database DB corresponding to the ball A is more similar to the feature vector of the candidate area C1 than the other in the process of step S325, the recognition control unit 132 selects the ball A as a candidate. It outputs as a recognition result of the object contained in the area | region C1.
一方、ステップS321の処理で、特徴データベースDBに登録された特徴ベクトルの中から、候補領域に対応する特徴ベクトルに類似する特徴ベクトルを検索できなかった場合に、処理はステップS327に移行する。 On the other hand, if the feature vector similar to the feature vector corresponding to the candidate area cannot be searched from the feature vectors registered in the feature database DB in the process of step S321, the process proceeds to step S327.
ステップS327において、認識制御部132は、候補領域に含まれる物体を認識できなかったことを示す情報を出力し、物体の種類を特定する処理を終了する。 In step S327, the recognition control unit 132 outputs information indicating that the object included in the candidate area cannot be recognized, and ends the process of specifying the type of the object.
図12で説明したように、図8に示した認識部13aは、まず、特徴データベースDBに登録された特徴ベクトルから、候補領域に対応して求められた特徴ベクトルに含まれる形状の特徴を示す要素に類似した要素を含む特徴ベクトルを検索する。そして、認識部13aは、形状の特徴に基づいて検索された特徴ベクトルを光点の特徴を示す要素に基づいて絞り込むことで、候補領域に対応する特徴ベクトルに類似する単一の特徴ベクトルを特定する。これにより、認識部13aは、例えば、候補領域に対応して求められた特徴ベクトルに形状の特徴を示す要素として含まれる距離の度数分布に類似する要素を含む特徴ベクトルが特徴データベースDBにおいて単一である場合に、光点の特徴の比較を省略できる。即ち、図8に示した認識部13aは、候補領域のそれぞれに対応する特徴ベクトルと特徴データベースDBに登録された各特徴ベクトルとの間の距離を、特徴ベクトルに含まれる全ての要素に基づいて計算する場合よりも、類似する特徴ベクトルを高速に特定できる。
As described with reference to FIG. 12, the
以上に説明した本件開示の物体認識装置10,10aは、例えば、パーソナルコンピュータなどのコンピュータ装置を用いて実現することができる。
The
図13は、図8に示した物体認識装置10aのハードウェア構成例を示す。なお、図13に示した構成要素のうち、図1または図8に示した構成要素と同等のものは同一の符号で示され、構成要素の説明は省略される場合がある。
FIG. 13 shows a hardware configuration example of the
図13に示したコンピュータ装置COMは、プロセッサ21と、メモリ22と、ストレージ装置23と、汎用インタフェース24と、表示装置25と、光学ドライブ装置26と、ネットワークインタフェース28とを含んでいる。図13に示したプロセッサ21と、メモリ22と、ストレージ装置23と、汎用インタフェース24と、表示装置25と、光学ドライブ装置26と、ネットワークインタフェース28とは、バスを介して互いに接続されている。また、汎用インタフェース24には、図1に示した投影装置PRと同等の機能を有する投影装置PR1と、図1に示した撮像部CAMと同等の機能を有するカメラCAM1とが接続されている。
The computer device COM shown in FIG. 13 includes a
図13に示したプロセッサ21と、メモリ22と、ストレージ装置23と、汎用インタフェース24とは、物体認識装置10aに含まれる。
The
図13に示した投影装置PR1は、例えば、人物Q1とベッドBDとを含む所定の領域に、図2及び図9で説明したパターンPTと同様の、複数の光点を含むパターンPT1を投影する。また、図13に示したカメラCAM1は、投影装置PR1によってパターンPT1が投影された領域を例えば所定の時間間隔で撮影し、撮影によって得られた複数枚の画像IMGのそれぞれを、汎用インタフェース24を介してプロセッサ21に渡す。
The projection apparatus PR1 shown in FIG. 13 projects a pattern PT1 including a plurality of light spots, for example, on the predetermined area including the person Q1 and the bed BD, similar to the pattern PT described in FIGS. . Further, the camera CAM1 shown in FIG. 13 captures, for example, a region where the pattern PT1 is projected by the projection device PR1 at a predetermined time interval, and each of a plurality of images IMG obtained by the capturing is displayed on the general-
また、図13に示した光学ドライブ装置26は、光ディスクなどのリムーバブルディスク27を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。
The
また、コンピュータ装置CAMは、ネットワークインタフェース28を介して、インターネットなどのネットワークNWに接続されており、ネットワークNWに接続されたサーバ装置SVとの間で情報の授受が可能である。
The computer device CAM is connected to a network NW such as the Internet via the
図13に示したメモリ22は、コンピュータ装置COMのオペレーティングシステムとともに、図14〜図16を用いて説明する物体認識処理をプロセッサ21が実行するためのアプリケーションプログラムを格納している。なお、物体認識処理を実行するためのアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスク27に記録して頒布することができる。そして、リムーバブルディスク27を光学ドライブ装置26に装着して読み込み処理を行うことにより、プロセッサ21は、読み込んだアプリケーションプログラムを、メモリ22およびストレージ装置23に格納させてもよい。また、物体認識処理を実行するためのアプリケーションプログラムは、ネットワークインタフェース28およびネットワークNWを介して、例えば、サーバ装置SVからダウンロードされてもよい。そして、ダウンロードされたアプリケーションプログラムは、メモリ22およびストレージ装置23に読み込まれることで、プロセッサ21による実行が可能なアプリケーションプログラムとなる。
The
プロセッサ21は、メモリ22等に格納された物体認識処理のためのアプリケーションプログラムを実行することにより、図8に示した抽出部11a、算出部12及び認識部13aの機能を果たす。
The
また、物体認識処理のためのアプリケーションプログラムは、例えば、図6に示した特徴データベースDBと同様の、複数種類の物体のそれぞれについて予め求められた特徴ベクトルを示す情報を含んでいてもよい。この場合に、複数種類の物体のそれぞれについて予め求められた特徴ベクトルは、例えば、ストレージ装置23の記憶領域の一部に格納されている。即ち、図8に示した特徴データベースDBと同等の構成要素は、ストレージ装置23の記憶領域の一部を用いて実現される。なお、ストレージ装置23に設けられる特徴データベースDBは、投影装置PR1によりパターンPT1が投影される領域に含まれるベッドBD及び人物Q1を含む様々な物体のそれぞれの特徴を示す特徴ベクトルを含むことが望ましい。
The application program for object recognition processing may include information indicating feature vectors obtained in advance for each of a plurality of types of objects, for example, similar to the feature database DB shown in FIG. In this case, the feature vector obtained in advance for each of the plurality of types of objects is stored in a part of the storage area of the
以上に説明したように、図8に示した物体認識装置10aは、例えば、図13に示したコンピュータ装置COMに含まれるプロセッサ21と、メモリ22と、ストレージ装置23と、汎用インタフェース24との協働によって実現することができる。
As described above, the
図14は、図13に示した物体認識装置10aの動作を示す。図14に示したステップS301〜ステップS304とステップS331〜ステップS332の各処理は、物体認識処理のためのアプリケーションプログラムに含まれる処理の一例である。また、ステップS301〜ステップS304とステップS331〜ステップS332の各処理は、図13に示したプロセッサ21によって実行される。なお、図14に示したステップS301〜ステップS304の処理は、図7に示したステップS301〜ステップS304の処理と同等の処理である。また、プロセッサ21は、図13に示したカメラCAM1により新たな画像が撮影される毎に、図14に示した各処理を実行する。
FIG. 14 shows the operation of the
ステップS331において、プロセッサ21は、図13に示した汎用インタフェース24を介して、カメラCAM1により例えば数十ミリ秒から数秒程度の時間ごとに撮影される画像IMGを受ける。
In step S331, the
ステップS301において、プロセッサ21は、図3で説明したようにして、ステップS331の処理で受けた画像IMGに含まれる各光点の特徴を示す特徴量を求める。
In step S301, the
ステップS302において、プロセッサ21は、図4、図9から図11で説明したようにして、類似した特徴を持つ光点が画像IMGにおいて分布する範囲を、画像IMGに含まれる物体を示す候補領域として抽出する。なお、プロセッサ21は、図11で説明した各処理に代えて、図15で説明する各処理を行うことで、候補領域の抽出を行ってもよい。
In step S302, the
ステップS303において、プロセッサ21は、ステップS302の処理で抽出された候補領域ごとに、図5で説明したようにして、候補領域に含まれる光点が投影された物体の特徴を示す特徴ベクトルを求める。
In step S303, the
ステップS304において、プロセッサ21は、ストレージ装置23に設けられた特徴データベースDBに登録された情報を用いて、候補領域の特徴ベクトルに類似する特徴を示す物体の種類を特定する。プロセッサ21は、例えば、図5、図6で説明したように、候補領域の特徴ベクトルと特徴データベースDBに登録された各特徴ベクトルとの距離に基づいて、候補領域に含まれる物体の認識を行ってもよいし、図12に示した処理により物体の認識を行ってもよい。また、プロセッサ21は、次に説明するステップS332の処理で記憶される情報を用いて、図16で説明する処理により、物体の認識を行ってもよい。
In step S <b> 304, the
ステップS332において、プロセッサ21は、候補領域毎に、ステップS304の処理において、特徴ベクトルに含まれる他の要素に比べて物体の種類の特定に大きく寄与した要素をメモリ22等に記憶する。例えば、プロセッサ21は、他の要素に比べて物体の種類の特定に大きく寄与した要素として、物体の種類を特定する処理において特徴データベースDBから検索された物体の種類を一つに絞り込むために用いられた要素をメモリ22等に記憶させる。ステップS322の処理でメモリ22などに記憶させられた情報は、カメラCAM1によって新たに撮影された画像IMGから抽出された各候補領域に含まれる物体の種類を特定する処理に用いられる。なお、ステップS322の処理でメモリ22などに記憶された情報を用いて、各候補領域に含まれる物体の種類を特定する処理は、図16を用いて後述される。
In step S332, for each candidate region, the
また、プロセッサ21は、カメラCAM1から画像IMGを受ける毎に、ステップS304の処理で候補領域毎に特定した物体の種類を示す情報を、例えば、図13に示した表示装置25に表示させてもよい。
Further, every time the
図1に示した物体認識装置10と同様に、図13に示した物体認識装置10aは、パターンPT1が投影された領域に含まれる物体の形状とともに物体の表面の性質の特徴を考慮して物体を認識することができる。例えば、人物Q1の頭部と人物Q1の頭部と同等の大きさのボールやぬいぐるみなどの物体とを人物Q1の頭部の表面の特徴とボールなどの表面の特徴との違いに基づいて判別することが可能である。また、ストレージ装置23に設けられる特徴データベースDBに、例えば、人物Q1の正面向きの頭部と、横向きの頭部とのそれぞれに対応する特徴ベクトルが登録されていれば、ベッドBD上の人物Q1の顔の向きを判別することも可能である。
Similar to the
即ち、図13に示した物体認識装置10aは、例えば、人物Q1の頭部と紛らわしい物体(例えば、ぬいぐるみ等)がベッドBDの上にある場合でも、人物Q1の頭部の表面の特徴に基づいて、人物Q1の頭部および頭部の向き等を認識することができる。そして、物体認識装置10aは、ベッドBDと認識された候補領域と人物Q1と認識された候補領域との位置関係とともに、人物Q1の顔の向きなどを示す情報を、物体認識装置10aの操作者に提示することができる。ベッドBDと人物Q1との位置関係や人物Q1の頭部の向きを示す情報を物体認識装置10aから受けた操作者は、例えば、人物Q1の姿勢や行動を判断することが可能である。つまり、物体認識装置10aは、様々な物体が配置された領域に滞在する人物Q1の姿勢や行動を判断するために有用な情報を操作者に提供することが可能である点で、例えば、医療施設などに滞在する人物の見守りなどの分野において有用である。即ち、図13に示した物体認識装置10aは、医療施設や介護施設などにおける人物の見守りサービスなどの分野において有用である。
That is, the
同様に、図13に示した物体認識装置10aは、工場やオフィスなどに設置された様々な備品及び内部に滞在する人物のそれぞれを認識可能であり、また、各備品相互の位置関係及び備品と人物との位置関係や位置関係の変化を示す情報を出力することができる。したがって、図13に示した物体認識装置10aは、工場やオフィスなどへの侵入者を検知する監視システムなどに利用することが可能である。
Similarly, the
ところで、図13に示したパターンPT1あるいは図1に示したパターンPTが投影された領域に表面の特徴が異なる物体が含まれる場合に、画像IMGに含まれる光点の特徴のそれぞれに基づいて抽出された候補領域の境界が不明瞭になる場合がある。例えば、図2に示した画像IMGの例において、候補領域C1に含まれる各光点の輪郭の明瞭度と候補領域C0に含まれる各光点の輪郭の明瞭度との差は、光点SP1の輪郭の明瞭度CL1と光点SP2の輪郭の明瞭度CL2との差に比べて小さい。したがって、図4(B)に示した明瞭度の度数分布において、候補領域C1に含まれる光点の輪郭の明瞭度が分布する範囲と、候補領域C0に含まれる光点の輪郭の明瞭度が分布する範囲とは互いに重なり合っている可能性がある。このため、候補領域C1に対応する極大PC1と候補領域C0に対応する極大PC0との境界を示す度数分布の極小は、極大PC1と極大PC2との間の極小に比べて不明瞭になっている。そして、図4に示した極大PC1、PC0のように、2つの極大間の境界が不明瞭な場合に、一方の極大に対応して抽出した候補領域は、本来は他方の極大に対応する候補領域に含まれる光点を含むことがある。即ち、特徴量の度数分布において、互いの境界が不明瞭な2つの極大のそれぞれに対応して候補領域を抽出した場合は、互いの境界が明瞭な2つの極大のそれぞれに対応して抽出した場合に比べて、抽出された候補領域の確からしさが低くなる。逆に言えば、特徴量の度数分布において、他の極大と明瞭に区別される独立性の高い極大に対応して抽出された候補領域は、他の極大に対応する候補領域に分類される光点を含む可能性が低いことから、確からしい候補領域となる。 By the way, when the pattern PT1 shown in FIG. 13 or an object on which the pattern PT shown in FIG. 1 is projected includes an object having different surface characteristics, extraction is performed based on each of the characteristics of the light spots included in the image IMG. In some cases, the boundaries of the candidate regions that are displayed may be unclear. For example, in the example of the image IMG shown in FIG. 2, the difference between the clarity of the outline of each light spot included in the candidate area C1 and the clarity of the outline of each light spot included in the candidate area C0 is the light spot SP1. This is smaller than the difference between the clearness CL1 of the contour and the clearness CL2 of the contour of the light spot SP2. Therefore, in the frequency distribution of the intelligibility shown in FIG. 4B, the range in which the intelligibility of the outline of the light spot included in the candidate area C1 and the intelligibility of the outline of the light spot in the candidate area C0 are The distributed range may overlap each other. For this reason, the minimum of the frequency distribution indicating the boundary between the maximum PC1 corresponding to the candidate area C1 and the maximum PC0 corresponding to the candidate area C0 is less clear than the minimum between the maximum PC1 and the maximum PC2. . Then, when the boundary between the two maxima is unclear, such as the maxima PC1 and PC0 shown in FIG. 4, the candidate region extracted corresponding to one maxima is originally a candidate corresponding to the other maxima. It may contain light spots included in the region. That is, in the frequency distribution of the feature amount, when candidate regions are extracted corresponding to each of two maxima whose boundaries are unclear, they are extracted corresponding to each of two maxima whose boundaries are clear Compared to the case, the probability of the extracted candidate region is lower. In other words, in the frequency distribution of the feature quantity, candidate areas extracted corresponding to highly independent maxima that are clearly distinguished from other maxima are classified into candidate areas corresponding to other maxima. Since the possibility of including a point is low, it is a probable candidate area.
そこで、図13に示したプロセッサ21は、図14に示したステップS302の処理として、図15に示す処理を実行することで、画像IMGに含まれる光点の特徴量の度数分布において、閾値以上に独立性の高い極大に対応する候補領域を選択的に抽出する。
Therefore, the
図15は、候補領域を抽出する処理の別例を示す。図15に示したステップS310〜ステップS312及びステップS314〜ステップS318の処理と、ステップS341,S342の処理とは、図13に示したプロセッサ21によって実行される。なお、図15に示すステップのうち、図11に示したステップと同等のものは、同一の符号で示すとともにステップの説明を省略する場合がある。例えば、図15に示したステップS310〜ステップS312及びステップS314〜ステップS318の処理は、図11に同一の符号で示したステップと同等である。
FIG. 15 shows another example of processing for extracting candidate regions. The processes in steps S310 to S312 and steps S314 to S318 and the processes in steps S341 and S342 shown in FIG. 15 are executed by the
図15に示した流れ図において、プロセッサ21は、図11に示したステップS312と同等のステップS312の肯定判定の場合に、図11に示したステップS313の処理に代えて、ステップS341及びステップS342の処理を実行する。
In the flowchart shown in FIG. 15, in the case of an affirmative determination in step S312 equivalent to step S312 shown in FIG. 11, the
ステップS341において、プロセッサ21は、ステップS311の処理で求めた度数分布に基づいて、度数分布で示される各極大が他の極大から独立している度合いを示す指標値を求める。例えば、プロセッサ21は、各極大の度数の最大値から各極大と隣接する極大との境界を示す度数の極小値を差し引いた値を各極大の度数の最大値で除算した値を、各極大が隣接する極大に対する独立性を示す指標値として求める。例えば、図4(B)に示した極大PC1の極大PC0からの独立性を示す指標値は、明瞭度CL1に対応する度数から、極大PC1と極大PC0との境界を示す度数分布の極小値を差し引いて得られる値を、明瞭度CL1に対応する度数で除算した値となる。図4(B)に示したように、度数分布において極大PC1と極大PC0との境界を示す極小値が、明瞭度CL1に対応する度数の半分より大きい場合、図4(B)に示した極大PC1の極大PC0からの独立性を示す指標値は、例えば値0.5よりも小さい値となる。一方、図4(B)に示したように、極大PC1と極大PC2との境界を示す極小値が明瞭度CL2に対応する度数の半分未満である場合、図4(B)に示した極大PC2の極大PC1からの独立性を示す指標値は、例えば値0.5よりも大きい値となる。
In step S341, the
ステップS342において、プロセッサ21は、特徴量に対応する度数分布において、ステップS341の処理で閾値以上の指標値が得られた極大を判別し、画像IMGに含まれる光点を、判別した極大に対応する特徴量を持つグループに分類する。例えば、プロセッサ21は、値0.5程度あるいは値0.5よりも大きい値に設定される閾値よりも大きい指標値が得られた極大を、ステップS311の処理で得られた度数分布において、隣接する極大から独立している極大として判別する。そして、プロセッサ21は、画像IMGに含まれる光点のうち、判別した極大に対応する範囲内の特徴量を持つ光点を、判別した極大に対応するグループに分類する。一方、プロセッサ21は、画像IMGに含まれる光点のうち、閾値以下の指標値が得られた極大に対応する範囲に含まれる特徴値を持つ光点を、グループ化せずに残す。
In step S342, the
例えば、ステップS341の処理で、図4(B)に示した極大PC2の独立性を示す指標値として値0.5よりも大きい値を得た場合に、プロセッサ21は、図4(B)の範囲Rc2に含まれる明瞭度を持つ光点を、極大PC2に対応するグループに分類する。ここで、ステップS342の処理により、極大PC2に対応するグループに分類された光点は、輪郭の明瞭度の観点から、当該グループに属さない他の光点とは明らかに異なる特徴を示す。したがって、ステップS314の処理において、極大PC2に対応するグループに分類された光点が画像IMGにおいて連続して分布するとして特定された範囲は、画像IMGにおいて、背景等から区別される特徴を持つ物体を示す確からしい候補領域となる。
For example, when the process of step S341 obtains a value larger than 0.5 as an index value indicating the independence of the maximal PC 2 shown in FIG. 4B, the
一方、ステップS341の処理で、図4(B)に示した極大PC1の独立性を示す指標値として値0.5未満の値が得られた場合に、ステップS342の処理において、プロセッサ21は、図4(B)の範囲Rc1に含まれる明瞭度を持つ光点の分類を抑止する。そして、この場合に、プロセッサ21は、図4(B)の範囲Rc1に含まれる明瞭度を持つ光点をグループ化されていない光点として残す。即ち、図4(B)に示した範囲Rc1に含まれる明瞭度を持つ光点と範囲Rc0に含まれる明瞭度を持つ光点は、明瞭度の観点では背景などから区別することが困難であるとして、未分類の光点として扱われる。したがって、図4(B)の範囲Rc1に含まれる明瞭度を持つ光点が画像IMGにおいて分布する範囲のように、他の物体の特徴を示す可能性を持つ光点を含む不確かな領域が、ステップS314の処理により候補領域として抽出されることはない。つまり、ステップS314の処理に先立って、ステップS341,S342の処理をプロセッサ21によって実行することにより、不確かな候補領域の抽出を抑止し、確からしい候補領域を選択的に抽出することができる。
On the other hand, when a value less than 0.5 is obtained as an index value indicating the independence of the
なお、図15に示したステップS341の処理で求められる指標値は、特徴量の度数分布で示される極大値と極小値とに基づいて算出される値に限らず、特徴量に基づいて分類される各グループのまとまりの度合いを示す値であればよい。 In addition, the index value calculated | required by the process of step S341 shown in FIG. 15 is not limited to the value calculated based on the maximum value and the minimum value indicated by the frequency distribution of the feature value, but is classified based on the feature value. Any value indicating the degree of grouping of each group may be used.
次に、図16に基づいて、図13に示した物体認識装置10aにより、以前に撮影された画像IMGに含まれる物体を認識することで得られた認識結果を、新たに撮影される画像に含まれる物体の認識に用いる手法を説明する。
Next, based on FIG. 16, the recognition result obtained by recognizing an object included in the image IMG previously captured by the
図16は、物体の種類を特定する処理の別例を示す。図16に示したステップS320〜ステップS327、ステップS351及びステップS352は、図14に示したステップS304の処理の一例であり、図13に示したプロセッサ21によって実行される。なお、図16に示すステップのうち、図12に示したステップと同等のものは、同一の符号で示すとともにステップの説明を省略する場合がある。例えば、図16に示したステップS320〜ステップS327の処理は、図12に同一の符号で示したステップと同等である。また、図16に示した各処理は、図14に示したステップS302の処理で抽出された候補領域毎に実行される。
FIG. 16 shows another example of processing for specifying the type of object. Step S320 to step S327, step S351, and step S352 shown in FIG. 16 are an example of the process of step S304 shown in FIG. 14, and are executed by the
図16に示した流れ図において、プロセッサ21は、図12に示したステップS322と同等のステップS322の肯定判定(YES)の場合に、図12に示したステップS323の処理に先立って、ステップS351及びステップS352の処理を実行する。
In the flowchart shown in FIG. 16, in the case of an affirmative determination (YES) in step S322 equivalent to step S322 shown in FIG. 12, the
ステップS351において、プロセッサ21は、図13に示したカメラCAM1により、例えばひとつ前の撮影タイミングに撮影された画像IMGの物体認識処理において、処理の対象となっている候補領域と同等の候補領域の物体を認識したか否かを判定する。例えば、プロセッサ21は、図14に示したステップS332の処理でメモリ22等に記憶させた情報に、処理の対象となっている候補領域の位置及び形状に類似する候補領域に対応づけられた情報が含まれるか否かに基づいて同等の候補領域の有無を判定する。
In step S351, the
メモリ22などに記憶させた情報に、処理の対象となっている候補領域の位置及び形状に類似する候補領域に含まれる物体の種類の特定に寄与した特徴ベクトルの要素を示す情報が含まれる場合に、プロセッサ21はステップS351の肯定判定(YES)とする。この場合に、プロセッサ21は、ステップS352の処理を実行する。一方、ステップS351の否定判定(NO)の場合に、プロセッサ21は、ステップS352の処理を省略する。
When information stored in the
ステップS352において、プロセッサ21は、ステップS332の処理でメモリなどに記憶させた情報に基づいて、ステップS324の処理で、検索結果の絞り込みに用いる光点の特徴量として特徴ベクトルの要素を選択する順序を設定する。プロセッサ21は、例えば、ステップS332の処理でメモリなどに記憶させた情報で示される特徴ベクトルの要素を他の要素よりも先に選択する順序を設定する。
In step S352, based on the information stored in the memory or the like in the process of step S332, the
例えば、メモリ22等に記憶された情報から、光点の輪郭の明瞭度に基づく絞り込みにより候補領域の物体の種類が一つに特定されたことが示された場合に、プロセッサ21は、明瞭度を最初に選択させる順序を設定する。したがって、新たに受けた画像IMGの対応する候補領域についてステップS321の処理で特徴データベースDBから検索された物体の種類の候補は、まず、特徴ベクトルに含まれる明瞭度を示す要素に基づいて絞り込まれる。
For example, when the information stored in the
ここで、一つ前のフレームの画像IMGについての認識処理で、候補領域の物体の種類を一つに絞り込んだ特徴ベクトルの要素は、候補領域に含まれる物体の特徴の中で、特徴データベースDBに登録された他の物体と際立って異なる特徴を示している。 Here, in the recognition process for the image IMG of the previous frame, the feature vector elements narrowed down to one type of object in the candidate region are the feature database DB among the features of the object included in the candidate region. The feature is markedly different from the other objects registered in.
したがって、ステップS321の処理で得られた検索結果を、ステップS332の処理でメモリ22等に記憶させた情報で示される要素を用いて絞り込むことで、他の要素を先に用いる場合よりも、候補領域の物体の種類を早く一つに絞り込むことができる。即ち、ステップS323の処理に先立って、ステップS351,S352の処理をプロセッサ21によって実行することにより、固定された順序で絞り込みに用いる要素を選択する場合よりも、候補領域に含まれる物体の種類を高速に一つに特定することができる。
Therefore, by narrowing down the search results obtained in the process of step S321 using the elements indicated by the information stored in the
以上の詳細な説明により、実施形態の特徴点及び利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で、前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更を容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。 From the above detailed description, features and advantages of the embodiment will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and changes. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.
以上の説明に関して、更に、以下の各項を開示する。
(付記1) 複数の光点を含むパターンが投影された第1物体の画像から、互いに類似する特徴を有する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出し、
前記候補領域に含まれる複数の光点の特徴を示す第1ベクトルを求め、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの特徴を示す予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する
ことを特徴とする物体認識方法。
(付記2) 付記1に記載の物体認識方法において、
前記候補領域を抽出する処理は、
前記画像に含まれる光点のそれぞれの輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を評価し、
前記複数種類の特徴量の一つに基づいて前記光点が複数のグループに分類された場合に、前記複数のグループのそれぞれに属する複数の光点が前記画像において連続して分布する範囲を前記候補領域として検出し、
前記特徴量の一つに基づいて前記光点が複数のグループに分類されない場合に、前記特徴量の他の一つに基づいて前記光点を分類し、前記候補領域を検出することで実行される
ことを特徴とする物体認識方法。
(付記3) 付記2に記載の物体認識方法において、
前記各光点の特徴量を評価する処理は、前記画像に含まれる光点のそれぞれの輝度及び前記光点の輪郭の明瞭度に加えて前記各光点の形状及び大きさのそれぞれを示す情報を、前記各光点の特徴量として求めることで実行され、
前記候補領域を検出する処理は、前記各光点の輝度に基づく分類により前記光点が複数のグループに分類されない場合に、前記光点の輪郭の明瞭度と前記各光点の形状と大きさとを順次に第1特徴量として選択し、選択した第1特徴量に基づいて前記光点を分類することで実行される
ことを特徴とする物体認識方法。
(付記4) 付記1に記載の物体認識方法において、
前記第1ベクトルを求める処理は、
前記候補領域に含まれる各光点の前記画像における位置に基づいて算出される、前記パターンが投影される基準面から前記第1物体に投影された各光点までの距離を示す情報を前記第1ベクトルの一部として求め、
前記候補領域に含まれる各光点の輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を示す情報を前記第1ベクトルの他の一部として求めることで実行され、
前記第1物体の種類を認識する処理は、
前記候補領域に含まれる前記各光点と前記基準点との間の距離を示す情報に類似する距離を示す情報を含む一つの第2ベクトルが特定された場合に、特定された第2ベクトルに対応付けられた第2物体を、前記候補領域で示される前記第1物体の種類として認識し、
複数の第2ベクトルが特定された場合に、前記特定された第2ベクトルの中から、前記第1ベクトルに含まれる前記各光点の複数の特徴量を示す情報に類似する情報を含む第2ベクトルを選択することで、前記第1物体の種類の認識に用いる第2ベクトルを絞り込むことで実行される
ことを特徴とする物体認識方法。
(付記5) 複数の光点を含むパターンが投影された第1物体の画像から、互いに類似する特徴を有する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出する抽出部と、
前記候補領域に含まれる複数の光点の特徴を示す第1ベクトルを求める算出部と、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの特徴を示す予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する認識部と、
を有することを特徴とする物体認識装置。
(付記6) 付記5に記載の物体認識装置において、
前記抽出部は、
前記画像に含まれる光点のそれぞれの輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を評価する評価部と、
前記複数種類の特徴量の一つに基づいて、前記画像に含まれる光点をグループに分類する分類部と、
前記分類部により前記画像に含まれる光点が複数のグループに分類された場合に、前記複数のグループのそれぞれに含まれる光点が前記画像において連続して分布する範囲を特定する特定部と、
前記特定部で特定された範囲のうち、所定数以上の光点を含む範囲を前記候補領域として検出する検出部と、
前記分類部により前記画像に含まれる光点が複数のグループに分類されない場合に、前記複数種類の特徴量の他の一つに基づいて前記光点を分類する処理を前記分類部に実行させる制御部とを含む
ことを特徴とする物体認識装置。
(付記7) 付記6に記載の物体認識装置において、
前記分類部は、他の特徴量に基づいて前記光点を分類する処理に先立って、前記光点の輝度に基づいて前記光点を分類する
ことを特徴とする物体認識装置。
(付記8) 付記5に記載の物体認識装置において、
前記算出部は、
前記候補領域に含まれる各光点の前記画像における位置に基づいて算出される、前記パターンが投影される基準面から前記第1物体に投影された各光点までの距離を示す情報を前記第1ベクトルの一部として求め、
前記候補領域に含まれる各光点の輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を示す情報を前記第1ベクトルの他の一部として求め、
前記認識部は、
前記候補領域に含まれる前記複数の光点のそれぞれまでの距離に類似する距離を示す情報を含む一つの第2ベクトルが特定された場合に、特定された第2ベクトルに対応付けられた第2物体を、前記候補領域で示される前記第1物体の種類として認識し、
複数の第2ベクトルが特定された場合に、前記特定された第2ベクトルから、前記第1ベクトルに含まれる前記各光点の特徴を示す情報に類似する情報を含む第2ベクトルを選択することで、前記第1物体の種類の認識に用いる第2ベクトルを絞り込む
ことを特徴とする物体認識装置。
(付記9) 付記8に記載の物体認識装置において、
複数の光点が投影された前記第1物体の複数の画像を受け、
前記認識部は、
前記候補領域に含まれる前記複数の光点のそれぞれまでの距離に類似する距離を示す情報を含むとして複数の第2ベクトルが特定された場合に、以前に受けた画像から抽出された候補領域に対応して得られた第1ベクトルに類似する第2ベクトルの数を他の特徴量よりも少ない数に絞り込んだ特徴量を用いて、前記第1物体の種類の認識に用いる第2ベクトルを絞り込む
ことを特徴とする物体認識装置。
(付記10) 複数の光点を含むパターンが投影された第1物体の画像(IMG)から、互いに類似する特徴を有する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出し、
前記候補領域に含まれる複数の光点の特徴を示す第1ベクトルを求め、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの特徴を示す予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する、
処理をコンピュータに実行させることを特徴とする物体認識プログラム。
Regarding the above description, the following items are further disclosed.
(Additional remark 1) Extracting the range which the light spot which has a mutually similar characteristic distributes as a candidate area | region which has a possibility of showing the said 1st object from the image of the 1st object in which the pattern containing a several light spot was projected And
Obtaining a first vector indicating characteristics of a plurality of light spots included in the candidate region;
Among the second vectors registered in advance indicating the characteristics of the plurality of light spots included in the pattern projected onto each of the plurality of second objects whose types of objects are known, the first of the candidate regions An object recognition method characterized by identifying a second vector similar to another second vector and recognizing a second object associated with the identified second vector as the type of the first object .
(Appendix 2) In the object recognition method according to
The process of extracting the candidate area is as follows:
Evaluating a plurality of types of feature quantities including the brightness of each light spot included in the image and the clarity of the outline of the light spot;
When the light spots are classified into a plurality of groups based on one of the plurality of types of feature amounts, a range in which a plurality of light spots belonging to each of the plurality of groups is continuously distributed in the image Detected as a candidate area,
When the light spots are not classified into a plurality of groups based on one of the feature quantities, the light spots are classified based on the other one of the feature quantities and the candidate area is detected. An object recognition method characterized by that.
(Supplementary note 3) In the object recognition method according to supplementary note 2,
The process for evaluating the feature amount of each light spot is information indicating the shape and size of each light spot in addition to the brightness of each light spot included in the image and the clarity of the outline of the light spot. Is calculated as a feature value of each light spot,
The process of detecting the candidate area includes the clarity of the outline of the light spot and the shape and size of each light spot when the light spot is not classified into a plurality of groups by classification based on the luminance of each light spot. Are sequentially executed as a first feature value, and the light spot is classified based on the selected first feature value.
(Supplementary Note 4) In the object recognition method according to
The process for obtaining the first vector includes:
Information indicating the distance from the reference plane on which the pattern is projected to each light spot projected onto the first object is calculated based on the position of each light spot included in the candidate region in the image. As part of a vector,
It is executed by obtaining information indicating a plurality of types of feature amounts including brightness of each light spot included in the candidate region and clarity of the outline of the light spot as another part of the first vector,
The process of recognizing the type of the first object is
When one second vector including information indicating a distance similar to information indicating the distance between each light spot and the reference point included in the candidate region is specified, the specified second vector Recognizing the associated second object as the type of the first object indicated by the candidate area;
When a plurality of second vectors are specified, second information including information similar to information indicating a plurality of feature amounts of each light spot included in the first vector is selected from the specified second vectors. An object recognition method, which is executed by narrowing down a second vector used for recognizing the type of the first object by selecting a vector.
(Additional remark 5) Extracting the range which the light spot which has a mutually similar characteristic distributes from the image of the 1st object as which the pattern containing a several light spot was projected as a candidate area | region which has a possibility of showing the said 1st object An extractor to perform,
A calculation unit for obtaining a first vector indicating characteristics of a plurality of light spots included in the candidate region;
Among the second vectors registered in advance indicating the characteristics of the plurality of light spots included in the pattern projected onto each of the plurality of second objects whose types of objects are known, the first of the candidate regions A recognizing unit that identifies a second vector similar to the other second vector to the vector, and recognizes a second object associated with the identified second vector as the type of the first object;
An object recognition apparatus comprising:
(Supplementary note 6) In the object recognition device according to supplementary note 5,
The extraction unit includes:
An evaluation unit that evaluates a plurality of types of feature quantities including the brightness of each light spot included in the image and the clarity of the outline of the light spot;
A classification unit that classifies the light spots included in the image into groups based on one of the plurality of types of feature amounts;
When the light spots included in the image are classified into a plurality of groups by the classification unit, a specifying unit that specifies a range in which the light spots included in each of the plurality of groups are continuously distributed in the image;
A detection unit that detects a range including a predetermined number or more of light spots among the range specified by the specifying unit as the candidate region;
Control that causes the classification unit to perform a process of classifying the light spot based on another one of the plurality of types of feature amounts when the light spot included in the image is not classified into a plurality of groups by the classification unit. An object recognizing device characterized by comprising:
(Supplementary note 7) In the object recognition device according to
The said classification | category part classifies the said light spot based on the brightness | luminance of the said light spot before the process which classifies the said light spot based on another feature-value. The object recognition apparatus characterized by the above-mentioned.
(Supplementary note 8) In the object recognition device according to supplementary note 5,
The calculation unit includes:
Information indicating the distance from the reference plane on which the pattern is projected to each light spot projected onto the first object is calculated based on the position of each light spot included in the candidate region in the image. As part of a vector,
Obtaining information indicating a plurality of types of feature amounts including the brightness of each light spot and the clarity of the outline of the light spot included in the candidate area as another part of the first vector,
The recognition unit
When one second vector including information indicating a distance similar to the distance to each of the plurality of light spots included in the candidate region is specified, a second associated with the specified second vector is specified. Recognizing an object as the type of the first object indicated by the candidate area;
When a plurality of second vectors are identified, a second vector including information similar to information indicating the characteristics of each light spot included in the first vector is selected from the identified second vectors. And narrowing down the second vector used for recognizing the type of the first object.
(Supplementary note 9) In the object recognition device according to supplementary note 8,
Receiving a plurality of images of the first object projected with a plurality of light spots;
The recognition unit
When a plurality of second vectors are identified as including information indicating distances similar to the distances to each of the plurality of light spots included in the candidate region, the candidate region extracted from the previously received image The second vector used for recognizing the type of the first object is narrowed down using the feature quantity obtained by narrowing the number of second vectors similar to the first vector obtained correspondingly to a number smaller than other feature quantities. An object recognition apparatus characterized by that.
(Supplementary Note 10) Candidates that may indicate the first object in a range in which light spots having similar characteristics are distributed from an image (IMG) of the first object onto which a pattern including a plurality of light spots is projected Extract as a region,
Obtaining a first vector indicating characteristics of a plurality of light spots included in the candidate region;
Among the second vectors registered in advance indicating the characteristics of the plurality of light spots included in the pattern projected onto each of the plurality of second objects whose types of objects are known, the first of the candidate regions Identifying a second vector that is more similar to the second vector than the other second vector, and recognizing a second object associated with the identified second vector as the type of the first object;
An object recognition program that causes a computer to execute processing.
10,10a…物体認識装置;11,11a…抽出部;12…算出部;13,13a…認識部;111…評価部;112…分類部;113…抽出制御部;114…特定部;115…検出部;131…検索部;132…認識制御部;21…プロセッサ;22…メモリ;23…ストレージ装置;24…汎用インタフェース;25…表示装置;26…光学ドライブ装置;27…リムーバブルディスク;28…ネットワークインタフェース;CAM,CAM1…カメラ;PR,PR1…投影装置;PT,PT1…パターン;T1,T2…物体;DB…特徴データベース;BD…ベッド;Q1…人物;COM…コンピュータ装置;NW…ネットワーク;SV…サーバ装置
DESCRIPTION OF
Claims (5)
前記候補領域に含まれる複数の光点の前記特徴を含む第1ベクトルを求め、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの前記特徴を含む予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する
ことを特徴とする物体認識方法。 Possibility of indicating the first object in a range in which light spots with similar characteristics of luminance and contour clarity are distributed from the image of the first object onto which a pattern including a plurality of light spots is projected. Extracted as a candidate area
Obtains a first vector including the features of the plurality of light spots included in the candidate region,
In the second vector the type of the object is registered in advance, including each of the features of the plurality of light spots included in the plurality of the pattern projected on each of the second object is known, the said candidate region A second vector that is similar to one second vector than another second vector is identified, and a second object associated with the identified second vector is recognized as the type of the first object. Method.
前記候補領域を抽出する処理は、
前記画像に含まれる光点のそれぞれの輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を評価し、
前記複数種類の特徴量の一つに基づいて前記光点が複数のグループに分類された場合に、前記複数のグループのそれぞれに属する複数の光点が前記画像において連続して分布する範囲を前記候補領域として検出し、
前記特徴量の一つに基づいて前記光点が複数のグループに分類されない場合に、前記特徴量の他の一つに基づいて前記光点を分類し、前記候補領域を検出することで実行される
ことを特徴とする物体認識方法。 The object recognition method according to claim 1,
The process of extracting the candidate area is as follows:
Evaluating a plurality of types of feature quantities including the brightness of each light spot included in the image and the clarity of the outline of the light spot;
When the light spots are classified into a plurality of groups based on one of the plurality of types of feature amounts, a range in which a plurality of light spots belonging to each of the plurality of groups is continuously distributed in the image Detected as a candidate area,
When the light spots are not classified into a plurality of groups based on one of the feature quantities, the light spots are classified based on the other one of the feature quantities and the candidate area is detected. An object recognition method characterized by that.
前記第1ベクトルを求める処理は、
前記候補領域に含まれる各光点の前記画像における位置に基づいて算出される、前記パターンが投影される基準面から前記第1物体に投影された各光点までの距離を示す情報を前記第1ベクトルの一部として求め、
前記候補領域に含まれる各光点の輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を示す情報を前記第1ベクトルの他の一部として求めることで実行され、
前記第1物体の種類を認識する処理は、
前記候補領域に含まれる前記各光点と前記基準面との間の距離を示す情報に類似する距離を示す情報を含む一つの第2ベクトルが特定された場合に、特定された第2ベクトルに対応付けられた第2物体を、前記候補領域で示される前記第1物体の種類として認識し、
複数の第2ベクトルが特定された場合に、前記特定された第2ベクトルの中から、前記第1ベクトルに含まれる前記各光点の複数の特徴量を示す情報に類似する情報を含む第2ベクトルを選択することで、前記第1物体の種類の認識に用いる第2ベクトルを絞り込むことで実行される
ことを特徴とする物体認識方法。 The object recognition method according to claim 1,
The process for obtaining the first vector includes:
Information indicating the distance from the reference plane on which the pattern is projected to each light spot projected onto the first object is calculated based on the position of each light spot included in the candidate region in the image. As part of a vector,
It is executed by obtaining information indicating a plurality of types of feature amounts including brightness of each light spot included in the candidate region and clarity of the outline of the light spot as another part of the first vector,
The process of recognizing the type of the first object is
When one second vector including information indicating a distance similar to the information indicating the distance between each light spot and the reference plane included in the candidate region is specified, the specified second vector Recognizing the associated second object as the type of the first object indicated by the candidate area;
When a plurality of second vectors are specified, second information including information similar to information indicating a plurality of feature amounts of each light spot included in the first vector is selected from the specified second vectors. An object recognition method, which is executed by narrowing down a second vector used for recognizing the type of the first object by selecting a vector.
前記候補領域に含まれる複数の光点の前記特徴を含む第1ベクトルを求める算出部と、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの前記特徴を含む予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する認識部と、
を備えたことを特徴とする物体認識装置。 Possibility of indicating the first object in a range in which light spots with similar characteristics of luminance and contour clarity are distributed from the image of the first object onto which a pattern including a plurality of light spots is projected. An extraction unit for extracting as a candidate area having,
A calculation unit for obtaining a first vector including the features of the plurality of light spots included in the candidate region,
In the second vector the type of the object is registered in advance, including each of the features of the plurality of light spots included in the plurality of the pattern projected on each of the second object is known, the said candidate region A recognizing unit that identifies a second vector that is more similar to one second vector than another second vector, and recognizes a second object associated with the identified second vector as the type of the first object;
An object recognition apparatus characterized by comprising:
前記候補領域に含まれる複数の光点の前記特徴を含む第1ベクトルを求め、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの前記特徴を含む予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する、
処理をコンピュータに実行させることを特徴とする物体認識プログラム。 Possibility of indicating the first object in a range in which light spots with similar characteristics of luminance and contour clarity are distributed from the image of the first object onto which a pattern including a plurality of light spots is projected. Extracted as a candidate area
Obtains a first vector including the features of the plurality of light spots included in the candidate region,
In the second vector the type of the object is registered in advance, including each of the features of the plurality of light spots included in the plurality of the pattern projected on each of the second object is known, the said candidate region A second vector that is more similar to one vector than another second vector is identified, and a second object associated with the identified second vector is recognized as the type of the first object;
An object recognition program that causes a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014111004A JP6435647B2 (en) | 2014-05-29 | 2014-05-29 | Object recognition method, object recognition apparatus, and object recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014111004A JP6435647B2 (en) | 2014-05-29 | 2014-05-29 | Object recognition method, object recognition apparatus, and object recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015225573A JP2015225573A (en) | 2015-12-14 |
JP6435647B2 true JP6435647B2 (en) | 2018-12-12 |
Family
ID=54842249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014111004A Active JP6435647B2 (en) | 2014-05-29 | 2014-05-29 | Object recognition method, object recognition apparatus, and object recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6435647B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6424745B1 (en) * | 1998-05-19 | 2002-07-23 | Lucent Technologies Inc. | Method and apparatus for object recognition |
JP5448599B2 (en) * | 2009-06-24 | 2014-03-19 | キヤノン株式会社 | Measurement system and measurement processing method |
JP2014067193A (en) * | 2012-09-25 | 2014-04-17 | Canon Inc | Image processing apparatus and image processing method |
-
2014
- 2014-05-29 JP JP2014111004A patent/JP6435647B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015225573A (en) | 2015-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8090157B2 (en) | Approaches and apparatus for eye detection in a digital image | |
JP6032921B2 (en) | Object detection apparatus and method, and program | |
EP3191989B1 (en) | Video processing for motor task analysis | |
US10997465B2 (en) | Information processing device, information processing method, and storage medium | |
JP5470262B2 (en) | Binocular detection and tracking method and apparatus | |
US8861802B2 (en) | Face image prioritization based on face quality analysis | |
US6941009B2 (en) | Method for evaluating pattern defects on a water surface | |
CN107194323A (en) | Car damage identification image acquiring method, device, server and terminal device | |
JP5342606B2 (en) | Defect classification method and apparatus | |
JP2010072723A (en) | Tracking device and tracking method | |
JP2011158373A (en) | Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification | |
JP2014093023A (en) | Object detection device, object detection method and program | |
KR20190099537A (en) | Motion learning device, function determining device and function determining system | |
WO2024051067A1 (en) | Infrared image processing method, apparatus, and device, and storage medium | |
JP4708835B2 (en) | Face detection device, face detection method, and face detection program | |
JP7074174B2 (en) | Discriminator learning device, discriminator learning method and computer program | |
JP2003271932A (en) | Sight line direction detector | |
JP7377159B2 (en) | Individual identification system, individual identification program, and recording medium | |
JP6647134B2 (en) | Subject tracking device and program thereof | |
JP6435647B2 (en) | Object recognition method, object recognition apparatus, and object recognition program | |
JP6244960B2 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
JP5217917B2 (en) | Object detection and tracking device, object detection and tracking method, and object detection and tracking program | |
JP2004109105A (en) | Flaw type classification boundary setting method in surface defect detection, and defect detection method | |
CN113544700A (en) | Neural network training method and device, and associated object detection method and device | |
CN109034138B (en) | Image processing method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170411 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20180209 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180209 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181016 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181029 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6435647 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |