JP6435647B2 - Object recognition method, object recognition apparatus, and object recognition program - Google Patents

Object recognition method, object recognition apparatus, and object recognition program Download PDF

Info

Publication number
JP6435647B2
JP6435647B2 JP2014111004A JP2014111004A JP6435647B2 JP 6435647 B2 JP6435647 B2 JP 6435647B2 JP 2014111004 A JP2014111004 A JP 2014111004A JP 2014111004 A JP2014111004 A JP 2014111004A JP 6435647 B2 JP6435647 B2 JP 6435647B2
Authority
JP
Japan
Prior art keywords
vector
light spot
feature
light spots
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014111004A
Other languages
Japanese (ja)
Other versions
JP2015225573A (en
Inventor
健一 若杉
健一 若杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Priority to JP2014111004A priority Critical patent/JP6435647B2/en
Publication of JP2015225573A publication Critical patent/JP2015225573A/en
Application granted granted Critical
Publication of JP6435647B2 publication Critical patent/JP6435647B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体認識方法、物体認識装置及び物体認識プログラムに関する。   The present invention relates to an object recognition method, an object recognition apparatus, and an object recognition program.

例えば、格子状に配列された複数の光点を含むパターンを所定の領域に投影し、投影されたパターンを撮影した画像における各光点の基準の位置からのずれに基づいて、光点が投影された領域内の物体の形状を認識する技術がある(例えば、特許文献1参照)。   For example, a pattern including a plurality of light spots arranged in a grid pattern is projected onto a predetermined area, and light spots are projected based on the deviation of each light spot from the reference position in an image obtained by photographing the projected pattern. There is a technique for recognizing the shape of an object in a specified area (see, for example, Patent Document 1).

この種の技術では、各光点の基準の位置からのずれの大きさから、パターンの投影に用いた光源と物体に投影された光点との距離を求めることで、パターンが投影された物体の表面の凹凸などの物体の形状を認識する。   In this kind of technology, the object on which the pattern is projected is obtained by obtaining the distance between the light source used for projecting the pattern and the light spot projected on the object from the magnitude of deviation from the reference position of each light spot. Recognize the shape of objects such as surface irregularities.

特開2004−96457号公報JP 2004-96457 A

物体に投影された各光点までの距離に基づいて物体の形状を認識する技術では、例えば、類似した形状を持つ複数の物体を含む領域にパターンを投影した場合に、物体のそれぞれの素材や表面の特徴に違いがあっても、個々の物体を判別することは困難である。   In the technology for recognizing the shape of an object based on the distance to each light spot projected on the object, for example, when a pattern is projected on an area including a plurality of objects having similar shapes, Even if there are differences in surface characteristics, it is difficult to distinguish individual objects.

本件開示の物体認識方法、物体認識装置及び物体認識プログラムは、形状が類似していても表面の特徴が異なる物体を互いに判別可能とする技術を提供することを目的とする。   An object recognition method, an object recognition apparatus, and an object recognition program disclosed in the present disclosure are intended to provide a technique that enables objects having different surface characteristics to be distinguished from each other even though their shapes are similar.

一つの観点によれば、物体認識方法は、複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、第1物体を示す可能性を持つ候補領域として抽出し、候補領域に含まれる複数の光点の特徴を含む第1ベクトルを求め、物体の種類が既知である複数の第2物体のそれぞれに投影されたパターンに含まれる複数の光点のそれぞれの特徴を含む予め登録された第2ベクトルの中で、候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、第1物体の種類として認識する。 According to one aspect, the object recognition method, from the first object image pattern including a plurality of light spots are projected, brightness, and the light spots or features of clarity of outline similar to each other are distributed The range is extracted as a candidate region having the possibility of indicating the first object, a first vector including features of a plurality of light spots included in the candidate region is obtained, and a plurality of second objects whose types of objects are known Among the second vectors registered in advance including the characteristics of the plurality of light spots included in the projected patterns, the second vector similar to the other second vectors to the first vector of the candidate area The second object identified and associated with the identified second vector is recognized as the type of the first object.

また、別の観点によれば、物体認識装置は、複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、第1物体を示す可能性を持つ候補領域として抽出する抽出部と、候補領域に含まれる複数の光点の特徴を含む第1ベクトルを求める算出部と、物体の種類が既知である複数の第2物体のそれぞれに投影されたパターンに含まれる複数の光点のそれぞれの特徴を含む予め登録された第2ベクトルの中で、候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、第1物体の種類として認識する認識部とを有する。 According to another aspect, the object recognizing device has a light spot similar to each other in brightness or contour clarity from an image of the first object on which a pattern including a plurality of light spots is projected. An extraction unit that extracts a distributed range as a candidate region having a possibility of indicating the first object, a calculation unit that obtains a first vector including features of a plurality of light spots included in the candidate region, and the type of the object are known Among the previously registered second vectors including the features of the plurality of light spots included in the pattern projected onto each of the plurality of second objects, the second vector other than the first vector of the candidate region And a recognizing unit that recognizes the second object associated with the identified second vector as the type of the first object.

さらに別の観点によれば、物体認識プログラムは、複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、第1物体を示す可能性を持つ候補領域として抽出し、候補領域に含まれる複数の光点の特徴を含む第1ベクトルを求め、物体の種類が既知である複数の第2物体のそれぞれに投影されたパターンに含まれる複数の光点のそれぞれの特徴を含む予め登録された第2ベクトルの中で、候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、第1物体の種類として認識する、処理をコンピュータに実行させる。
According to still another aspect, the object recognition program distributes light spots whose characteristics of brightness or contour clarity are similar to each other from an image of a first object on which a pattern including a plurality of light spots is projected. A plurality of second objects whose types of objects are known by obtaining a first vector including features of a plurality of light spots included in the candidate area. A second vector that is similar to the first vector of the candidate region from the other second vectors among the previously registered second vectors including the characteristics of each of the plurality of light spots included in the projected pattern And the computer recognizes the second object associated with the identified second vector as the type of the first object.

本件開示の物体認識方法、物体認識装置及び物体認識プログラムは、形状が類似していても表面の特徴が異なる物体を互いに判別することができる。   The object recognition method, the object recognition apparatus, and the object recognition program disclosed in the present disclosure can discriminate objects having different surface characteristics even if they have similar shapes.

物体認識装置の一実施形態を示す図である。It is a figure which shows one Embodiment of an object recognition apparatus. 図1に示したカメラで撮影された画像の例を示す図である。It is a figure which shows the example of the image image | photographed with the camera shown in FIG. 図2に示した各光点の特徴を示す特徴量の例を示す図である。It is a figure which shows the example of the feature-value which shows the characteristic of each light spot shown in FIG. 特徴量の度数分布の例を示す図である。It is a figure which shows the example of the frequency distribution of a feature-value. 図1に示した算出部で求められる特徴ベクトルの例を示す図である。It is a figure which shows the example of the feature vector calculated | required by the calculation part shown in FIG. 図1に示した特徴データベースDBの例を示す図である。It is a figure which shows the example of feature database DB shown in FIG. 図1に示した物体認識装置10の動作を示す図である。It is a figure which shows operation | movement of the object recognition apparatus 10 shown in FIG. 物体認識装置の別実施形態を示す図である。It is a figure which shows another embodiment of an object recognition apparatus. 図8に示したカメラで撮影された画像の例を示す図である。It is a figure which shows the example of the image image | photographed with the camera shown in FIG. 図9に示した画像に含まれる光点の特徴量の度数分布の例を示す図である。It is a figure which shows the example of the frequency distribution of the feature-value of the light spot contained in the image shown in FIG. 図8に示した抽出部の動作を示す図である。It is a figure which shows operation | movement of the extraction part shown in FIG. 図8に示した認識部の動作を示す図である。It is a figure which shows operation | movement of the recognition part shown in FIG. 図8に示した物体認識装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the object recognition apparatus shown in FIG. 図13に示した物体認識装置の動作を示す図である。It is a figure which shows operation | movement of the object recognition apparatus shown in FIG. 候補領域を抽出する処理の別例を示す図である。It is a figure which shows another example of the process which extracts a candidate area | region. 物体の種類を特定する処理の別例を示す図である。It is a figure which shows another example of the process which specifies the kind of object.

以下、図面に基づいて、実施形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、物体認識装置の一実施形態を示す。図1に示した物体認識装置10は、抽出部11と、算出部12と、認識部13とを含み、カメラCAMで撮影された画像IMGを受ける。また、物体認識装置10は、特徴データベースDBに接続されており、特徴データベースDBに予め蓄積された情報を参照可能である。なお、特徴データベースDBは、物体認識装置10の内部に設けられてもよい。   FIG. 1 shows an embodiment of an object recognition apparatus. The object recognition apparatus 10 illustrated in FIG. 1 includes an extraction unit 11, a calculation unit 12, and a recognition unit 13, and receives an image IMG photographed by the camera CAM. The object recognition apparatus 10 is connected to the feature database DB, and can refer to information stored in advance in the feature database DB. Note that the feature database DB may be provided inside the object recognition apparatus 10.

物体認識装置10に含まれる各部の機能及び動作の説明に先立って、カメラCAM及び投影装置PRについて説明する。   Prior to the description of the function and operation of each unit included in the object recognition device 10, the camera CAM and the projection device PR will be described.

投影装置PRは、例えば、二つの物体T1、T2を含む領域に、図1において白色の円で示す複数の光点を含むパターンPTを投影する。投影装置PRによって投影されるパターンPTは、例えば、所定の間隔の格子状に配列される複数の光点を含んでいる。投影装置PRは、例えば、投影装置PRの内部に含まれる半導体レーザなどの発光素子から射出される光束を、投影装置PRの内部に含まれる回折格子によって回折させることで、複数の光点を格子状に配列させたパターンPTを投影する。なお、図1では、説明を分かりやすくするために、球状の物体T1,T2にパターンPTが投影された場合を示したが、物体T1、T2の形状は、図1に示した形状に限らず、例えば、表面に凹凸があってもよい。また、図1に示した物体T1,T2のそれぞれは、パターンPTが投影された領域に含まれる第1物体の一例である。   For example, the projection apparatus PR projects a pattern PT including a plurality of light spots indicated by white circles in FIG. 1 onto an area including two objects T1 and T2. The pattern PT projected by the projection device PR includes, for example, a plurality of light spots arranged in a grid pattern with a predetermined interval. The projection apparatus PR, for example, diffracts a light beam emitted from a light emitting element such as a semiconductor laser included in the projection apparatus PR by a diffraction grating included in the projection apparatus PR, thereby grating a plurality of light spots. The pattern PT arranged in a shape is projected. In FIG. 1, for ease of explanation, the case where the pattern PT is projected onto the spherical objects T1 and T2 is shown, but the shapes of the objects T1 and T2 are not limited to the shapes shown in FIG. For example, the surface may be uneven. Further, each of the objects T1 and T2 illustrated in FIG. 1 is an example of a first object included in a region where the pattern PT is projected.

カメラCAMは、例えば、投影装置PRによって物体T1,T2を含む領域に投影されたパターンPTを撮影することで、物体T1,T2の表面に投影された複数の光点を含む画像IMGを取得する。カメラCAMは、投影装置PRの内部に含まれる発光素子から射出される光の波長を含む波長帯に対する感度を有する。カメラCAMによって撮影された画像IMGは、物体認識装置10の抽出部11に渡される。   For example, the camera CAM captures an image IMG including a plurality of light spots projected on the surfaces of the objects T1 and T2 by photographing the pattern PT projected onto the area including the objects T1 and T2 by the projection device PR. . The camera CAM has sensitivity to a wavelength band including the wavelength of light emitted from a light emitting element included in the projection apparatus PR. The image IMG photographed by the camera CAM is transferred to the extraction unit 11 of the object recognition device 10.

カメラCAMは、投影装置PRがパターンPTを投影する方向に対して傾いた方向から、物体T1,T2に投影されたパターンPTを撮影する。このため、カメラCAMによって撮影された画像IMGにおいて、パターンPTに含まれる各光点の位置は、光源である投影装置PRと物体T1,T2上に投影された各光点との距離に応じて、基準となる位置からずれることになる。ここで、各光点の基準となる位置とは、例えば、投影装置PRから所定の距離に配置された基準面に投影されたパターンPTをカメラCAMにより撮影した場合に得られる画像IMGにおける各光点の位置である。なお、カメラCAMで撮影された画像の例は、図2を用いて後述される。   The camera CAM photographs the pattern PT projected on the objects T1 and T2 from the direction inclined with respect to the direction in which the projection apparatus PR projects the pattern PT. For this reason, in the image IMG photographed by the camera CAM, the position of each light spot included in the pattern PT depends on the distance between the projection device PR that is the light source and each light spot projected on the objects T1 and T2. , It will deviate from the reference position. Here, the reference position of each light spot is, for example, each light in the image IMG obtained when the pattern PT projected on the reference plane arranged at a predetermined distance from the projection device PR is photographed by the camera CAM. The position of the point. An example of an image photographed by the camera CAM will be described later with reference to FIG.

図1に示した抽出部11は、例えば、パターンPTが投影された物体T1,T2の画像IMGをカメラCAMから受ける。そして、抽出部11は、受けた画像IMGから、類似する特徴を有する光点が分布する範囲のそれぞれを、パターンPTが投影された領域に含まれる物体(例えば、物体T1,T2)を示す可能性を持つ候補領域として抽出する。例えば、抽出部11は、同等の輝度を持つ所定数以上の光点が連続して分布する範囲を画像IMGから検出し、検出した範囲を候補領域の一つとして抽出する。なお、抽出部11により抽出される候補領域の例は、図2を用いて説明される。   The extraction unit 11 illustrated in FIG. 1 receives, for example, images IMG of the objects T1 and T2 on which the pattern PT is projected from the camera CAM. Then, the extraction unit 11 can indicate, from the received image IMG, the objects (for example, the objects T1 and T2) included in the area where the pattern PT is projected, in each of the ranges where the light spots having similar characteristics are distributed. Extracted as a candidate region having sex. For example, the extraction unit 11 detects from the image IMG a range in which a predetermined number or more of light spots having the same luminance are continuously distributed, and extracts the detected range as one of candidate regions. An example of candidate areas extracted by the extraction unit 11 will be described with reference to FIG.

図1に示した算出部12は、抽出部11から、抽出部11により画像IMGから抽出された候補領域のそれぞれを示す情報を受ける。そして、算出部12は、抽出部11から受けた情報に基づき、候補領域ごとに、候補領域に含まれる複数の光点の特徴を示す第1ベクトルを求める。算出部12は、例えば、候補領域に含まれる各光点の基準の位置からのずれに基づいて、投影装置PRによりパターンPTが投影される基準面から物体T1,T2上に投影された各光点までの距離を算出し、算出した距離を示す情報を第1ベクトルの一部とする。ここで、パターンPTが投影される基準面は、パターンPTに含まれる各光点の基準となる位置の設定に用いられる基準面と同等であり、例えば、投影装置PRから所定の距離に設定される。また、算出部12は、例えば、候補領域に含まれる複数の光点のそれぞれの特徴を示す輝度などの特徴量の平均値を求め、各特徴量について求めた値を第1ベクトルの一部とする。   The calculation unit 12 illustrated in FIG. 1 receives information indicating each candidate region extracted from the image IMG by the extraction unit 11 from the extraction unit 11. Then, based on the information received from the extraction unit 11, the calculation unit 12 obtains a first vector indicating the characteristics of a plurality of light spots included in the candidate region for each candidate region. For example, based on the deviation of each light spot included in the candidate region from the reference position, the calculation unit 12 projects each light projected onto the objects T1 and T2 from the reference plane on which the pattern PT is projected by the projection device PR. The distance to the point is calculated, and information indicating the calculated distance is set as a part of the first vector. Here, the reference plane on which the pattern PT is projected is equivalent to the reference plane used for setting the position serving as the reference for each light spot included in the pattern PT, and is set at a predetermined distance from the projection device PR, for example. The In addition, for example, the calculation unit 12 calculates an average value of feature amounts such as luminance indicating the features of each of a plurality of light spots included in the candidate region, and uses the calculated value for each feature amount as a part of the first vector. To do.

ここで、算出部12により第1ベクトルの一部として求められる、基準面から各光点までの距離を示す情報は、各候補領域に含まれる光点が投影された物体の形状の特徴を示す。また、候補領域ごとの第1ベクトルに含まれる輝度などの特徴量の平均値は、各候補領域に含まれる光点の特徴、即ち、光点が投影された物体の表面の色、材質及び滑らかさ等の性質の特徴を示す。すなわち、候補領域ごとに算出部12によって求められる第1ベクトルは、各候補領域に含まれる物体の形状及び表面の特徴を示す情報であることから、以下の説明において、候補領域の特徴ベクトルと称される場合がある。また、算出部12により各候補領域について求められる特徴ベクトルの例は、図5を用いて説明される。   Here, the information obtained as a part of the first vector by the calculation unit 12 and indicating the distance from the reference plane to each light spot indicates the feature of the shape of the object onto which the light spot included in each candidate area is projected. . In addition, the average value of the feature amount such as luminance included in the first vector for each candidate area is the feature of the light spot included in each candidate area, that is, the color, material, and smoothness of the surface of the object on which the light spot is projected. It shows the characteristics of such properties. That is, since the first vector obtained by the calculation unit 12 for each candidate area is information indicating the shape of the object and the surface features included in each candidate area, in the following description, the first vector is referred to as a candidate area feature vector. May be. Further, an example of feature vectors obtained for each candidate area by the calculation unit 12 will be described with reference to FIG.

図1に示した特徴データベースDBは、複数の既知の物体のそれぞれに投影されたパターンPTに含まれる複数の光点のそれぞれの特徴を示す特徴ベクトルが予め登録されている。即ち、特徴データベースDBは、物体の種類が既知である複数の第2物体のそれぞれに投影されたパターンPTに含まれる複数の光点のそれぞれの特徴を示す予め登録された第2ベクトルの一例である。ここで、既知の各物体に対応して特徴データベースDBに登録された特徴ベクトルは、各物体の形状の特徴を示す情報として、パターンPTが投影される基準面から各物体上に投影された光点のそれぞれまでの距離を示す情報を含む。また、既知の各物体に対応して特徴データベースDBに登録された特徴ベクトルは、各物体の表面の性質の特徴を示す情報として、各物体上に投影された光点の輝度などの特徴量を示す情報を含む。なお、特徴データベースDBに蓄積される特徴ベクトルの例は、図6を用いて後述される。   In the feature database DB shown in FIG. 1, feature vectors indicating the features of a plurality of light spots included in the pattern PT projected onto each of a plurality of known objects are registered in advance. That is, the feature database DB is an example of a pre-registered second vector indicating the features of the plurality of light spots included in the pattern PT projected on each of the plurality of second objects whose types of objects are known. is there. Here, the feature vector registered in the feature database DB corresponding to each known object is light projected onto each object from the reference plane on which the pattern PT is projected as information indicating the feature of the shape of each object. Contains information indicating the distance to each of the points. In addition, the feature vector registered in the feature database DB corresponding to each known object includes information such as the brightness of the light spot projected on each object as information indicating the characteristics of the surface property of each object. Contains information to indicate. An example of feature vectors stored in the feature database DB will be described later with reference to FIG.

図1に示した認識部13は、特徴データベースDBに登録された第2ベクトルの中から、候補領域ごとに求められた特徴ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定する。そして、認識部13は、特定した第2ベクトルに対応付けられた物体の種類を、候補領域で示される物体の種類として認識し、認識した物体の種類を示す情報を、パターンPTが投影された領域に含まれる物体の認識結果として出力する。なお、認識部13の動作は、図5及び図6を用いて後述される。   The recognizing unit 13 illustrated in FIG. 1 specifies a second vector that is more similar to the feature vector obtained for each candidate region than the other second vectors from the second vectors registered in the feature database DB. Then, the recognition unit 13 recognizes the type of the object associated with the identified second vector as the type of the object indicated by the candidate area, and the pattern PT is projected on the information indicating the type of the recognized object. Output as a recognition result of objects included in the region. The operation of the recognition unit 13 will be described later with reference to FIGS. 5 and 6.

図2は、図1に示したカメラCAMで撮影された画像IMGの例を示す。図2に示した画像IMGは、図1に示したパターンPTに含まれる複数の光点を含む。なお、図2に示した円形SP0,SP1,SP2及び楕円形SP3,SP4のそれぞれは、画像IMGに含まれる光点の例である。また、図2の例では、画像IMGに含まれる各光点は、あらかじめ設定された所定値以上の輝度を持っており、輝度が高いほど濃度の高い網掛けで示されている。また、パターンPTは、図2に示した9行×12列の行列状に光点を配置した例に限られず、n行×m列(n、mは正の整数)に配置された光点を含んでもよく、n及びmのそれぞれは値9,12よりも大きくてもよい。   FIG. 2 shows an example of an image IMG taken by the camera CAM shown in FIG. The image IMG shown in FIG. 2 includes a plurality of light spots included in the pattern PT shown in FIG. Note that each of the circles SP0, SP1, SP2 and the ellipses SP3, SP4 illustrated in FIG. 2 is an example of a light spot included in the image IMG. In the example of FIG. 2, each light spot included in the image IMG has a luminance that is equal to or higher than a predetermined value that is set in advance, and the higher the luminance is, the higher the density is. The pattern PT is not limited to the example in which the light spots are arranged in a matrix of 9 rows × 12 columns shown in FIG. 2, but the light spots arranged in n rows × m columns (n and m are positive integers). Each of n and m may be greater than the values 9,12.

図2に破線で示した円形C1,C2のそれぞれは、図1に示したパターンPTが投影された物体T1,T2のそれぞれに対応する領域を示す。ここで、図1に示した投影装置PR以外に物体T1,T2を照明する光源がない場合などに、画像IMGに含まれる物体T1,T2のそれぞれの輪郭を示す形状を図2において領域C1,C2を示した円形のように明確な形状として検出することは困難である。そこで、図1に示した抽出部11は、図2に示した画像IMGに含まれる各光点の特徴の違いに基づいて、物体T1,T2を示す領域を抽出する。   Each of circles C1 and C2 indicated by a broken line in FIG. 2 indicates a region corresponding to each of the objects T1 and T2 onto which the pattern PT illustrated in FIG. 1 is projected. Here, in the case where there is no light source for illuminating the objects T1 and T2 other than the projection apparatus PR shown in FIG. 1, the shapes indicating the respective outlines of the objects T1 and T2 included in the image IMG are shown as regions C1 and C1 in FIG. It is difficult to detect C2 as a clear shape like a circle. Therefore, the extraction unit 11 illustrated in FIG. 1 extracts regions indicating the objects T1 and T2 based on the difference in characteristics of each light spot included in the image IMG illustrated in FIG.

図2に示したように、画像IMGにおいて物体T1に対応する領域C1に含まれる光点(例えば、光点SP1,SP3)の輝度及び光点の形状などの特徴は、例えば、領域C1の外側の領域に含まれる光点(例えば、光点SP0)の特徴と異なっている。同様に、画像IMGにおいて物体T2に対応する領域C2に含まれる光点(例えば、光点SP2,SP4)の輝度及び光点の形状などの特徴は、例えば、領域C2の外側の領域に含まれる光点(例えば、光点SP0)の特徴と異なっている。   As shown in FIG. 2, the characteristics such as the brightness of the light spots (for example, the light spots SP1 and SP3) and the shape of the light spots included in the area C1 corresponding to the object T1 in the image IMG are, for example, outside the area C1. This is different from the feature of the light spot (for example, the light spot SP0) included in the region. Similarly, in the image IMG, features such as the brightness of the light spot (for example, the light spots SP2 and SP4) and the shape of the light spot included in the area C2 corresponding to the object T2 are included in the area outside the area C2, for example. This is different from the characteristics of the light spot (for example, the light spot SP0).

図3は、図2に示した各光点の特徴を示す特徴量の例を示す。図3(A),(B),(C)のそれぞれは、図2に示した画像IMGに含まれる光点SP1,SP2,SP3のそれぞれの画像を示す。なお、図3(A),(B),(C)のそれぞれに示した座標軸X,Yは、例えば、図1に示したカメラCAMに含まれる撮像素子における水平方向及び垂直方向の画素の並び方向を示す。また、図3(D),(E),(F)のそれぞれは、図3(A),(B),(C)のそれぞれに示した光点SP1,SP2,SP3のX軸方向の輝度の分布を示す。図3(D),(E),(F)において、座標軸Bは、輝度の大きさを示す。   FIG. 3 shows an example of the feature amount indicating the feature of each light spot shown in FIG. 3A, 3B, and 3C show images of the light spots SP1, SP2, and SP3 included in the image IMG shown in FIG. Note that the coordinate axes X and Y shown in FIGS. 3A, 3B, and 3C are, for example, horizontal and vertical pixel arrangements in the image sensor included in the camera CAM shown in FIG. Indicates direction. 3D, 3E, and 3F are the luminances in the X axis direction of the light spots SP1, SP2, and SP3 shown in FIGS. 3A, 3B, and 3C, respectively. The distribution of. In FIGS. 3D, 3E, and 3F, the coordinate axis B indicates the luminance.

図3(A)に示した光点SP1は、ほぼ一様な輝度を持つ直径r1の円形である。そして、光点SP1の輝度は、図3(D)に示すように、光点SP1の輪郭に相当するX軸方向の位置において、光点SP1の半径よりも小さい幅w1で輝度B1から輝度0へと急峻な変化を示す。   The light spot SP1 shown in FIG. 3A is a circle with a diameter r1 having substantially uniform luminance. Then, as shown in FIG. 3D, the brightness of the light spot SP1 is 0 from the brightness B1 at a width w1 smaller than the radius of the light spot SP1 at a position in the X-axis direction corresponding to the contour of the light spot SP1. Shows a steep change.

一方、図3(B)に示した光点SP2は、中心から離れるに従って小さくなる輝度を持つ直径r2の円形である。そして、光点SP2の輝度は、図3(E)に示すように、光点SP2の中心付近から光点SP2の半径とほぼ同等の幅w2で輝度B2から輝度0へと緩やかに変化する。   On the other hand, the light spot SP2 shown in FIG. 3B is a circle with a diameter r2 having a luminance that decreases as the distance from the center increases. Then, as shown in FIG. 3E, the luminance of the light spot SP2 gradually changes from the luminance B2 to the luminance 0 with a width w2 substantially equal to the radius of the light spot SP2 from the vicinity of the center of the light spot SP2.

また、図3(C)に示した光点SP3は、座標軸Xと角度θで交差する直線L1で示される方向に長軸を持つ楕円形である。図3(C)に示したような光点SP3の形状は、例えば、長軸DLと単軸DSと長軸方向と座標軸Xとの角度θとを用いて表される。また、光点SP3の輝度は、図3(F)に示すように、光点SP3の輪郭に相当するX軸方向の位置において、光点SP3の半径よりも小さい幅w3で輝度B1から輝度0へと急峻な変化を示す。   The light spot SP3 shown in FIG. 3C is an ellipse having a major axis in the direction indicated by the straight line L1 that intersects the coordinate axis X at an angle θ. The shape of the light spot SP3 as shown in FIG. 3C is expressed using, for example, the major axis DL, the single axis DS, the major axis direction, and the angle θ between the coordinate axis X. Further, as shown in FIG. 3F, the brightness of the light spot SP3 is 0 from the brightness B1 at a width w3 smaller than the radius of the light spot SP3 at the position in the X-axis direction corresponding to the outline of the light spot SP3. Shows a steep change.

図3(A),(D)に示したように、光点SP1の形状が直径r1の円形であること、また、光点SP1の中心部の輝度B1および光点SP1の輪郭における輝度の変化の急峻さ等は、光点SP1の特徴の例である。そして、円の直径r1や中心部の輝度B1、及び、輝度の変化の急峻さ、即ち、光点SP1の輪郭の明瞭さを示す明瞭度は、光点SP1の特徴を示す特徴量の例である。なお、光点の輪郭の明瞭さを示す明瞭度は、例えば、図3(D)に示した幅w1と輝度B1との比で示される輝度の変化の傾きが垂直に近いほど値1に近い値となり、輝度の変化の傾きが小さいほど値0に近い値となることが望ましい。   As shown in FIGS. 3A and 3D, the shape of the light spot SP1 is a circle having a diameter r1, and the brightness B1 at the center of the light spot SP1 and the change in brightness at the contour of the light spot SP1. The steepness is an example of the feature of the light spot SP1. The circle diameter r1, the central brightness B1, and the steepness of the change in brightness, that is, the clarity of the outline of the light spot SP1, is an example of the feature quantity indicating the feature of the light spot SP1. is there. Note that the clarity of the outline of the light spot is, for example, closer to the value 1 as the slope of the change in luminance indicated by the ratio between the width w1 and the luminance B1 shown in FIG. It is desirable that the value be closer to 0 as the slope of change in luminance is smaller.

同様に、図3(B),(E)に示した光点SP2の形状を示す円の直径r2や中心部の輝度B2及び光点SP2の輪郭の明瞭度は、光点SP2の特徴を示す特徴量の例である。なお、光点SP2の輪郭の明瞭度は、図3(E)に示した幅w2と輝度B2との比で示される輝度の変化の傾きから求められる値であり、図3(A),(D)で説明した光点SP1の輪郭の明瞭度よりも小さい値となる。   Similarly, the diameter r2 of the circle showing the shape of the light spot SP2 shown in FIGS. 3B and 3E, the luminance B2 at the center, and the clarity of the outline of the light spot SP2 indicate the characteristics of the light spot SP2. It is an example of a feature-value. Note that the clarity of the outline of the light spot SP2 is a value obtained from the slope of the change in luminance indicated by the ratio between the width w2 and the luminance B2 shown in FIG. It becomes a value smaller than the clarity of the outline of the light spot SP1 described in D).

また、図3(C)に示した光点SP3の形状を示す楕円の長軸DLと単軸DS及び長軸方向と座標軸Xとの交差角θ、中心部の輝度B1及び光点SP3の輪郭の明瞭度は、光点SP3の特徴を示す特徴量の例である。なお、光点SP3の輪郭の明瞭度は、図3(F)に示した幅w3と輝度B1との比で示される輝度の変化の傾きから求められる値であり、図3(A),(D)で説明した光点SP1の輪郭の明瞭度とほぼ同等の値となる。   Further, the long axis DL and the single axis DS of the ellipse showing the shape of the light spot SP3 shown in FIG. 3C, the intersection angle θ between the long axis direction and the coordinate axis X, the brightness B1 at the center, and the contour of the light spot SP3. Is an example of a feature amount indicating the feature of the light spot SP3. Note that the clarity of the outline of the light spot SP3 is a value obtained from the slope of the change in luminance indicated by the ratio between the width w3 and the luminance B1 shown in FIG. The value is almost equal to the clarity of the outline of the light spot SP1 described in D).

また、図3においては図示を省略したが、図2に示した画像IMGに含まれる光点SP0は、図3(A)に示した光点SP1の中心部の輝度B1よりも小さい輝度を持ち、光点SP1とほぼ同等の直径と輪郭の明瞭度とを持つ円形である。   Although not shown in FIG. 3, the light spot SP0 included in the image IMG shown in FIG. 2 has a brightness smaller than the brightness B1 at the center of the light spot SP1 shown in FIG. A circular shape having a diameter substantially equal to that of the light spot SP1 and the clarity of the outline.

図1に示した抽出部11は、例えば、カメラCAMから受けた画像IMGを解析することで、画像IMGに含まれる各光点について、図3で説明した特徴量を求め、求めた特徴量を例えば所定の階級ごとに集計することで、図4に示すような度数分布を求める。   For example, the extraction unit 11 illustrated in FIG. 1 analyzes the image IMG received from the camera CAM to obtain the feature amount described in FIG. 3 for each light spot included in the image IMG. For example, a frequency distribution as shown in FIG. 4 is obtained by counting up for each predetermined class.

図4は、特徴量の度数分布の例を示す。図4(A)は、画像IMGに含まれる複数の光点のうち、横軸Bで示される輝度を持つ光点の数を集計することで得られる度数分布を模式的に示す。また、図4(B)は、画像IMGに含まれる複数の光点のうち、横軸CLで示される明瞭度を持つ光点の数を集計することで得られる度数分布を模式的に示す。なお、図4(A),(B)において、縦軸nは度数を示す。   FIG. 4 shows an example of the frequency distribution of feature amounts. FIG. 4A schematically shows a frequency distribution obtained by aggregating the number of light spots having the luminance indicated by the horizontal axis B among a plurality of light spots included in the image IMG. FIG. 4B schematically shows a frequency distribution obtained by aggregating the number of light spots having the clarity shown by the horizontal axis CL among a plurality of light spots included in the image IMG. 4A and 4B, the vertical axis n indicates the frequency.

図4(A)に曲線で示した光点の輝度についての度数分布は、輝度B0,B1,B2において、それぞれ極大PB0,PB1,PB2を示す。ここで、画像IMGに含まれる光点の輝度は、図1に示したパターンPTが投影された物体の表面の反射率等に依存する。したがって、図4(A)の例のように、画像IMGに含まれる光点の輝度の度数分布が複数の極大を持つということは、画像IMGは反射率が互いに異なる複数の物体に投影された光点を含んでいることを示している。そして、図2に示した画像IMGにおいて、互いに類似した輝度を持つ光点が連続的に分布している領域は、互いに類似した反射率でパターンPTを反射する領域であり、図1に示したパターンPTが投影された領域に含まれる個々の物体を示す。   The frequency distribution regarding the luminance of the light spot shown by a curve in FIG. 4A shows local maximums PB0, PB1, and PB2 at luminances B0, B1, and B2, respectively. Here, the luminance of the light spot included in the image IMG depends on the reflectance of the surface of the object on which the pattern PT shown in FIG. 1 is projected. Therefore, as in the example of FIG. 4A, the fact that the frequency distribution of the luminance of the light spot included in the image IMG has a plurality of maximums means that the image IMG is projected onto a plurality of objects having different reflectances. It shows that it contains a light spot. In the image IMG shown in FIG. 2, areas where light spots having similar brightness are continuously distributed are areas that reflect the pattern PT with similar reflectance, and are shown in FIG. 1. The individual objects included in the area where the pattern PT is projected are shown.

例えば、図4(A)に示した度数分布において、輝度B1を中心とする範囲Rb1に含まれる輝度を持つ光点は、図2に示した光点SP1に類似した反射率で反射された光点である。そして、図2で説明したように、図2に示した領域C1の内部に含まれる各光点の輝度は、光点SP1の輝度B1に類似した値を示す。したがって、抽出部11は、図2に示した画像IMGにおいて、図4(A)に示した範囲Rb1に含まれる輝度を持つ光点が分布する範囲を抽出することで、図1に示した物体T1を示す候補領域として、図2に示した領域C1を抽出することができる。同様に、抽出部11は、図4(A)に示した輝度B2を中心とする範囲Rb2に含まれる輝度を持つ光点が分布する範囲を画像IMGから抽出することで、図1に示した物体T2を示す候補領域として、図2に示した領域C2を抽出することができる。なお、図4(A)に示した輝度B0は、図2に示した光点SP0の輝度を示し、輝度B0を中心とする範囲Rb0に含まれる輝度を持つ光点、即ち、光点SP0に類似した特徴を示す光点は、画像IMGから候補領域C1,C2を除いた領域C0に分布している。したがって、抽出部11は、輝度B0を中心とする範囲Rb0に含まれる輝度を持つ光点が画像IMGにおいて分布する範囲を抽出することで、物体T1,T2の背景を示す候補領域として領域C0を抽出することができる。   For example, in the frequency distribution shown in FIG. 4A, the light spot having the luminance included in the range Rb1 centered on the luminance B1 is the light reflected at the reflectance similar to the light spot SP1 shown in FIG. Is a point. As described with reference to FIG. 2, the luminance of each light spot included in the area C1 shown in FIG. 2 shows a value similar to the luminance B1 of the light spot SP1. Therefore, the extraction unit 11 extracts the range in which the light spots having the luminance included in the range Rb1 illustrated in FIG. 4A are distributed in the image IMG illustrated in FIG. As a candidate area indicating T1, the area C1 shown in FIG. 2 can be extracted. Similarly, the extraction unit 11 extracts the range in which the light spots having the luminance included in the range Rb2 centered on the luminance B2 shown in FIG. As a candidate area indicating the object T2, the area C2 shown in FIG. 2 can be extracted. The brightness B0 shown in FIG. 4A indicates the brightness of the light spot SP0 shown in FIG. 2, and the light spot having the brightness included in the range Rb0 centered on the brightness B0, that is, the light spot SP0. Light spots showing similar features are distributed in a region C0 excluding candidate regions C1 and C2 from the image IMG. Therefore, the extraction unit 11 extracts a range in which light spots having luminance included in the range Rb0 centered on the luminance B0 are distributed in the image IMG, so that the region C0 is set as a candidate region indicating the background of the objects T1 and T2. Can be extracted.

図1に示した抽出部11は、図4(A)で説明した光点の輝度に着目した候補領域の抽出に代えて、各光点について求めた他の特徴量に着目した候補領域の抽出を行ってもよい。   The extraction unit 11 illustrated in FIG. 1 extracts candidate regions that focus on other feature values obtained for each light spot instead of extracting candidate regions that focus on the brightness of the light spot described in FIG. May be performed.

図4(B)に曲線で示した光点の輪郭の明瞭度についての度数分布は、明瞭度CL0,CL1,CL2において、それぞれ極大PC0,PC1,PC2を示す。ここで、画像IMGに含まれる光点の輪郭の明瞭度は、図1に示したパターンPTが投影された物体の表面の素材や性質に依存し、例えば、投影された物体の表面が滑らかであるほど高い明瞭度を示す。なお、図4(B)に示した極大PC0の中央の明瞭度CL0は、図3(B)に示した光点SP0の特徴の一つとして求められた明瞭度に相当する。また、図4(B)に示した極大PC1の中央の明瞭度CL1は、図3(B)に示した光点SP1の特徴の一つとして求められた明瞭度に相当する。そして、図4(B)に示した極大PC2の中央の明瞭度CL2は、抽出部11により、図2に示した光点SP2の特徴の一つとして求められた明瞭度に相当する。   The frequency distribution regarding the intelligibility of the contour of the light spot shown by the curve in FIG. 4B shows the maximum PC0, PC1, and PC2 at the intelligibility CL0, CL1, and CL2, respectively. Here, the clarity of the outline of the light spot included in the image IMG depends on the material and properties of the surface of the object onto which the pattern PT shown in FIG. 1 is projected. For example, the surface of the projected object is smooth. The higher the clarity. Note that the clarity C0 at the center of the maximum PC0 shown in FIG. 4B corresponds to the clarity obtained as one of the features of the light spot SP0 shown in FIG. Further, the clarity C1 at the center of the maximum PC1 shown in FIG. 4B corresponds to the clarity obtained as one of the features of the light spot SP1 shown in FIG. The clarity C2 at the center of the maximum PC 2 shown in FIG. 4B corresponds to the clarity obtained as one of the features of the light spot SP2 shown in FIG.

したがって、図4(B)の例のように、画像IMGに含まれる光点の明瞭度の度数分布が複数の極大を持つということは、画像IMGが、表面の素材や性質が互いに異なる複数の物体のそれぞれに投影された光点を含んでいることを示している。そして、図2に示した画像IMGにおいて、互いに類似した明瞭度を持つ光点が連続的に分布している領域は、たがいに類似した性質でパターンPTを反射する領域であり、図1に示したパターンPTが投影された領域に含まれる個々の物体を示す。   Therefore, as in the example of FIG. 4B, the fact that the frequency distribution of the clarity of the light spots included in the image IMG has a plurality of local maxima means that the image IMG has a plurality of surface materials and properties different from each other. It shows that it contains a light spot projected on each of the objects. In the image IMG shown in FIG. 2, regions where light spots having similar clarity are continuously distributed are regions that reflect the pattern PT with similar properties, and are shown in FIG. 1. The individual objects included in the area where the pattern PT is projected are shown.

即ち、抽出部11は、図2に示した画像IMGにおいて、例えば、図4(B)に示した明瞭度CL2を中心とする範囲Rc2に含まれる明瞭度を持つ光点が分布する範囲C2として、図1に示した物体T2を示す候補領域を抽出することができる。同様に、抽出部11は、図2に示した画像IMGにおいて、図4(B)に示した明瞭度CL1を中心とする範囲Rc1に含まれる明瞭度を持つ光点が分布する範囲C1として、図1に示した物体T1を示す候補領域を抽出することができる。なお、図2の例では、図4(B)に示した明瞭度CL0を中心とする範囲Rc0に含まれる明瞭度を持つ光点、即ち、光点SP0に類似した特徴を示す光点が分布する範囲は、画像IMGから候補領域C1,C2を除いた領域C0となる。抽出部11は、明瞭度CL0を中心とする範囲Rc0に含まれる明瞭度を持つ光点が画像IMGにおいて分布する領域C0を、例えば、物体T1,T2の背景を示す候補領域として抽出してもよい。   That is, the extraction unit 11 includes, for example, a range C2 in which light points having intelligibility included in the range Rc2 centered on the intelligibility CL2 illustrated in FIG. 4B are distributed in the image IMG illustrated in FIG. A candidate region indicating the object T2 shown in FIG. 1 can be extracted. Similarly, in the image IMG illustrated in FIG. 2, the extraction unit 11 has a range C1 in which light points having intelligibility included in the range Rc1 centered on the clarity CL1 illustrated in FIG. A candidate area indicating the object T1 shown in FIG. 1 can be extracted. In the example of FIG. 2, the light spots having the clarity included in the range Rc0 centered on the clarity CL0 shown in FIG. 4B, that is, the light spots having characteristics similar to the light spot SP0 are distributed. The range to be performed is a region C0 obtained by removing the candidate regions C1 and C2 from the image IMG. The extraction unit 11 may extract the region C0 in which the light spots having the clarity included in the range Rc0 centered on the clarity CLO in the image IMG are extracted as candidate regions indicating the backgrounds of the objects T1 and T2, for example. Good.

同様にして、抽出部11は、各光点の特徴を示す特徴量のそれぞれについて求めた度数分布に基づいて、類似した特徴を示す光点が連続して分布する画像IMGの領域を、候補領域として抽出してもよい。   Similarly, the extraction unit 11 determines a region of the image IMG in which light spots indicating similar features are continuously distributed based on the frequency distribution obtained for each feature amount indicating the feature of each light spot. May be extracted as

抽出部11は、各光点の特徴を示す複数種類の特徴量に順次に着目し、着目した特徴量を用いて候補領域を抽出してもよいし、例えば、複数種類の特徴量を含むベクトル相互の距離に基づいて生成したクラスタ毎に候補領域を抽出してもよい。なお、複数種類の特徴量から順次に選択した特徴量に着目して候補領域を抽出する抽出部11の例は、図8から図11を用いて後述される。   The extraction unit 11 may focus attention sequentially on a plurality of types of feature amounts indicating the features of each light spot, and may extract candidate regions using the focused feature amounts, for example, a vector including a plurality of types of feature amounts You may extract a candidate area | region for every cluster produced | generated based on the mutual distance. Note that an example of the extraction unit 11 that extracts candidate regions by paying attention to feature amounts sequentially selected from a plurality of types of feature amounts will be described later with reference to FIGS. 8 to 11.

図2から図4で説明した抽出処理により画像IMGから抽出された候補領域のそれぞれに含まれる光点の画像IMGにおける位置と各光点の特徴を示す情報は、図1に示した算出部12に渡される。そして、算出部12は、抽出部11から受けた情報に基づいて、図1に示した投影装置PRから各候補領域に含まれる光点までの距離で示される形状の特徴を表す情報と、各光点の特徴量で示される表面の特徴を表す情報とを含む特徴ベクトルを求める。   Information indicating the position of the light spot in the image IMG and the characteristics of each light spot included in each of the candidate areas extracted from the image IMG by the extraction processing described with reference to FIGS. 2 to 4 is the calculation unit 12 illustrated in FIG. Passed to. Then, based on the information received from the extraction unit 11, the calculation unit 12 includes information representing the feature of the shape indicated by the distance from the projection device PR illustrated in FIG. 1 to the light spot included in each candidate region, A feature vector including information representing the surface feature indicated by the feature amount of the light spot is obtained.

図5は、図1に示した算出部12で求められる特徴ベクトルの例を示す。図5の例は、図2に示した候補領域C0,C1,C2のそれぞれに含まれる光点の情報に基づいて、算出部12で求められた特徴ベクトルを示している。なお、図5に示す要素のうち、図4に示した要素と同等のものは、同一の符号で示すとともに要素の説明を省略する場合がある。   FIG. 5 shows an example of the feature vector obtained by the calculation unit 12 shown in FIG. The example of FIG. 5 shows the feature vector obtained by the calculation unit 12 based on the information of the light spot included in each of the candidate areas C0, C1, and C2 shown in FIG. Of the elements shown in FIG. 5, elements equivalent to those shown in FIG. 4 are denoted by the same reference numerals and description of the elements may be omitted.

図5において、形状の特徴欄に示した符号Y1,Y2,Y3,Y4,Yk(kは5以上の整数)は、各光点の位置と基準となる位置との差に基づいて算出された距離の集計に用いられる階級の例を示す。階級Y1,Y2,Y3,Y4,Ykは、例えば、パターンPTに含まれる光点の位置のずれに基づいて測定が可能な距離の範囲を数ミリから数センチ程度の長さごとに区切った区間のそれぞれに相当する。   In FIG. 5, symbols Y1, Y2, Y3, Y4, and Yk (k is an integer of 5 or more) shown in the shape feature column are calculated based on the difference between the position of each light spot and the reference position. The example of the class used for the total of distance is shown. The classes Y1, Y2, Y3, Y4, and Yk are, for example, sections in which a range of distances that can be measured based on the displacement of the position of the light spot included in the pattern PT is divided into lengths of several millimeters to several centimeters. It corresponds to each of.

図5に示した候補領域C0,C1,C2の特徴ベクトルは、形状の特徴を表す情報として、各光点の位置と基準となる位置との差に基づいて算出された距離を、階級Y1,Y2,Y3,Y4,Ykを含む複数の階級ごとに集計することで得られる度数分布を含む。なお、図5の例は、図2に示した候補領域C1,C2のそれぞれに含まれる光点が、距離の階級Y1,Y2,Y3,Y4のそれぞれに1個、4個、6個及び0個分布し、候補領域C0に含まれる86個の光点の全てが階級Ykに分布する場合を示した。   The feature vectors of the candidate areas C0, C1, and C2 shown in FIG. 5 are obtained by using the distances calculated based on the difference between the position of each light spot and the reference position as information representing the shape features. It includes a frequency distribution obtained by counting for each of a plurality of classes including Y2, Y3, Y4, and Yk. In the example of FIG. 5, the light spots included in each of the candidate regions C1 and C2 illustrated in FIG. 2 are one, four, six, and zero in each of the distance classes Y1, Y2, Y3, and Y4. A case is shown in which all of the 86 light spots included in the candidate area C0 are distributed in the class Yk.

また、図5において、候補領域C0,C1,C2のそれぞれに対応して示した特徴ベクトルは、各候補領域に含まれる光点の特徴量を示す情報として、例えば、輝度の平均値B0,B1,B2および明瞭度の平均値CL0,CL1,CL2を含む。なお、図5に示した特徴ベクトルの例は、候補領域C0,C1,C2のそれぞれに含まれる光点の輝度および明瞭度のそれぞれが正規分布を示す場合を示す。即ち、候補領域C0に含まれる光点の輝度の分布および明瞭度の分布の特徴を示す情報として、候補領域C0の特徴ベクトルは、図4(A),(B)のそれぞれに示した度数分布の極大PB0,PC0の極大値である輝度B0および明瞭度CL0を含む。同様に、候補領域C1に含まれる光点の輝度の分布および明瞭度の分布の特徴を示す情報として、候補領域C1の特徴ベクトルは、図4(A),(B)のそれぞれに示した度数分布の極大PB1,PC1の極大値である輝度B1および明瞭度CL1を含む。また、候補領域C2に含まれる光点の輝度の分布および明瞭度の分布の特徴を示す情報として、候補領域C2の特徴ベクトルは、図4(A),(B)のそれぞれに示した度数分布の極大PB2,PC2の極大値である輝度B2および明瞭度CL2を含む。なお、図5の例では、候補領域C1,C2,C3の特徴ベクトルに光点の特徴を示す情報として含まれる要素のうち、輝度および明瞭度以外の特徴である光点の形状や大きさ等を示す要素の図示を省略している。   In FIG. 5, the feature vectors shown corresponding to the candidate regions C0, C1, and C2 are, for example, average luminance values B0 and B1 as information indicating the feature amount of the light spot included in each candidate region. , B2 and average values CL0, CL1, CL2 of the intelligibility. The example of the feature vector shown in FIG. 5 shows a case where the brightness and clarity of the light spots included in each of the candidate areas C0, C1, and C2 show a normal distribution. That is, as information indicating the characteristics of the luminance distribution and the clarity distribution of the light spots included in the candidate area C0, the feature vectors of the candidate area C0 are the frequency distributions shown in FIGS. 4A and 4B, respectively. Luminance B0 and intelligibility CL0, which are local maximum values PB0 and PC0. Similarly, as information indicating the characteristics of the luminance distribution and the clarity distribution of the light spots included in the candidate area C1, the feature vector of the candidate area C1 includes the frequencies shown in FIGS. 4A and 4B, respectively. It includes the brightness B1 and the clarity CL1, which are the maximum values of the local maximums PB1 and PC1 of the distribution. In addition, as information indicating the characteristics of luminance distribution and clarity distribution of light spots included in the candidate area C2, the feature vector of the candidate area C2 is a frequency distribution shown in each of FIGS. 4A and 4B. Brightness B2 and clarity CL2 which are the maximum values of local maximums PB2 and PC2. In the example of FIG. 5, among the elements included as information indicating the characteristics of the light spot in the feature vectors of the candidate regions C1, C2, and C3, the shape and size of the light spot that is a feature other than brightness and clarity The illustration of the element indicating is omitted.

図1に示した認識部13は、特徴データベースDBに登録された特徴ベクトルの中から、図5に示した特徴ベクトルのそれぞれに類似する特徴ベクトルを特定し、特定した特徴ベクトルに対応付けられた物体の種類を各候補領域に含まれる物体の認識結果とする。   The recognition unit 13 illustrated in FIG. 1 identifies feature vectors similar to each of the feature vectors illustrated in FIG. 5 from the feature vectors registered in the feature database DB, and associates them with the identified feature vectors. The object type is set as the recognition result of the object included in each candidate area.

図6は、図1に示した特徴データベースDBの例を示す。なお、図6に示す要素のうち、図5に示した要素と同等のものは、同一の符号で示すとともに要素の説明を省略する場合がある。   FIG. 6 shows an example of the feature database DB shown in FIG. Among the elements shown in FIG. 6, elements equivalent to those shown in FIG. 5 are denoted by the same reference numerals and description of the elements may be omitted.

図6に示した特徴データベースDBは、「ボールA」、「ボールB」を含む複数の物体の種類のそれぞれに対応して、物体に投影された各光点までの距離により物体の形状を示す情報及び投影された光点の特徴を示す情報を含む特徴ベクトルを保持している。   The feature database DB shown in FIG. 6 indicates the shape of an object by the distance to each light spot projected onto the object corresponding to each of a plurality of types of objects including “Ball A” and “Ball B”. A feature vector including information and information indicating the feature of the projected light spot is held.

図6に示した特徴データベースDBは、ボールA、ボールBの各々の形状の特徴を表す情報として、ボールA、ボールBのそれぞれに投影されたパターンPTを撮影した画像IMGに含まれる光点の位置に基づいて算出された距離の度数分布を保持する。なお、図6の例は、ボールA及びボールBのそれぞれに投影された光点が、共に、距離の階級Y1,Y2,Y3,Y4のそれぞれに順に1個、4個、6個及び0個分布する場合、即ち、ボールAの形状とボールBの形状とがほぼ同等である場合を示している。   The feature database DB shown in FIG. 6 includes information on the light spots included in the image IMG obtained by capturing the pattern PT projected on each of the balls A and B as information representing the characteristics of the shapes of the balls A and B. The frequency distribution of the distance calculated based on the position is held. In the example of FIG. 6, the light spots projected onto the balls A and B are one, four, six, and zero in order of the distance classes Y1, Y2, Y3, and Y4, respectively. In the case of distribution, that is, the shape of the ball A and the shape of the ball B are substantially equal.

また、図6に示した特徴データベースDBは、ボールAの表面の性質を表す情報として、ボールAに投影された光点の特徴を示す情報、即ち、光点の輝度の平均値Baと明瞭度の平均値CLaとを含む情報を保持している。同様に、図6に示した特徴データベースDBは、ボールBの表面の性質を表す情報として、ボールBに投影された光点の特徴を示す情報、即ち、光点の輝度の平均値Bbと明瞭度の平均値CLbとを含む情報を保持している。   In addition, the feature database DB shown in FIG. 6 includes information indicating the characteristics of the light spot projected on the ball A as information indicating the surface property of the ball A, that is, the average value Ba and the clarity of the brightness of the light spot. Information including the average value CLa. Similarly, the feature database DB shown in FIG. 6 has information indicating the characteristics of the light spot projected on the ball B as information indicating the surface property of the ball B, that is, the average value Bb of the brightness of the light spot. Information including the average value CLb of the degree is held.

例えば、図5において候補領域C1に対応して示した特徴ベクトルに含まれる形状の特徴を表す情報と、図6に示したボールAの形状の特徴及びボールBの形状の特徴とは、ほぼ同等である。このため、特徴データベースDBに物体の種類ごとに登録された形状を示す情報と候補領域C1の特徴ベクトルに含まれる形状を示す情報との比較に基づいて、候補領域C1に含まれる物体T1がボールAであるかボールBであるかを判別することは困難である。同様に、特徴データベースDBに物体の種類ごとに登録された形状を示す情報と候補領域C2の特徴ベクトルに含まれる形状を示す情報との比較に基づいて、候補領域C2に含まれる物体T2がボールAであるかボールBであるかを判別することは困難である。   For example, the information indicating the feature of the shape included in the feature vector corresponding to the candidate region C1 in FIG. 5 is almost the same as the feature of the shape of the ball A and the feature of the ball B shown in FIG. It is. Therefore, the object T1 included in the candidate region C1 is a ball based on a comparison between information indicating the shape registered for each type of object in the feature database DB and information indicating the shape included in the feature vector of the candidate region C1. It is difficult to determine whether it is A or ball B. Similarly, based on the comparison between the information indicating the shape registered for each type of object in the feature database DB and the information indicating the shape included in the feature vector of the candidate region C2, the object T2 included in the candidate region C2 is a ball It is difficult to determine whether it is A or ball B.

しかしながら、図1に示した算出部12により候補領域ごとに求められる特徴ベクトル及び特徴データベースDBに物体の種類ごとに登録された特徴ベクトルは、共に、物体の形状の特徴を表す情報に加えて物体の表面の性質の特徴を示す情報を含んでいる。   However, the feature vector obtained for each candidate area by the calculation unit 12 shown in FIG. 1 and the feature vector registered for each type of object in the feature database DB are both added to the information representing the feature of the shape of the object. Contains information that characterizes the nature of the surface.

したがって、認識部13は、例えば、算出部12により候補領域C1について求められた特徴ベクトルと、特徴データベースDBに登録された各特徴ベクトルとの間の距離に基づいて、候補領域C1に含まれる物体に類似する特徴を持つ物体を特定できる。   Therefore, the recognition unit 13, for example, the object included in the candidate region C1 based on the distance between the feature vector obtained for the candidate region C1 by the calculation unit 12 and each feature vector registered in the feature database DB. It is possible to specify an object having characteristics similar to.

例えば、認識部13は、特徴データベースDBに登録された特徴ベクトルの中で、候補領域C1の特徴ベクトルとの距離が他の特徴ベクトルとの距離よりも小さくなる特徴ベクトルを特定する。そして、認識部13は、特定した特徴ベクトルに対応付けられた物体の種類を、候補領域C1に含まれる物体T1の認識結果として出力する。例えば、図5に候補領域C1に対応して示した輝度B1が、図6にボールBに対応して示した輝度BbよりもボールAに対応する輝度Baに近い値である場合を考える。この場合に、候補領域C1の特徴ベクトルとボールAに対応する特徴ベクトルとの距離は、ボールBに対応する特徴ベクトルを含む他の特徴ベクトルと候補領域C1の特徴ベクトルとの距離よりも小さくなる。即ち、認識部13は、候補領域C1に含まれる物体T1を、特徴ベクトル間の距離が最小となるボールAと認識する。   For example, the recognition unit 13 specifies a feature vector whose distance from the feature vector of the candidate area C1 is smaller than the distance from other feature vectors among the feature vectors registered in the feature database DB. And the recognition part 13 outputs the kind of object matched with the specified feature vector as a recognition result of the object T1 contained in the candidate area | region C1. For example, let us consider a case where the luminance B1 shown in correspondence with the candidate area C1 in FIG. 5 is closer to the luminance Ba corresponding to the ball A than the luminance Bb shown in FIG. In this case, the distance between the feature vector of the candidate area C1 and the feature vector corresponding to the ball A is smaller than the distance between the other feature vectors including the feature vector corresponding to the ball B and the feature vector of the candidate area C1. . That is, the recognizing unit 13 recognizes the object T1 included in the candidate area C1 as the ball A having the smallest distance between the feature vectors.

同様に、認識部13は、特徴データベースDBに登録された特徴ベクトルの中で、候補領域C2の特徴ベクトルとの距離が他の特徴ベクトルとの距離よりも小さくなる特徴ベクトルを特定することで、候補領域C1に含まれる物体を認識できる。例えば、図5に候補領域C2に対応して示した輝度B2が、図6にボールAに対応して示した輝度BaよりもボールBに対応する輝度Bbに近い値である場合に、認識部13は、候補領域C2に含まれる物体T2をボールBと認識する。   Similarly, the recognizing unit 13 specifies a feature vector whose distance from the feature vector of the candidate region C2 is smaller than the distance from other feature vectors among the feature vectors registered in the feature database DB. Objects included in the candidate area C1 can be recognized. For example, when the brightness B2 shown corresponding to the candidate area C2 in FIG. 5 is closer to the brightness Bb corresponding to the ball B than the brightness Ba shown corresponding to the ball A in FIG. 13 recognizes the object T2 included in the candidate area C2 as the ball B.

即ち、図1に示した抽出部11、算出部12及び認識部13を有する物体認識装置10は、物体の形状の特徴を表す情報とともに物体の表面の性質の特徴を示す情報を用いて認識することで、形状が類似していても表面の性質が異なる物体を互いに判別可能である。   That is, the object recognition apparatus 10 including the extraction unit 11, the calculation unit 12, and the recognition unit 13 illustrated in FIG. 1 recognizes information using information indicating the characteristics of the surface of the object together with information indicating the characteristics of the shape of the object. Thus, objects having different surface properties can be distinguished from each other even if their shapes are similar.

図7は、図1に示した物体認識装置10の動作を示す。図7に示したステップS301〜ステップS304の処理は、図1に示した物体認識装置10の動作を示すとともに、物体認識方法および物体認識プログラムの例を示す。例えば、図7に示す処理は、物体認識装置10に搭載されたプロセッサが物体認識プログラムを実行することで実現される。なお、図7に示す処理は、物体認識装置10に搭載されるハードウェアによって実行されてもよい。   FIG. 7 shows the operation of the object recognition apparatus 10 shown in FIG. The processing of step S301 to step S304 shown in FIG. 7 shows the operation of the object recognition apparatus 10 shown in FIG. 1, and shows an example of an object recognition method and an object recognition program. For example, the processing shown in FIG. 7 is realized by a processor mounted on the object recognition apparatus 10 executing an object recognition program. Note that the processing shown in FIG. 7 may be executed by hardware mounted on the object recognition apparatus 10.

ステップS301において、物体認識装置10に含まれる抽出部11は、カメラCAMから受けた画像IMGに含まれる各光点の特徴として、図3で説明したようにして、光点の輝度、光点の輪郭の明瞭度及び光点の形状を含む特徴量を求める。   In step S301, the extraction unit 11 included in the object recognition apparatus 10 determines the brightness of the light spot and the light spot as the characteristics of each light spot included in the image IMG received from the camera CAM as described in FIG. A feature amount including the clarity of the contour and the shape of the light spot is obtained.

ステップS302において、抽出部11は、類似した特徴量を持つ光点が画像IMGにおいて分布する範囲のそれぞれを、パターンPTが投影された領域に含まれる物体を示す候補領域として抽出する。例えば、抽出部11は、図2から図4で説明したようにして、図2に破線の円形で示した候補領域C1,C2と、図2において、候補領域C1,C2以外の範囲として示される候補領域C0とを抽出する。   In step S302, the extraction unit 11 extracts each of the ranges in which light spots having similar feature amounts are distributed in the image IMG as candidate areas indicating objects included in the area where the pattern PT is projected. For example, as described with reference to FIGS. 2 to 4, the extraction unit 11 is shown as candidate areas C1 and C2 indicated by broken-line circles in FIG. 2 and ranges other than the candidate areas C1 and C2 in FIG. 2. Candidate area C0 is extracted.

ステップS303において、算出部12は、ステップS302の処理で抽出された各候補領域に含まれる光点の情報に基づいて、各候補領域に含まれる物体の形状及び表面の性質の特徴を示す特徴ベクトルを求める。例えば、算出部12は、図2に示した候補領域C0,C1,C2のそれぞれに含まれる各光点の位置及び各光点の特徴に基づいて、図5に候補領域C0,C1,C2に対応して示した特徴ベクトルのそれぞれを算出する。   In step S303, the calculation unit 12 uses the feature information indicating the shape of the object and the characteristics of the surface of the object included in each candidate area based on the information on the light spot included in each candidate area extracted in the process of step S302. Ask for. For example, based on the position of each light spot and the characteristics of each light spot included in each of the candidate areas C0, C1, and C2 shown in FIG. Each of the feature vectors shown correspondingly is calculated.

ステップS304において、認識部13は、特徴データベースDBに登録された特徴ベクトルの中で、ステップS303で候補領域毎に求められた特徴ベクトルに類似する特徴を示す特徴ベクトルを特定することで、各候補領域に含まれる物体を認識する。例えば、認識部13は、候補領域ごとに求められた特徴ベクトルと、特徴データベースDBに登録された特徴ベクトルのそれぞれとの距離に基づいて、各候補領域に含まれる物体を認識する。なお、認識部13は、特徴データベースDBに登録された特徴ベクトルの中で、候補領域ごとに求められた特徴ベクトルに類似する特徴ベクトルを特定するために求める距離は、特徴ベクトルに含まれる全ての要素を用いて求められる距離に限られない。例えば、認識部13は、特徴ベクトルに含まれる一部の要素に基づく距離で物体の種類を特定できない場合に、他の要素を追加して算出した特徴ベクトル間の距離に基づいて、候補領域に含まれる物体の種類を絞り込んでもよい。候補領域に含まれる物体の種類を段階的に絞り込むことで物体の認識を行う認識部13は、図8から図12を用いて後述される。   In step S304, the recognition unit 13 identifies each candidate vector by identifying a feature vector similar to the feature vector obtained for each candidate region in step S303 from the feature vectors registered in the feature database DB. Recognize objects contained in the region. For example, the recognition unit 13 recognizes an object included in each candidate region based on the distance between the feature vector obtained for each candidate region and each feature vector registered in the feature database DB. It should be noted that the recognition unit 13 calculates the distance to be used for specifying a feature vector similar to the feature vector obtained for each candidate region from among the feature vectors registered in the feature database DB. It is not limited to the distance obtained using the element. For example, when the recognition unit 13 cannot identify the type of the object based on the distance based on some elements included in the feature vector, the recognition unit 13 sets the candidate region based on the distance between the feature vectors calculated by adding other elements. The types of objects included may be narrowed down. The recognition unit 13 that recognizes an object by gradually narrowing down the types of objects included in the candidate area will be described later with reference to FIGS.

以上に説明したように、図1に示した物体認識装置10は、物体を含む領域に投影されたパターンPTを撮影した画像IMGから、類似した特徴量を持つ光点が分布する範囲を候補領域として抽出する。そして、物体認識装置10は、抽出した候補領域ごとに求めた特徴ベクトルに類似する特徴ベクトルを特徴データベースDBにおいて特定することで、抽出した候補領域に含まれる物体を認識する。つまり、物体認識装置10は、物体の形状の特徴を表す情報とともに物体の表面の性質の特徴を示す情報を用いて、各候補領域に含まれる物体を認識する。これにより、図1に示した物体認識装置10は、図2に示した候補領域C1,C2のように、光点の位置から求められる形状を示す情報が互いに類似する場合でも、個々の光点の特徴で示される表面の性質の違いに基づいて、物体T1,T2の種類を判別可能である。   As described above, the object recognizing device 10 shown in FIG. 1 determines the range in which light spots having similar feature amounts are distributed from the image IMG obtained by capturing the pattern PT projected on the region including the object as the candidate region. Extract as And the object recognition apparatus 10 recognizes the object contained in the extracted candidate area | region by specifying the feature vector similar to the feature vector calculated | required for every extracted candidate area | region in feature database DB. That is, the object recognition device 10 recognizes an object included in each candidate region using information indicating the feature of the shape of the object and information indicating the characteristic of the surface property of the object. Accordingly, the object recognition apparatus 10 shown in FIG. 1 can detect individual light spots even when the information indicating the shapes obtained from the positions of the light spots is similar to each other as in the candidate areas C1 and C2 shown in FIG. The types of the objects T1 and T2 can be discriminated based on the difference in the surface properties indicated by the characteristics.

図8は、物体認識装置の別実施形態を示す。なお、図8に示す構成要素のうち、図1に示した構成要素と同等のものは、同一の符号で示すとともに構成要素の説明を省略する場合がある。   FIG. 8 shows another embodiment of the object recognition apparatus. 8 that are equivalent to the components shown in FIG. 1 are denoted by the same reference numerals and description of the components may be omitted.

図8に示した物体認識装置10aは、図1に示した抽出部11に相当する抽出部11aと、算出部12と、図1に示した認識部13に相当する認識部13aと、特徴データベースDBとを含んでいる。   An object recognition apparatus 10a illustrated in FIG. 8 includes an extraction unit 11a corresponding to the extraction unit 11 illustrated in FIG. 1, a calculation unit 12, a recognition unit 13a corresponding to the recognition unit 13 illustrated in FIG. DB is included.

抽出部11aは、評価部111と、分類部112と、抽出制御部113と、特定部114と、検出部115とを含んでいる。評価部111は、カメラCAMで撮影された画像IMGを受ける。   The extraction unit 11a includes an evaluation unit 111, a classification unit 112, an extraction control unit 113, a specification unit 114, and a detection unit 115. The evaluation unit 111 receives an image IMG taken by the camera CAM.

評価部111は、カメラCAMから受けた画像IMGに含まれる光点毎に、光点の輝度及び光点の輪郭の明瞭度を含む複数種類の特徴量を評価する。評価部111は、例えば、図3で説明したようにして、光点毎に、光点の中心の輝度及び光点の輪郭の明瞭度とともに、光点の形状を示す情報として、光点の長軸及び短軸の長さや長軸の傾きなどを評価する。評価部111により、各光点について求められた特徴量は、分類部112に渡される。   The evaluation unit 111 evaluates a plurality of types of feature amounts including the brightness of the light spot and the clarity of the outline of the light spot for each light spot included in the image IMG received from the camera CAM. For example, as described with reference to FIG. 3, the evaluation unit 111 uses the light spot length as information indicating the shape of the light spot together with the brightness of the center of the light spot and the clarity of the outline of the light spot for each light spot. Evaluate the length of the axis and minor axis and the inclination of the major axis. The feature amount obtained for each light spot by the evaluation unit 111 is passed to the classification unit 112.

分類部112は、評価部111から受けた複数種類の特徴量の一つを順に選択し、選択した特徴量に基づいて、画像IMGに含まれる光点を互いに類似した特徴量を持つグループに分類する。分類部112は、図4で説明したようにして、選択した特徴量を示す値毎に光点を集計することで、選択した特徴量についての度数分布を求め、求めた度数分布に基づいて、特徴量を示す値が互いに近似している光点をグループにまとめることで、光点を分類する。例えば、図4(A)に示したように、光点の輝度の度数分布が輝度B0,B1,B2において極大を示す場合に、分類部112は、画像IMGに含まれる光点を、輝度B0,B1,B2のそれぞれに近似した輝度を持つ光点を含む3つのグループに分類する。   The classification unit 112 sequentially selects one of a plurality of types of feature amounts received from the evaluation unit 111, and classifies the light spots included in the image IMG into groups having similar feature amounts based on the selected feature amounts. To do. As described with reference to FIG. 4, the classification unit 112 calculates a frequency distribution for the selected feature amount by aggregating the light spots for each value indicating the selected feature amount, and based on the calculated frequency distribution, The light spots are classified by grouping the light spots whose values indicating the feature quantities are similar to each other. For example, as shown in FIG. 4A, when the frequency distribution of the luminance of the light spot shows a maximum in the luminance B0, B1, B2, the classification unit 112 converts the light spot included in the image IMG to the luminance B0. , B1 and B2 are classified into three groups including light spots having luminance approximate to each.

抽出制御部113は、分類部112による分類により、画像IMGに含まれる光点が複数のグループに分類された場合に、複数のグループのそれぞれに属する光点を示す情報を特定部114に渡す。一方、分類部112による分類により、画像IMGに含まれる光点が複数のグループに分類されない場合に、抽出制御部113は、分類部112に対して、別の特徴量に基づく分類の実行を指示する。即ち、抽出制御部113は、分類部112により複数のグループに分類されない場合に、分類に用いられた特徴量とは異なる特徴量に基づく分類を分類部112に実行させる制御部の一例である。   When the light spot included in the image IMG is classified into a plurality of groups by the classification by the classification unit 112, the extraction control unit 113 passes information indicating the light spots belonging to each of the plurality of groups to the specifying unit 114. On the other hand, when the light spots included in the image IMG are not classified into a plurality of groups due to the classification by the classification unit 112, the extraction control unit 113 instructs the classification unit 112 to perform classification based on another feature amount. To do. That is, the extraction control unit 113 is an example of a control unit that causes the classification unit 112 to perform classification based on a feature amount different from the feature amount used for classification when the classification unit 112 does not classify the plurality of groups.

特定部114は、抽出制御部113から受けた情報に基づいて、分類部112の処理で得られたグループごとに、グループに属する光点が画像IMGにおいて分布する範囲を特定する。特定部114は、例えば、グループに属する各光点の画像IMGにおける位置を示す情報に基づいて、画像IMGにおいて、グループに属する光点が分布する範囲を特定する。例えば、図4(A)に示した輝度B0,B1,B2のそれぞれに対応するグループ内の各光点の位置を示す情報に基づいて、特定部114は、図2に示した領域C0,C1,C2のそれぞれを、画像IMGにおいて各グループに属する光点が分布する範囲として特定する。特定部114により、各グループに属する光点が分布する範囲として特定された領域を示す情報は、検出部115に渡される。   Based on the information received from the extraction control unit 113, the specification unit 114 specifies a range in which the light spots belonging to the group are distributed in the image IMG for each group obtained by the processing of the classification unit 112. For example, the specifying unit 114 specifies a range in which the light spots belonging to the group are distributed in the image IMG based on information indicating the positions of the light spots belonging to the group in the image IMG. For example, based on information indicating the position of each light spot in the group corresponding to each of the luminances B0, B1, and B2 illustrated in FIG. 4A, the specifying unit 114 performs the regions C0 and C1 illustrated in FIG. , C2 is specified as a range in which the light spots belonging to each group are distributed in the image IMG. Information indicating a region identified as a range in which the light spots belonging to each group are distributed by the identifying unit 114 is passed to the detecting unit 115.

検出部115は、特定部114で特定された範囲のうち、例えば5〜6程度の値に設定される所定数以上の光点を含む範囲を候補領域として検出し、検出した候補領域を示す情報を算出部12に渡す。なお、検出部115において、候補領域として検出するか否かの判定に用いる所定数は値5〜6に限らず、例えば、特徴データベースDBに登録された物体が画像IMGにおいて占める大きさの下限などに基づいて予め設定される。また、検出部115は、特定部114で特定された範囲のうち、図2に示した領域C0のように、図1に示した物体T1,T2の背景に相当する範囲を候補領域から除外することが望ましい。   The detection unit 115 detects, as candidate regions, a range including a predetermined number or more of light spots set to a value of, for example, about 5 to 6 among the ranges specified by the specifying unit 114, and information indicating the detected candidate regions Is passed to the calculation unit 12. Note that the predetermined number used for determining whether or not to detect as a candidate region in the detection unit 115 is not limited to the value 5 to 6, and for example, the lower limit of the size that the object registered in the feature database DB occupies in the image IMG, etc. Is set in advance based on In addition, the detection unit 115 excludes a range corresponding to the background of the objects T1 and T2 illustrated in FIG. 1 from the candidate regions, such as the region C0 illustrated in FIG. It is desirable.

検出部115によって検出された候補領域を示す情報は、算出部12に渡されるとともに、抽出制御部113にも渡される。そして、抽出制御部113は、検出部115から受けた情報に基づいて、候補領域として抽出可能な領域が画像IMGにまだ残っているか否かを判定し、残っていると判定した場合に、分類部112に対して新たな特徴量に基づく分類の実行を指示する。   Information indicating the candidate area detected by the detection unit 115 is passed to the calculation unit 12 and also to the extraction control unit 113. Then, based on the information received from the detection unit 115, the extraction control unit 113 determines whether or not an area that can be extracted as a candidate area still remains in the image IMG. The unit 112 is instructed to execute classification based on the new feature amount.

なお、抽出部11aに含まれる抽出制御部113、特定部114及び検出部115の動作は、図9から図11を用いて後述される。   The operations of the extraction control unit 113, the specifying unit 114, and the detection unit 115 included in the extraction unit 11a will be described later with reference to FIGS.

図8に示した認識部13aは、検索部131と、認識制御部132とを含む。   The recognition unit 13a illustrated in FIG. 8 includes a search unit 131 and a recognition control unit 132.

検索部131は、認識制御部132から候補領域ごとに求められた特徴ベクトルの少なくとも一部の要素を受け、特徴データベースDBに登録された特徴ベクトルの中から、受けた要素に類似する要素を含む特徴ベクトルを検索する。検索部131は、例えば、認識制御部132から受けた要素との差が所定の閾値以下となる要素を含む特徴ベクトルを、特徴データベースDBに登録された特徴ベクトルの中から検索する。検索部131において、特徴データベースDBに登録された特徴ベクトルの要素と認識制御部132から受けた要素との類似の判定に用いる閾値は、例えば、異なる種類の物体の各々に対応する特徴ベクトルに含まれる要素間の差よりも小さい値に設定される。また、検索部131は、特徴データベースDBに対する検索で得られた特徴ベクトルに対応付けられた物体の種類を示す情報を認識制御部132に返す。   The search unit 131 receives at least some elements of the feature vectors obtained for each candidate area from the recognition control unit 132, and includes elements similar to the received elements from the feature vectors registered in the feature database DB. Search for feature vectors. For example, the search unit 131 searches the feature vector registered in the feature database DB for a feature vector including an element whose difference from the element received from the recognition control unit 132 is equal to or less than a predetermined threshold. In the search unit 131, the threshold value used for determining the similarity between the element of the feature vector registered in the feature database DB and the element received from the recognition control unit 132 is included in the feature vector corresponding to each of different types of objects, for example. Is set to a value smaller than the difference between the elements. In addition, the search unit 131 returns information indicating the type of object associated with the feature vector obtained by the search on the feature database DB to the recognition control unit 132.

認識制御部132は、候補領域ごとに算出部12で求められた特徴ベクトルを受け、受けた特徴ベクトルに含まれる要素から、次に説明する順序で要素を選択し、選択した要素に基づく特徴データベースの検索を検索部131に指示する。   The recognition control unit 132 receives the feature vector obtained by the calculation unit 12 for each candidate region, selects an element from the elements included in the received feature vector in the order described below, and a feature database based on the selected element Is instructed to the search unit 131.

例えば、認識制御部132は、まず、算出部12から受けた特徴ベクトルに含まれる要素のうち、候補領域に含まれる各光点までの距離を示す要素を選択し、選択した要素を検索部131に渡す。ここで、候補領域に含まれる各光点までの距離を示す要素は、図5で説明したように、距離について設けられた各階級に含まれる光点の数、即ち、各光点までの距離の度数分布を示す情報であり、候補領域に含まれる光点が投影された物体の形状の特徴を示す。その後、認識制御部132は、検索部131により複数種類の物体を示す情報が返された場合に、算出部12から受けた特徴ベクトルの要素の中でまだ選択されていない要素を順次に選択する。そして、選択した要素に類似する要素を含むか否かに基づいて、以前の検索で得られた複数種類の物体に対応付けられた特徴ベクトルを絞り込む処理を検索部131に実行させる。   For example, the recognition control unit 132 first selects an element indicating the distance to each light spot included in the candidate region from among the elements included in the feature vector received from the calculation unit 12, and selects the selected element as the search unit 131. To pass. Here, the element indicating the distance to each light spot included in the candidate area is the number of light spots included in each class provided for the distance, that is, the distance to each light spot, as described in FIG. Information indicating the frequency distribution of the object, and the feature of the shape of the object onto which the light spot included in the candidate area is projected. Thereafter, when the search unit 131 returns information indicating a plurality of types of objects, the recognition control unit 132 sequentially selects elements that have not been selected from among the elements of the feature vector received from the calculation unit 12. . Then, based on whether or not an element similar to the selected element is included, the search unit 131 executes a process of narrowing down feature vectors associated with a plurality of types of objects obtained by the previous search.

例えば、認識制御部132は、検索部131により複数種類の物体を示す情報が返された場合に特徴ベクトルの絞り込みに用いる要素として、まず、算出部12から受けた特徴ベクトルに含まれる光点の特徴量から光点の輝度を選択する。そして、更に特徴ベクトルの絞り込みを行う場合に、認識制御部132は、算出部12から受けた特徴ベクトルに光点の特徴量として含まれる光点の輪郭の明瞭度や光点の形状を示す要素を順次に選択し、選択した要素を検索部131に渡す。   For example, when the information indicating a plurality of types of objects is returned by the search unit 131, the recognition control unit 132 first uses the light spot included in the feature vector received from the calculation unit 12 as an element used to narrow down the feature vector. The brightness of the light spot is selected from the feature amount. When the feature vectors are further narrowed down, the recognition control unit 132 is an element indicating the clarity of the outline of the light spot and the shape of the light spot included in the feature vector received from the calculation unit 12 as the feature amount of the light spot. Are sequentially selected, and the selected elements are passed to the search unit 131.

また、認識制御部132は、検索部131から単一の物体を示す情報が返された場合に、検索部131から受けた情報で示される物体の種類を、候補領域に含まれる物体を示す情報として出力する。   In addition, when the information indicating the single object is returned from the search unit 131, the recognition control unit 132 sets the type of the object indicated by the information received from the search unit 131 to the information indicating the object included in the candidate area. Output as.

なお、認識部13aに含まれる選択部131及び認識制御部132の動作は、図12を用いて後述される。   The operations of the selection unit 131 and the recognition control unit 132 included in the recognition unit 13a will be described later with reference to FIG.

ここで、図9に示す画像IMGを受けた場合を例として、図8に示した抽出部11aの動作を説明する。   Here, the operation of the extraction unit 11a illustrated in FIG. 8 will be described using the case where the image IMG illustrated in FIG. 9 is received as an example.

図9は、図8に示したカメラCAMで撮影された画像IMGの例を示す。図9に示した画像IMGは、図1に示した投影装置PRによって投影されたパターンPTに含まれる複数の光点を含む。なお、図9に示した円形SP0,SP1,SP2及び楕円形SP3のそれぞれは、画像IMGに含まれる光点の例である。また、図9の例では、画像IMGに含まれる各光点は、輝度が高いほど濃度の高い網掛けで示されている。また、パターンPTは、図2に示した9行×12列の行列状に光点を配置した例に限られず、n行×m列(n、mは正の整数)に配置された光点を含んでもよく、n及びmのそれぞれは値9,12よりも大きくてもよい。   FIG. 9 shows an example of an image IMG taken by the camera CAM shown in FIG. The image IMG illustrated in FIG. 9 includes a plurality of light spots included in the pattern PT projected by the projection apparatus PR illustrated in FIG. Note that each of the circular SP0, SP1, SP2, and the elliptical SP3 illustrated in FIG. 9 is an example of a light spot included in the image IMG. In the example of FIG. 9, each light spot included in the image IMG is indicated by shading with higher density as the luminance is higher. The pattern PT is not limited to the example in which the light spots are arranged in a matrix of 9 rows × 12 columns shown in FIG. 2, but the light spots arranged in n rows × m columns (n and m are positive integers). Each of n and m may be greater than the values 9,12.

また、図9に破線で囲んで示した領域C1は、図8に示した特定部114により、光点SP1に類似した特徴を持つ光点が画像IMGにおいて分布する範囲として特定された領域を示す。同様に、図9に破線で囲んで示した領域C2−1,C2−2のそれぞれは、図8に示した特定部114により、光点SP2に類似した特徴を持つ光点が画像IMGにおいて分布する範囲として特定された領域を示す。また、図9に破線で囲んで示した領域C3は、図8に示した特定部114により、光点SP3に類似した特徴を持つ光点が画像IMGにおいて分布する範囲として特定された領域を示す。なお、領域C1,C2−1,C2−2及び領域C3のそれぞれを示す閉曲線は、特定部114により特定された領域の画像IMGにおける位置を示すためのものであり、画像IMGには含まれない。   In addition, a region C1 surrounded by a broken line in FIG. 9 indicates a region specified by the specifying unit 114 shown in FIG. 8 as a range in which light spots having characteristics similar to the light spot SP1 are distributed in the image IMG. . Similarly, in each of the areas C2-1 and C2-2 surrounded by a broken line in FIG. 9, light points having characteristics similar to the light spot SP2 are distributed in the image IMG by the specifying unit 114 shown in FIG. An area specified as a range to be displayed is shown. A region C3 surrounded by a broken line in FIG. 9 indicates a region specified by the specifying unit 114 shown in FIG. 8 as a range in which light spots having characteristics similar to the light spot SP3 are distributed in the image IMG. . The closed curves indicating the regions C1, C2-1, C2-2, and the region C3 are for indicating the positions in the image IMG of the region specified by the specifying unit 114, and are not included in the image IMG. .

図8に示した評価部111は、図9に示した画像IMGに含まれる各光点の特徴を示す複数の特徴量として、例えば、光点の中心の輝度と、光点の輪郭の明瞭度と、光点の形状を示す楕円の離心率とを求め、求めた特徴量を分類部112に渡す。   The evaluation unit 111 illustrated in FIG. 8 includes, for example, the luminance of the center of the light spot and the clarity of the outline of the light spot as a plurality of feature amounts indicating the characteristics of each light spot included in the image IMG illustrated in FIG. And the eccentricity of the ellipse indicating the shape of the light spot, and the obtained feature amount is passed to the classification unit 112.

そして、図8に示した分類部112は、評価部111から受けた情報に基づいて、複数の特徴量から選択した特徴量を示す値毎に光点を集計することで、図10に示すように、選択した特徴量についての度数分布を求める。   Then, the classification unit 112 illustrated in FIG. 8 aggregates the light spots for each value indicating the feature amount selected from the plurality of feature amounts based on the information received from the evaluation unit 111, as illustrated in FIG. In addition, a frequency distribution for the selected feature amount is obtained.

図10は、図9に示した画像IMGに含まれる光点の特徴量の度数分布の例を示す。図10(A)は、図9に示した画像IMGに含まれる複数の光点を、横軸Bで示される輝度毎に集計することで得られる度数分布を模式的に示す。同様に、図10(B)は、図9に示した画像IMGに含まれる複数の光点を、横軸CLで示される明瞭度毎に集計することで得られる度数分布を模式的に示す。また、図10(C)は、図9に示した画像IMGに含まれる複数の光点を、横軸ecで示される離心率毎に集計することで得られる度数分布を模式的に示す。なお、図10(A),(B),(C)において、縦軸nは度数を示す。   FIG. 10 shows an example of the frequency distribution of the feature amount of the light spot included in the image IMG shown in FIG. FIG. 10A schematically shows a frequency distribution obtained by aggregating a plurality of light spots included in the image IMG shown in FIG. 9 for each luminance indicated by the horizontal axis B. FIG. Similarly, FIG. 10B schematically shows a frequency distribution obtained by aggregating a plurality of light spots included in the image IMG shown in FIG. 9 for each clarity shown by the horizontal axis CL. FIG. 10C schematically shows a frequency distribution obtained by counting a plurality of light spots included in the image IMG shown in FIG. 9 for each eccentricity indicated by the horizontal axis ec. In FIGS. 10A, 10B, and 10C, the vertical axis n indicates the frequency.

図10(A)に曲線で示した光点の輝度についての度数分布は、図9に示した光点SP0の輝度B0及び光点SP1の輝度B1において、それぞれ極大PB0,PB1を示す。なお、図10(A)の例は、図9において閉曲線C1で囲まれた領域に含まれる各光点が、光点SP1の輝度B1を含む範囲Rb1に含まれる輝度を持ち、閉曲線C1の外側にある光点が、光点SP0の輝度B0を含む範囲Rb0に含まれる輝度を持つ場合を示す。   The frequency distribution with respect to the luminance of the light spot shown by a curve in FIG. 10A shows local maximums PB0 and PB1 at the luminance B0 of the light spot SP0 and the luminance B1 of the light spot SP1 shown in FIG. In the example of FIG. 10A, each light spot included in the region surrounded by the closed curve C1 in FIG. 9 has a brightness included in the range Rb1 including the brightness B1 of the light spot SP1, and the outside of the closed curve C1. The case where the light spot in FIG. 2 has the brightness included in the range Rb0 including the brightness B0 of the light spot SP0 is shown.

また、図10(B)に曲線で示した光点の輪郭の明瞭度についての度数分布は、図9に示した光点SP0の輪郭の明瞭度CL0及び光点SP2の輪郭の明瞭度CL2において、それぞれ極大PC0,PC2を示す。なお、図10(B)の例は、図9において閉曲線C2−1、C2−2で囲まれた領域に含まれる各光点の明瞭度は光点SP2の明瞭度CL2を含む範囲Rc2に含まれる場合を示す。同様に、図10(B)の例は、図9において閉曲線C2−1、C2−2の外側にある光点の明瞭度は、光点SP0の明瞭度CL0を含む範囲Rc0に含まれる場合を示す。   Further, the frequency distribution of the clarity of the contour of the light spot shown by the curve in FIG. 10B is the clarity of the contour CL0 of the light spot SP0 and the clarity of the contour CL2 of the light spot SP2 shown in FIG. , Show maximum PC0 and PC2, respectively. In the example of FIG. 10B, the clarity of each light spot included in the region surrounded by the closed curves C2-1 and C2-2 in FIG. 9 is included in the range Rc2 including the clarity CL2 of the light spot SP2. Shows the case. Similarly, in the example of FIG. 10B, the clarity of the light spot outside the closed curves C2-1 and C2-2 in FIG. 9 is included in the range Rc0 including the clarity CL0 of the light spot SP0. Show.

そして、図10(C)に曲線で示した光点の形状である楕円の離心率についての度数分布は、図9に示した光点SP0を示す円形の離心率である値0及び光点SP3を示す楕円の離心率e3において、それぞれ極大PE0,PE3を示す。なお、図10(C)の例は、図9において閉曲線C2−1、C2−2で囲まれた領域に含まれる各光点の離心率が、光点SP2の離心率e3を含む範囲Re3に含まれる場合を示す。同様に、図10(C)の例は、図9に示した閉曲線C2−1、C2−2の外側の光点の離心率が、光点SP0の離心率である値0を含む範囲Re0に含まれる場合を示す。   The frequency distribution of the eccentricity of the ellipse, which is the shape of the light spot shown by the curve in FIG. 10C, is the value 0 and the light spot SP3 which are the circular eccentricity indicating the light spot SP0 shown in FIG. In the ellipse eccentricity e3 indicating the maximum PE0 and PE3, respectively. In the example of FIG. 10C, the eccentricity of each light spot included in the region surrounded by the closed curves C2-1 and C2-2 in FIG. 9 is in the range Re3 including the eccentricity e3 of the light spot SP2. Indicates the case where it is included. Similarly, in the example of FIG. 10C, the eccentricity of the light spot outside the closed curves C2-1 and C2-2 shown in FIG. 9 is in the range Re0 including the value 0 that is the eccentricity of the light spot SP0. Indicates the case where it is included.

図11は、図8に示した抽出部11aの動作を示す。図11に示したステップS310からステップS318の処理は、図7に示した物体認識プログラムに含まれるステップS302の処理の例である。例えば、図11に示す処理は、図8に示した物体認識装置10aに搭載されたプロセッサが物体認識プログラムを実行することで実現される。なお、図11に示す処理は、物体認識装置10aに搭載されるハードウェアによって実行されてもよい。   FIG. 11 shows the operation of the extraction unit 11a shown in FIG. The process from step S310 to step S318 shown in FIG. 11 is an example of the process of step S302 included in the object recognition program shown in FIG. For example, the processing shown in FIG. 11 is realized by a processor installed in the object recognition apparatus 10a shown in FIG. 8 executing an object recognition program. Note that the processing shown in FIG. 11 may be executed by hardware mounted on the object recognition apparatus 10a.

ステップS310において、図8に示した評価部111は、画像IMGに含まれる各光点について、例えば、中心の輝度、輪郭の明瞭度、及び光点の形状である楕円の離心率を含む複数の特徴量を求める。   In step S310, for each light spot included in the image IMG, the evaluation unit 111 illustrated in FIG. 8 includes, for example, a plurality of points including the center luminance, the clarity of the outline, and the eccentricity of an ellipse that is the shape of the light spot. Find the features.

ステップS311において、図8に示した分類部112は、ステップS310の処理で求められた特徴量の一つを選択し、選択した特徴量の値毎に光点を集計することで、図10(A)、(B),(C)に示すような度数分布を求める。分類部112は、ステップS311の処理において、例えば、まず、特徴量の一つとして光点の輝度を選択し、図10(A)に示した度数分布を求め、その後、抽出制御部113からの指示に従って、他の特徴量を順次に選択する。   In step S311, the classification unit 112 illustrated in FIG. 8 selects one of the feature quantities obtained in the process of step S310, and totals the light spots for each selected feature quantity value. A frequency distribution as shown in A), (B), and (C) is obtained. In the process of step S311, for example, the classification unit 112 first selects the luminance of the light spot as one of the feature amounts, obtains the frequency distribution shown in FIG. 10A, and then receives the frequency distribution from the extraction control unit 113. In accordance with the instructions, other feature amounts are sequentially selected.

ステップS312において、図8に示した抽出制御部113は、ステップS311の処理で求められた度数分布により複数の極大が示されるか否かを判定する。   In step S312, the extraction control unit 113 illustrated in FIG. 8 determines whether or not a plurality of local maxima are indicated by the frequency distribution obtained in the process of step S311.

図10(A)に示したように、複数の極大を持つ度数分布が得られた場合に(ステップS312の肯定判定(YES))、抽出制御部113は、ステップS311の処理で選択された特徴量に基づいて背景と区別される物体が画像IMGに含まれていると判断する。ステップS312の肯定判定(YES)の場合に、処理は、ステップS313に移行する。一方、ステップS312の否定判定(NO)の場合に、処理は、ステップS317に移行する。   As shown in FIG. 10A, when a frequency distribution having a plurality of maximums is obtained (affirmative determination in step S312 (YES)), the extraction control unit 113 selects the feature selected in step S311. It is determined that the image IMG includes an object that is distinguished from the background based on the amount. If the determination is affirmative (YES) in step S312, the process proceeds to step S313. On the other hand, in the case of negative determination (NO) in step S312, the process proceeds to step S317.

ステップS313において、分類部112は、画像IMGに含まれる光点を、ステップS311の処理で求めた度数分布の極大のそれぞれに対応するグループに分類する。例えば、分類部112は、図10(A)に示した輝度についての度数分布に基づいて、画像IMGに含まれる光点を、輝度B0を含む範囲Rb0に含まれる輝度を持つ光点のグループと、輝度B1を含む範囲Rb1に含まれる輝度を持つ光点のグループとに分類する。   In step S313, the classification unit 112 classifies the light spots included in the image IMG into groups corresponding to the maximums of the frequency distribution obtained in the process of step S311. For example, based on the frequency distribution about the luminance shown in FIG. 10A, the classification unit 112 converts the light spot included in the image IMG into a group of light spots having the luminance included in the range Rb0 including the luminance B0. And a group of light spots having the luminance included in the range Rb1 including the luminance B1.

ステップS314において、図8に示した特定部114は、ステップS313の処理で生成されたグループの一つを順次に選択し、選択したグループに含まれる光点が画像IMGにおいて分布する範囲を特定する。特定部114は、例えば、図10(A)に示した輝度の範囲Rb1に対応づけられたグループに含まれる光点が画像IMGにおいて分布する範囲として、図9に示した領域C1を特定する。また、特定部114は、図10(A)に示した輝度の範囲Rb0に対応づけられたグループに含まれる光点が画像IMGにおいて分布する範囲として、図9に示した領域C1の外側に相当する範囲を特定する。   In step S314, the specifying unit 114 illustrated in FIG. 8 sequentially selects one of the groups generated by the process in step S313, and specifies a range in which the light spots included in the selected group are distributed in the image IMG. . For example, the specifying unit 114 specifies the region C1 illustrated in FIG. 9 as a range in which the light spots included in the group associated with the luminance range Rb1 illustrated in FIG. 10A are distributed in the image IMG. Further, the specifying unit 114 corresponds to the outside of the region C1 illustrated in FIG. 9 as a range in which the light spots included in the group associated with the luminance range Rb0 illustrated in FIG. 10A are distributed in the image IMG. Specify the range.

ステップS315において、図8に示した検出部115は、ステップS314の処理で特定された範囲のうち、所定数(例えば5)以上の光点が連続して分布する範囲を候補領域として検出する。例えば、検出部115は、特定部114により特定された領域C1に含まれる光点の数10が予め設定された所定数5よりも多いことから、図9に示した領域C1を候補領域として検出する。ここで、図10(A)に示した輝度の範囲Rb0に対応づけられたグループに属する光点が分布する範囲として特定された領域は、画像IMGから領域C1を除いた範囲に相当し、特定された領域の外側の境界は画像IMGの境界に一致する。輝度の範囲Rb0に対応づけられたグループについて特定された領域のように、特定された領域の境界が画像IMGの境界に一致する場合に、検出部115は、特定された領域は背景に相当すると判断する。即ち、特定された領域の境界が画像IMGの境界に一致する場合に、検出部115は、特定された領域内の光点の数にかかわらず、物体を示す候補領域としては検出せず、背景以外の物体を示す領域として分類されていない未分類の領域とする。   In step S315, the detection unit 115 illustrated in FIG. 8 detects, as candidate regions, a range in which a predetermined number (for example, 5) or more of light spots are continuously distributed among the ranges specified in the process of step S314. For example, the detection unit 115 detects the region C1 shown in FIG. 9 as a candidate region because the number of light spots included in the region C1 specified by the specification unit 114 is larger than the predetermined number 5 set in advance. To do. Here, the region specified as the range in which the light spots belonging to the group associated with the luminance range Rb0 shown in FIG. 10A are distributed corresponds to the range obtained by removing the region C1 from the image IMG. The outer boundary of the marked area coincides with the boundary of the image IMG. When the boundary of the specified region matches the boundary of the image IMG, such as the region specified for the group associated with the luminance range Rb0, the detection unit 115 determines that the specified region corresponds to the background. to decide. That is, when the boundary of the identified area matches the boundary of the image IMG, the detection unit 115 does not detect the candidate area indicating the object regardless of the number of light spots in the identified area, and the background. An unclassified region that is not classified as a region indicating an object other than.

ステップS316において、抽出制御部113は、ステップS313の分類処理で生成された全てのグループについて、ステップS314及びステップS315の処理を実行したか否かを判定する。   In step S316, the extraction control unit 113 determines whether or not the processes in steps S314 and S315 have been executed for all groups generated in the classification process in step S313.

ステップS314及びステップS315の処理が完了していないグループがまだ残っている場合に(ステップS316の否定判定(NO))、処理はステップS314に戻る。そして、特定部114により、新たに選択されたグループに属する光点が画像IMGにおいて分布する範囲が特定される。その後、ステップS315において、新たに特定された範囲に含まれる光点の数に応じて、検出部115により、新たな候補領域が検出される。   If there is still a group for which the processes in steps S314 and S315 have not been completed (No determination in step S316 (NO)), the process returns to step S314. Then, the specifying unit 114 specifies a range in which the light spots belonging to the newly selected group are distributed in the image IMG. Thereafter, in step S315, a new candidate area is detected by the detection unit 115 in accordance with the number of light spots included in the newly specified range.

一方、ステップS313の分類処理で生成された全てのグループについての処理が完了した場合に(ステップS316の肯定判定(YES))、処理はステップS317に移行する。   On the other hand, when the process for all the groups generated in the classification process in step S313 is completed (Yes in step S316 (YES)), the process proceeds to step S317.

ステップS317において、抽出制御部113は、画像IMGの中に未分類の領域が残っているか否かを判定する。抽出制御部113は、例えば、ステップS315の処理で候補領域が検出される毎に、検出された候補領域に含まれる光点を画像IMGに含まれる光点から除いていく。そして、除かれずに残った光点の数が検出部115において候補領域の判定に用いる所定数以上であり、かつ、画像IMGにおいて連続して分布している場合に、抽出制御部113は、ステップS317の肯定判定(YES)とする。   In step S317, the extraction control unit 113 determines whether or not an unclassified region remains in the image IMG. For example, every time a candidate area is detected in the process of step S315, the extraction control unit 113 removes the light spot included in the detected candidate area from the light spot included in the image IMG. When the number of light spots remaining without being removed is equal to or larger than a predetermined number used for determination of candidate regions in the detection unit 115 and is continuously distributed in the image IMG, the extraction control unit 113 Let it be affirmative (YES) in step S317.

ステップS317の肯定判定(YES)の場合に、抽出制御部113は、ステップS318の処理に進む。一方、画像IMGの中に未分類の領域が残っていない場合に(ステップS317の否定判定(NO))、抽出制御部113は、候補領域を抽出する処理を終了する。   If the determination in step S317 is affirmative (YES), the extraction control unit 113 proceeds to the process of step S318. On the other hand, if no unclassified region remains in the image IMG (No determination in step S317 (NO)), the extraction control unit 113 ends the process of extracting the candidate region.

ステップS318において、抽出制御部113は、ステップS310の処理で各光点について求められた全ての特徴量に基づく分類が完了したか否かを判定する。   In step S318, the extraction control unit 113 determines whether or not the classification based on all the feature values obtained for each light spot in the process of step S310 is completed.

まだ分類に用いられていない特徴量がある場合に(ステップS318の否定判定(NO))、処理はステップS311に戻る。この場合に、抽出制御部113からの指示に応じて、分類部112により、新たな特徴量として例えば明瞭度が選択され、図10(B)に示したような明瞭度についての度数分布が求められる。   If there is a feature amount that has not been used for classification yet (No determination in step S318), the process returns to step S311. In this case, for example, intelligibility is selected as a new feature amount by the classification unit 112 in accordance with an instruction from the extraction control unit 113, and a frequency distribution for intelligibility as shown in FIG. It is done.

そして、明瞭度についての度数分布に基づいてステップS313の処理を行うことで、分類部112は、画像IMGに含まれる光点を、図10(B)に示した極大PC0に対応するグループと、極大PC2に対応するグループとに分類する。例えば、分類部112は、図10(B)において、明瞭度CL0を含む範囲Rc0に含まれる明瞭度を持つ光点を極大PC0に対応するグループに分類し、明瞭度CL2を含む範囲Rc2に含まれる明瞭度を持つ光点を極大PC2に対応するグループに分類する。   Then, by performing the process of step S313 based on the frequency distribution regarding the intelligibility, the classification unit 112 sets the light spots included in the image IMG to the group corresponding to the maximum PC0 illustrated in FIG. A group corresponding to the maximum PC 2 is classified. For example, in FIG. 10B, the classification unit 112 classifies the light spots having the clarity included in the range Rc0 including the clarity CL0 into a group corresponding to the maximum PC0, and is included in the range Rc2 including the clarity CL2. Are classified into groups corresponding to the maximum PC2.

その後、ステップS314において、特定部114は、例えば、図10(B)に示した極大PC2に対応付けられたグループに属する光点が画像IMGにおいて分布する範囲として、図9に示した領域C2−1,C2−2を特定する。図9に示した領域C2−1は、所定数(例えば5)以上の光点を内部に含んでいることから、ステップS315の処理で、検出部115により光点の特徴が互いに類似する候補領域の一つとして検出される。一方、図9に示した領域C2−2に含まれる光点の数が所定数未満であることから、ステップS315の処理で、検出部115は、領域C2−2は物体を示す候補領域ではなく、ノイズを示すと判断し、候補領域として検出しない。   Thereafter, in step S314, the specifying unit 114 sets, for example, the region C2- shown in FIG. 9 as a range in which the light spots belonging to the group associated with the maximum PC2 shown in FIG. 10B are distributed in the image IMG. 1, C2-2 is specified. The area C2-1 shown in FIG. 9 includes a predetermined number (for example, 5) or more of light spots therein, so that candidate areas whose light spot characteristics are similar to each other by the detection unit 115 in the process of step S315. Detected as one of On the other hand, since the number of light spots included in the region C2-2 illustrated in FIG. 9 is less than the predetermined number, in the process of step S315, the detection unit 115 determines that the region C2-2 is not a candidate region indicating an object. Therefore, it is determined that noise is present, and is not detected as a candidate area.

図9に示した画像IMGに含まれる光点の数から領域C1及び領域C2−1のそれぞれに含まれる光点の数を差し引いて得られた値は、候補領域の判定に用いる所定数(例えば5)以上であることから、抽出制御部113は、未分類の領域が残っていると判断する。そして、領域C1及び領域C2−1が候補領域として検出された段階で、評価部111により各光点について求められた特徴量のうち、まだ、光点の形状の特徴を示す離心率は分類に用いられていない。   A value obtained by subtracting the number of light spots included in each of the areas C1 and C2-1 from the number of light spots included in the image IMG illustrated in FIG. 5) As described above, the extraction control unit 113 determines that an unclassified region remains. At the stage where the region C1 and the region C2-1 are detected as candidate regions, the eccentricity indicating the feature of the shape of the light spot among the feature amounts obtained for each light spot by the evaluation unit 111 is still classified. Not used.

この場合に、抽出制御部113は、ステップS318において、まだ分類に用いられていない特徴量があると判断し、再び、ステップS311に戻る。ステップS311において、分類部112により、新たな特徴量として離心率が選択され、図10(C)に示したような離心率についての度数分布が求められる。   In this case, the extraction control unit 113 determines in step S318 that there is a feature amount that has not yet been used for classification, and returns to step S311 again. In step S311, the classifying unit 112 selects an eccentricity as a new feature quantity, and obtains a frequency distribution for the eccentricity as shown in FIG.

そして、離心率についての度数分布に基づいてステップS313の処理を行うことで、分類部112は、画像IMGに含まれる光点を、図10(C)に示した極大PE0に対応するグループと、極大PE3に対応するグループとに分類する。例えば、分類部112は、図10(C)において、離心率e0を含む範囲Re0に含まれる離心率を持つ光点を極大PE0に対応するグループに分類し、離心率e3を含む範囲Rc2に含まれる明瞭度を持つ光点を極大PC2に対応するグループに分類する。   Then, by performing the process of step S313 based on the frequency distribution of the eccentricity, the classification unit 112 sets the light spot included in the image IMG as a group corresponding to the maximum PE0 illustrated in FIG. The group is classified into a group corresponding to the maximum PE3. For example, in FIG. 10C, the classification unit 112 classifies the light spots having the eccentricity included in the range Re0 including the eccentricity e0 into a group corresponding to the maximum PE0 and includes the light spot in the range Rc2 including the eccentricity e3. Are classified into groups corresponding to the maximum PC2.

その後、ステップS314において、特定部114は、例えば、図10(C)に示した極大PE3に対応付けられたグループに属する光点が画像IMGにおいて分布する範囲として、図9に示した領域C3を特定する。図9に示した領域C3は、所定数(例えば5)以上の光点を内部に含んでいることから、ステップS315の処理で、検出部115により光点の特徴が互いに類似する候補領域の一つとして検出される。   Thereafter, in step S314, the specifying unit 114 sets, for example, the region C3 illustrated in FIG. 9 as a range in which the light spots belonging to the group associated with the maximum PE3 illustrated in FIG. 10C are distributed in the image IMG. Identify. Since the region C3 shown in FIG. 9 includes a predetermined number (for example, 5) or more of light spots therein, one of candidate regions whose light spot characteristics are similar to each other by the detection unit 115 in the process of step S315. Detected as one.

つまり、図8に示した抽出部11aは、光点の特徴として求められた輝度、明瞭度及び離心率の各々に着目し、図11に示したステップS311からステップS318の処理を繰り返す。これにより、図8に示した抽出部11aは、例えば、光点の特徴として求められた各特徴量の全てを一括して用いるクラスタリングなどを行う場合に比べて簡易な処理により、各特徴量で背景から区別される物体を示す候補領域を漏れなく抽出できる。   That is, the extraction unit 11a illustrated in FIG. 8 repeats the processing from step S311 to step S318 illustrated in FIG. 11 while paying attention to each of the luminance, clarity, and eccentricity obtained as the characteristics of the light spot. Accordingly, the extraction unit 11a illustrated in FIG. 8 performs each feature amount by a simple process compared to, for example, clustering that uses all the feature amounts obtained as light spot features collectively. Candidate regions indicating objects distinguished from the background can be extracted without omission.

そして、評価部111によって求められた特徴量の全てに順次に着目した分類処理が終了した場合に、抽出制御部113は、未分類の領域が残っているか否かにかかわらず、ステップS318の肯定判定(YES)ルートに従って候補領域の抽出処理を終了する。   Then, when the classification process focusing on all of the feature amounts obtained by the evaluation unit 111 is completed, the extraction control unit 113 determines whether or not the unclassified region remains, whether or not the determination is affirmative in step S318. The candidate area extraction process is terminated according to the determination (YES) route.

図8から図11で説明したようにして抽出された各候補領域に含まれる光点の情報は、図8に示した算出部12に渡され、算出部12による候補領域毎の特徴ベクトルを求める処理に用いられる。   The light spot information included in each candidate area extracted as described with reference to FIGS. 8 to 11 is passed to the calculation unit 12 illustrated in FIG. 8, and the calculation unit 12 obtains a feature vector for each candidate area. Used for processing.

図12は、図8に示した認識部13aの動作を示す。図12に示したステップS320からステップS327の処理は、図7に示した物体認識プログラムに含まれるステップS304の処理の例である。図12に示す処理は、例えば、図8に示した算出部12により各候補領域の特徴ベクトルが求められる毎に、図8に示した物体認識装置10aに搭載されたプロセッサがプログラムを実行することで実現される。なお、図12に示す処理は、物体認識装置10aに搭載されるハードウェアによって実行されてもよい。   FIG. 12 shows the operation of the recognition unit 13a shown in FIG. The process from step S320 to step S327 shown in FIG. 12 is an example of the process of step S304 included in the object recognition program shown in FIG. In the processing shown in FIG. 12, for example, the processor mounted in the object recognition apparatus 10a shown in FIG. 8 executes a program every time the calculation unit 12 shown in FIG. It is realized with. Note that the processing shown in FIG. 12 may be executed by hardware mounted on the object recognition apparatus 10a.

ステップS320において、図8に示した認識部13aの認識制御部132は、算出部12から受けた特徴ベクトルから候補領域内の各光点までの距離の度数分布を示す要素を選択し、選択した要素を検索部131に渡す。認識制御部132は、例えば、図5において、図2に示した候補領域C1、C2のそれぞれに対応して示した特徴ベクトルに含まれる要素のうち、階級Y1〜Y4を含む複数の階級に含まれる光点の数を示す要素を含む部分ベクトルを検索部131に渡す。   In step S320, the recognition control unit 132 of the recognition unit 13a illustrated in FIG. 8 selects the element indicating the frequency distribution of the distance from the feature vector received from the calculation unit 12 to each light spot in the candidate area, and selects the selected element. The element is passed to the search unit 131. For example, in FIG. 5, the recognition control unit 132 is included in a plurality of classes including classes Y1 to Y4 among elements included in the feature vector corresponding to each of the candidate areas C1 and C2 illustrated in FIG. A partial vector including an element indicating the number of light spots to be transmitted is passed to the search unit 131.

ステップS321において、検索部131は、特徴データベースDBに登録された特徴ベクトルの中から、ステップS320の処理で選択した候補領域内の各光点までの距離の度数分布を示す要素に類似する要素を含む特徴ベクトルを検索する。例えば、検索部131は、ステップS320の処理で受けた各光点までの距離の度数分布を示す要素を含む部分ベクトルと、特徴データベースDBに登録された各特徴ベクトルにおいて距離の度数分布を示す要素を含む部分ベクトルとの距離をそれぞれ求める。そして、検索部131は、特徴データベースDBに登録された特徴ベクトルの中で、予め設定された閾値以下の距離が求められた特徴ベクトルを、候補領域に対応する特徴ベクトルに類似する要素を含む特徴ベクトルとして検索する。また、検索部131は、特徴データベースDBから検索した特徴ベクトルのそれぞれに対応付けられた物体の種類を示す情報を、候補領域に含まれる物体の認識結果の候補として認識制御部132に渡す。   In step S321, the search unit 131 searches for an element similar to the element indicating the frequency distribution of the distance to each light spot in the candidate region selected in the process of step S320 from the feature vectors registered in the feature database DB. Search for feature vectors to include. For example, the search unit 131 includes a partial vector including an element indicating the frequency distribution of the distance to each light spot received in the process of step S320, and an element indicating the frequency distribution of the distance in each feature vector registered in the feature database DB. The distance from the partial vector including is calculated. Then, the search unit 131 includes, in the feature vectors registered in the feature database DB, a feature vector for which a distance equal to or smaller than a preset threshold is obtained, including a feature similar to the feature vector corresponding to the candidate region. Search as a vector. In addition, the search unit 131 passes information indicating the type of object associated with each of the feature vectors searched from the feature database DB to the recognition control unit 132 as a recognition result candidate for the object included in the candidate area.

例えば、検索部131は、図5に候補領域C1に対応して示した特徴ベクトルに含まれる距離の度数分布を示す部分ベクトルと、図6に示した特徴データベースDBに登録された各特徴ベクトルに含まれる距離の度数分布を示す部分ベクトルとの距離を求める。この場合に検索部131は、図5に候補領域C1に対応して示した特徴ベクトルに含まれる距離の度数分布を示す部分ベクトルとの距離が所定の閾値以下となる特徴ベクトルとして、図6にボールA及びボールBに対応して示した特徴ベクトルを検索する。   For example, the search unit 131 uses a partial vector indicating the frequency distribution of distances included in the feature vector shown in correspondence with the candidate region C1 in FIG. 5 and each feature vector registered in the feature database DB shown in FIG. The distance from the partial vector indicating the frequency distribution of the included distance is obtained. In this case, the search unit 131 sets the feature vector whose distance from the partial vector indicating the frequency distribution of the distance included in the feature vector corresponding to the candidate region C1 in FIG. The feature vectors shown corresponding to the balls A and B are searched.

ステップS322において、認識制御部132は、検索部131により少なくとも一つの特徴ベクトルが特徴データベースDBから検索されたか否かを判定する。   In step S322, the recognition control unit 132 determines whether or not the search unit 131 has searched at least one feature vector from the feature database DB.

検索部131により、一つ以上の特徴ベクトルが検索された場合に(ステップS322の肯定判定(YES))、処理はステップS323に移行する。   When one or more feature vectors are searched by the search unit 131 (Yes in step S322 (YES)), the process proceeds to step S323.

ステップS323において、認識制御部132は、検索部131による検索により、候補領域に含まれる物体の種類が一つに特定されたか否かを判定する。   In step S323, the recognition control unit 132 determines whether one type of object included in the candidate area is specified by the search by the search unit 131.

候補領域に対応する特徴ベクトルに類似する要素を含む複数の特徴ベクトルが検索部131によって検索された場合に、認識制御部132は、候補領域に含まれる物体の種類はまだ一つに特定されないと判断する。この場合に、認識制御部132は、ステップS323の否定判定(NO)ルートに従ってステップS324及びステップS325の処理を実行する。例えば、ステップS321の処理で、検索部131に検索により、図6にボールA及びボールBのそれぞれに対応して示した特徴ベクトルの双方が検索された場合に、処理はステップS324に移行する。   When the search unit 131 searches for a plurality of feature vectors including elements similar to the feature vector corresponding to the candidate region, the recognition control unit 132 has not yet identified one type of object included in the candidate region. to decide. In this case, the recognition control unit 132 executes the processes of steps S324 and S325 according to the negative determination (NO) route of step S323. For example, in the process of step S321, when both of the feature vectors shown in FIG. 6 corresponding to each of the balls A and B are searched by the search by the search unit 131, the process proceeds to step S324.

一方、候補領域に対応する特徴ベクトルに類似する要素を含む単一の特徴ベクトルが検索部131によって検索された場合に、認識制御部132は、候補領域に含まれる物体の種類は一つに特定されたと判断する。この場合に、認識制御部132は、ステップS323の肯定判定(YES)ルートに従ってステップS326の処理を実行する。   On the other hand, when the search unit 131 searches for a single feature vector that includes an element similar to the feature vector corresponding to the candidate region, the recognition control unit 132 identifies one type of object included in the candidate region. Judge that it was done. In this case, the recognition control unit 132 executes the process of step S326 according to the affirmative determination (YES) route of step S323.

ステップS324において、認識制御部132は、算出部12から受けた特徴ベクトルに含まれる光点の特徴を示す要素の中の一つを順次に選択し、検索部131に渡す。認識制御部132は、例えば、算出部12から受けた特徴ベクトルに光点の特徴として含まれる光点の輝度、光点の輪郭の明瞭度及び光点の形状の特徴のそれぞれを示す要素を順に選択し、選択した要素を検索部131に渡す。   In step S <b> 324, the recognition control unit 132 sequentially selects one of the elements indicating the feature of the light spot included in the feature vector received from the calculation unit 12, and passes it to the search unit 131. For example, the recognition control unit 132 sequentially selects elements indicating the brightness of the light spot, the clarity of the outline of the light spot, and the feature of the shape of the light spot included in the feature vector received from the calculation unit 12. The selected element is passed to the search unit 131.

ステップS325において、検索部131は、ステップS324の処理で受けた要素を用いて、ステップS321の処理で特徴データベースDBから検索した特徴ベクトルを絞り込む。例えば、検索部131は、ステップS324の処理で渡された要素(例えば、輝度)と、ステップS321の処理で図6に示した特徴データベースDBから検索されたボールA及びボールBのそれぞれに対応する特徴ベクトルに含まれる対応する要素とを比較する。そして、検索部131は、ステップS324の処理で渡された要素(例えば、輝度)と、ステップS321の処理で検索した各特徴ベクトルの対応する要素との差が所定の閾値以内であるか否かに基づいて、特徴ベクトルの絞り込みを行う。なお、検索部131において、特徴ベクトルの絞り込みに用いられる閾値は、例えば、要素の種類ごとに、異なる種類の物体に投影された光点が示す対応する特徴量の差よりも小さい値に予め設定されることが望ましい。   In step S325, the search unit 131 uses the elements received in step S324 to narrow down the feature vectors searched from the feature database DB in step S321. For example, the search unit 131 corresponds to each of the element (for example, luminance) passed in the process of step S324 and each of the balls A and B searched from the feature database DB shown in FIG. 6 in the process of step S321. The corresponding element included in the feature vector is compared. Then, the search unit 131 determines whether the difference between the element (for example, luminance) passed in the process of step S324 and the corresponding element of each feature vector searched in the process of step S321 is within a predetermined threshold. Based on the above, the feature vectors are narrowed down. Note that the threshold used for narrowing down feature vectors in the search unit 131 is set in advance to a value smaller than the difference between the corresponding feature amounts indicated by the light spots projected on different types of objects, for example, for each type of element. It is desirable that

ステップS325の処理の終了後に、処理は、ステップS323に戻る。そして、ステップS323において、認識制御部132は、ステップS325の絞り込み処理により、特徴ベクトルが一つに特定されたか否かを判定する。   After the process of step S325 ends, the process returns to step S323. In step S323, the recognition control unit 132 determines whether one feature vector is specified by the narrowing-down process in step S325.

例えば、図6にボールAに対応して示した輝度Baの方がボールBに対応する輝度Bbよりも、図5に候補領域C1に対応して示した輝度B1に近い値である場合を考える。この場合に、ステップS325の処理により、検索部131は、ボールA,Bのそれぞれに対応する特徴ベクトルを、候補領域C1の特徴ベクトルに含まれる輝度B1に近い輝度Baを含むボールAの特徴ベクトルに絞り込む。   For example, let us consider a case where the brightness Ba shown in FIG. 6 corresponding to the ball A is closer to the brightness B1 shown in FIG. 5 corresponding to the candidate area C1 than the brightness Bb corresponding to the ball B. . In this case, by the process of step S325, the search unit 131 uses the feature vector corresponding to each of the balls A and B as the feature vector of the ball A including the brightness Ba close to the brightness B1 included in the feature vector of the candidate area C1. Refine to.

ステップS325の処理により、特徴データベースDBに登録された特徴ベクトルの中で、算出部12から渡された特徴ベクトルに類似する単一の特徴ベクトルが特定された場合に(ステップS323の肯定判定(YES))、処理はステップS326に移行する。   When a single feature vector similar to the feature vector passed from the calculation unit 12 is identified among the feature vectors registered in the feature database DB by the processing in step S325 (Yes in step S323 (YES) )), The process proceeds to step S326.

ステップS326において、認識制御部132は、特徴データベースDBにおいて、ステップS321あるいはステップS325の処理で特定された特徴ベクトルに対応付けられた物体の種類を、候補領域に含まれる物体の認識結果として出力する。例えば、ステップS325の処理で、特徴データベースDBにボールAに対応して登録された特徴ベクトルが他よりも候補領域C1の特徴ベクトルに類似するとされた場合に、認識制御部132はボールAを候補領域C1に含まれる物体の認識結果として出力する。   In step S326, the recognition control unit 132 outputs, as the recognition result of the object included in the candidate area, the type of the object associated with the feature vector specified in the process of step S321 or step S325 in the feature database DB. . For example, if the feature vector registered in the feature database DB corresponding to the ball A is more similar to the feature vector of the candidate area C1 than the other in the process of step S325, the recognition control unit 132 selects the ball A as a candidate. It outputs as a recognition result of the object contained in the area | region C1.

一方、ステップS321の処理で、特徴データベースDBに登録された特徴ベクトルの中から、候補領域に対応する特徴ベクトルに類似する特徴ベクトルを検索できなかった場合に、処理はステップS327に移行する。   On the other hand, if the feature vector similar to the feature vector corresponding to the candidate area cannot be searched from the feature vectors registered in the feature database DB in the process of step S321, the process proceeds to step S327.

ステップS327において、認識制御部132は、候補領域に含まれる物体を認識できなかったことを示す情報を出力し、物体の種類を特定する処理を終了する。   In step S327, the recognition control unit 132 outputs information indicating that the object included in the candidate area cannot be recognized, and ends the process of specifying the type of the object.

図12で説明したように、図8に示した認識部13aは、まず、特徴データベースDBに登録された特徴ベクトルから、候補領域に対応して求められた特徴ベクトルに含まれる形状の特徴を示す要素に類似した要素を含む特徴ベクトルを検索する。そして、認識部13aは、形状の特徴に基づいて検索された特徴ベクトルを光点の特徴を示す要素に基づいて絞り込むことで、候補領域に対応する特徴ベクトルに類似する単一の特徴ベクトルを特定する。これにより、認識部13aは、例えば、候補領域に対応して求められた特徴ベクトルに形状の特徴を示す要素として含まれる距離の度数分布に類似する要素を含む特徴ベクトルが特徴データベースDBにおいて単一である場合に、光点の特徴の比較を省略できる。即ち、図8に示した認識部13aは、候補領域のそれぞれに対応する特徴ベクトルと特徴データベースDBに登録された各特徴ベクトルとの間の距離を、特徴ベクトルに含まれる全ての要素に基づいて計算する場合よりも、類似する特徴ベクトルを高速に特定できる。   As described with reference to FIG. 12, the recognition unit 13a shown in FIG. 8 first shows the feature of the shape included in the feature vector obtained corresponding to the candidate region from the feature vector registered in the feature database DB. Search for feature vectors containing elements similar to the element. Then, the recognition unit 13a specifies a single feature vector similar to the feature vector corresponding to the candidate region by narrowing down the feature vector searched based on the shape feature based on the element indicating the feature of the light spot. To do. Thereby, for example, the recognition unit 13a has a single feature vector in the feature database DB that includes elements similar to the frequency distribution of distances included as elements indicating shape features in the feature vectors obtained in correspondence with the candidate regions. In this case, the comparison of the characteristics of the light spot can be omitted. That is, the recognizing unit 13a illustrated in FIG. 8 determines the distance between the feature vector corresponding to each candidate region and each feature vector registered in the feature database DB based on all the elements included in the feature vector. Similar feature vectors can be identified at a higher speed than in the case of calculation.

以上に説明した本件開示の物体認識装置10,10aは、例えば、パーソナルコンピュータなどのコンピュータ装置を用いて実現することができる。   The object recognition devices 10 and 10a of the present disclosure described above can be realized by using a computer device such as a personal computer, for example.

図13は、図8に示した物体認識装置10aのハードウェア構成例を示す。なお、図13に示した構成要素のうち、図1または図8に示した構成要素と同等のものは同一の符号で示され、構成要素の説明は省略される場合がある。   FIG. 13 shows a hardware configuration example of the object recognition apparatus 10a shown in FIG. 13 that are equivalent to the components shown in FIG. 1 or FIG. 8 are denoted by the same reference numerals, and description of the components may be omitted.

図13に示したコンピュータ装置COMは、プロセッサ21と、メモリ22と、ストレージ装置23と、汎用インタフェース24と、表示装置25と、光学ドライブ装置26と、ネットワークインタフェース28とを含んでいる。図13に示したプロセッサ21と、メモリ22と、ストレージ装置23と、汎用インタフェース24と、表示装置25と、光学ドライブ装置26と、ネットワークインタフェース28とは、バスを介して互いに接続されている。また、汎用インタフェース24には、図1に示した投影装置PRと同等の機能を有する投影装置PR1と、図1に示した撮像部CAMと同等の機能を有するカメラCAM1とが接続されている。   The computer device COM shown in FIG. 13 includes a processor 21, a memory 22, a storage device 23, a general-purpose interface 24, a display device 25, an optical drive device 26, and a network interface 28. The processor 21, the memory 22, the storage device 23, the general-purpose interface 24, the display device 25, the optical drive device 26, and the network interface 28 shown in FIG. 13 are connected to each other via a bus. Further, the general-purpose interface 24 is connected to a projection device PR1 having a function equivalent to that of the projection device PR shown in FIG. 1 and a camera CAM1 having a function equivalent to the imaging unit CAM shown in FIG.

図13に示したプロセッサ21と、メモリ22と、ストレージ装置23と、汎用インタフェース24とは、物体認識装置10aに含まれる。   The processor 21, the memory 22, the storage device 23, and the general-purpose interface 24 illustrated in FIG. 13 are included in the object recognition device 10a.

図13に示した投影装置PR1は、例えば、人物Q1とベッドBDとを含む所定の領域に、図2及び図9で説明したパターンPTと同様の、複数の光点を含むパターンPT1を投影する。また、図13に示したカメラCAM1は、投影装置PR1によってパターンPT1が投影された領域を例えば所定の時間間隔で撮影し、撮影によって得られた複数枚の画像IMGのそれぞれを、汎用インタフェース24を介してプロセッサ21に渡す。   The projection apparatus PR1 shown in FIG. 13 projects a pattern PT1 including a plurality of light spots, for example, on the predetermined area including the person Q1 and the bed BD, similar to the pattern PT described in FIGS. . Further, the camera CAM1 shown in FIG. 13 captures, for example, a region where the pattern PT1 is projected by the projection device PR1 at a predetermined time interval, and each of a plurality of images IMG obtained by the capturing is displayed on the general-purpose interface 24. To the processor 21.

また、図13に示した光学ドライブ装置26は、光ディスクなどのリムーバブルディスク27を装着可能であり、装着したリムーバブルディスク27に記録された情報の読出および記録を行う。   The optical drive device 26 shown in FIG. 13 can be loaded with a removable disk 27 such as an optical disk, and reads and records information recorded on the mounted removable disk 27.

また、コンピュータ装置CAMは、ネットワークインタフェース28を介して、インターネットなどのネットワークNWに接続されており、ネットワークNWに接続されたサーバ装置SVとの間で情報の授受が可能である。   The computer device CAM is connected to a network NW such as the Internet via the network interface 28, and can exchange information with the server device SV connected to the network NW.

図13に示したメモリ22は、コンピュータ装置COMのオペレーティングシステムとともに、図14〜図16を用いて説明する物体認識処理をプロセッサ21が実行するためのアプリケーションプログラムを格納している。なお、物体認識処理を実行するためのアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスク27に記録して頒布することができる。そして、リムーバブルディスク27を光学ドライブ装置26に装着して読み込み処理を行うことにより、プロセッサ21は、読み込んだアプリケーションプログラムを、メモリ22およびストレージ装置23に格納させてもよい。また、物体認識処理を実行するためのアプリケーションプログラムは、ネットワークインタフェース28およびネットワークNWを介して、例えば、サーバ装置SVからダウンロードされてもよい。そして、ダウンロードされたアプリケーションプログラムは、メモリ22およびストレージ装置23に読み込まれることで、プロセッサ21による実行が可能なアプリケーションプログラムとなる。   The memory 22 shown in FIG. 13 stores an application program for the processor 21 to execute the object recognition processing described with reference to FIGS. 14 to 16 together with the operating system of the computer apparatus COM. Note that an application program for executing the object recognition process can be recorded and distributed on a removable disk 27 such as an optical disk, for example. The processor 21 may store the read application program in the memory 22 and the storage device 23 by attaching the removable disk 27 to the optical drive device 26 and performing read processing. Further, the application program for executing the object recognition process may be downloaded from the server device SV, for example, via the network interface 28 and the network NW. The downloaded application program is read into the memory 22 and the storage device 23 to become an application program that can be executed by the processor 21.

プロセッサ21は、メモリ22等に格納された物体認識処理のためのアプリケーションプログラムを実行することにより、図8に示した抽出部11a、算出部12及び認識部13aの機能を果たす。   The processor 21 performs the functions of the extraction unit 11a, the calculation unit 12, and the recognition unit 13a illustrated in FIG. 8 by executing an application program for object recognition processing stored in the memory 22 or the like.

また、物体認識処理のためのアプリケーションプログラムは、例えば、図6に示した特徴データベースDBと同様の、複数種類の物体のそれぞれについて予め求められた特徴ベクトルを示す情報を含んでいてもよい。この場合に、複数種類の物体のそれぞれについて予め求められた特徴ベクトルは、例えば、ストレージ装置23の記憶領域の一部に格納されている。即ち、図8に示した特徴データベースDBと同等の構成要素は、ストレージ装置23の記憶領域の一部を用いて実現される。なお、ストレージ装置23に設けられる特徴データベースDBは、投影装置PR1によりパターンPT1が投影される領域に含まれるベッドBD及び人物Q1を含む様々な物体のそれぞれの特徴を示す特徴ベクトルを含むことが望ましい。   The application program for object recognition processing may include information indicating feature vectors obtained in advance for each of a plurality of types of objects, for example, similar to the feature database DB shown in FIG. In this case, the feature vector obtained in advance for each of the plurality of types of objects is stored in a part of the storage area of the storage device 23, for example. That is, the same constituent elements as the feature database DB shown in FIG. 8 are realized by using a part of the storage area of the storage device 23. It should be noted that the feature database DB provided in the storage device 23 preferably includes feature vectors indicating the features of various objects including the bed BD and the person Q1 included in the region where the pattern PT1 is projected by the projection device PR1. .

以上に説明したように、図8に示した物体認識装置10aは、例えば、図13に示したコンピュータ装置COMに含まれるプロセッサ21と、メモリ22と、ストレージ装置23と、汎用インタフェース24との協働によって実現することができる。   As described above, the object recognition device 10a shown in FIG. 8 is, for example, a combination of the processor 21, the memory 22, the storage device 23, and the general-purpose interface 24 included in the computer device COM shown in FIG. It can be realized by working.

図14は、図13に示した物体認識装置10aの動作を示す。図14に示したステップS301〜ステップS304とステップS331〜ステップS332の各処理は、物体認識処理のためのアプリケーションプログラムに含まれる処理の一例である。また、ステップS301〜ステップS304とステップS331〜ステップS332の各処理は、図13に示したプロセッサ21によって実行される。なお、図14に示したステップS301〜ステップS304の処理は、図7に示したステップS301〜ステップS304の処理と同等の処理である。また、プロセッサ21は、図13に示したカメラCAM1により新たな画像が撮影される毎に、図14に示した各処理を実行する。   FIG. 14 shows the operation of the object recognition apparatus 10a shown in FIG. Each process of step S301 to step S304 and step S331 to step S332 illustrated in FIG. 14 is an example of a process included in the application program for the object recognition process. In addition, each process of step S301 to step S304 and step S331 to step S332 is executed by the processor 21 shown in FIG. Note that the processing in steps S301 to S304 shown in FIG. 14 is equivalent to the processing in steps S301 to S304 shown in FIG. The processor 21 executes each process shown in FIG. 14 every time a new image is taken by the camera CAM1 shown in FIG.

ステップS331において、プロセッサ21は、図13に示した汎用インタフェース24を介して、カメラCAM1により例えば数十ミリ秒から数秒程度の時間ごとに撮影される画像IMGを受ける。   In step S331, the processor 21 receives an image IMG taken by the camera CAM1 every time, for example, about several tens of milliseconds to several seconds, via the general-purpose interface 24 shown in FIG.

ステップS301において、プロセッサ21は、図3で説明したようにして、ステップS331の処理で受けた画像IMGに含まれる各光点の特徴を示す特徴量を求める。   In step S301, the processor 21 obtains a feature amount indicating the feature of each light spot included in the image IMG received in the process of step S331 as described in FIG.

ステップS302において、プロセッサ21は、図4、図9から図11で説明したようにして、類似した特徴を持つ光点が画像IMGにおいて分布する範囲を、画像IMGに含まれる物体を示す候補領域として抽出する。なお、プロセッサ21は、図11で説明した各処理に代えて、図15で説明する各処理を行うことで、候補領域の抽出を行ってもよい。   In step S302, the processor 21 sets, as the candidate region indicating the object included in the image IMG, the range in which the light spots having similar characteristics are distributed in the image IMG as described with reference to FIGS. 4 and 9 to 11. Extract. Note that the processor 21 may extract candidate regions by performing each process described in FIG. 15 instead of each process described in FIG. 11.

ステップS303において、プロセッサ21は、ステップS302の処理で抽出された候補領域ごとに、図5で説明したようにして、候補領域に含まれる光点が投影された物体の特徴を示す特徴ベクトルを求める。   In step S303, the processor 21 obtains a feature vector indicating the feature of the object onto which the light spot included in the candidate region is projected, as described in FIG. 5, for each candidate region extracted in the process of step S302. .

ステップS304において、プロセッサ21は、ストレージ装置23に設けられた特徴データベースDBに登録された情報を用いて、候補領域の特徴ベクトルに類似する特徴を示す物体の種類を特定する。プロセッサ21は、例えば、図5、図6で説明したように、候補領域の特徴ベクトルと特徴データベースDBに登録された各特徴ベクトルとの距離に基づいて、候補領域に含まれる物体の認識を行ってもよいし、図12に示した処理により物体の認識を行ってもよい。また、プロセッサ21は、次に説明するステップS332の処理で記憶される情報を用いて、図16で説明する処理により、物体の認識を行ってもよい。   In step S <b> 304, the processor 21 uses the information registered in the feature database DB provided in the storage device 23 to specify the type of an object that shows a feature similar to the feature vector of the candidate area. For example, as described with reference to FIGS. 5 and 6, the processor 21 recognizes an object included in the candidate region based on the distance between the feature vector of the candidate region and each feature vector registered in the feature database DB. Alternatively, the object may be recognized by the process shown in FIG. Further, the processor 21 may perform recognition of the object by the process described in FIG. 16 using the information stored in the process of step S332 described below.

ステップS332において、プロセッサ21は、候補領域毎に、ステップS304の処理において、特徴ベクトルに含まれる他の要素に比べて物体の種類の特定に大きく寄与した要素をメモリ22等に記憶する。例えば、プロセッサ21は、他の要素に比べて物体の種類の特定に大きく寄与した要素として、物体の種類を特定する処理において特徴データベースDBから検索された物体の種類を一つに絞り込むために用いられた要素をメモリ22等に記憶させる。ステップS322の処理でメモリ22などに記憶させられた情報は、カメラCAM1によって新たに撮影された画像IMGから抽出された各候補領域に含まれる物体の種類を特定する処理に用いられる。なお、ステップS322の処理でメモリ22などに記憶された情報を用いて、各候補領域に含まれる物体の種類を特定する処理は、図16を用いて後述される。   In step S332, for each candidate region, the processor 21 stores, in the memory 22 or the like, elements that greatly contributed to the specification of the object type compared to other elements included in the feature vector in the process of step S304. For example, the processor 21 is used to narrow down the object types retrieved from the feature database DB to one in the process of specifying the object type as an element that greatly contributes to the specification of the object type compared to other elements. The obtained element is stored in the memory 22 or the like. The information stored in the memory 22 or the like in the process of step S322 is used for the process of specifying the type of object included in each candidate area extracted from the image IMG newly taken by the camera CAM1. Note that the process of specifying the type of object included in each candidate area using the information stored in the memory 22 or the like in the process of step S322 will be described later with reference to FIG.

また、プロセッサ21は、カメラCAM1から画像IMGを受ける毎に、ステップS304の処理で候補領域毎に特定した物体の種類を示す情報を、例えば、図13に示した表示装置25に表示させてもよい。   Further, every time the processor 21 receives the image IMG from the camera CAM1, the processor 21 may display information indicating the type of the object specified for each candidate area in the process of step S304, for example, on the display device 25 illustrated in FIG. Good.

図1に示した物体認識装置10と同様に、図13に示した物体認識装置10aは、パターンPT1が投影された領域に含まれる物体の形状とともに物体の表面の性質の特徴を考慮して物体を認識することができる。例えば、人物Q1の頭部と人物Q1の頭部と同等の大きさのボールやぬいぐるみなどの物体とを人物Q1の頭部の表面の特徴とボールなどの表面の特徴との違いに基づいて判別することが可能である。また、ストレージ装置23に設けられる特徴データベースDBに、例えば、人物Q1の正面向きの頭部と、横向きの頭部とのそれぞれに対応する特徴ベクトルが登録されていれば、ベッドBD上の人物Q1の顔の向きを判別することも可能である。   Similar to the object recognition apparatus 10 shown in FIG. 1, the object recognition apparatus 10a shown in FIG. 13 takes into account the characteristics of the surface characteristics of the object as well as the shape of the object included in the area where the pattern PT1 is projected. Can be recognized. For example, the head of the person Q1 and an object such as a ball or stuffed toy equivalent to the head of the person Q1 are discriminated based on the difference between the surface characteristics of the head of the person Q1 and the surface characteristics of the ball. Is possible. Further, if, for example, feature vectors corresponding to the front head and the horizontal head of the person Q1 are registered in the feature database DB provided in the storage device 23, the person Q1 on the bed BD is registered. It is also possible to determine the orientation of the face.

即ち、図13に示した物体認識装置10aは、例えば、人物Q1の頭部と紛らわしい物体(例えば、ぬいぐるみ等)がベッドBDの上にある場合でも、人物Q1の頭部の表面の特徴に基づいて、人物Q1の頭部および頭部の向き等を認識することができる。そして、物体認識装置10aは、ベッドBDと認識された候補領域と人物Q1と認識された候補領域との位置関係とともに、人物Q1の顔の向きなどを示す情報を、物体認識装置10aの操作者に提示することができる。ベッドBDと人物Q1との位置関係や人物Q1の頭部の向きを示す情報を物体認識装置10aから受けた操作者は、例えば、人物Q1の姿勢や行動を判断することが可能である。つまり、物体認識装置10aは、様々な物体が配置された領域に滞在する人物Q1の姿勢や行動を判断するために有用な情報を操作者に提供することが可能である点で、例えば、医療施設などに滞在する人物の見守りなどの分野において有用である。即ち、図13に示した物体認識装置10aは、医療施設や介護施設などにおける人物の見守りサービスなどの分野において有用である。   That is, the object recognition apparatus 10a shown in FIG. 13 is based on the characteristics of the surface of the head of the person Q1, for example, even when an object (for example, a stuffed animal) confusing with the head of the person Q1 is on the bed BD. Thus, the head of the person Q1 and the orientation of the head can be recognized. Then, the object recognition device 10a provides information indicating the orientation of the face of the person Q1 along with the positional relationship between the candidate region recognized as the bed BD and the candidate region recognized as the person Q1, to the operator of the object recognition device 10a. Can be presented. An operator who receives information indicating the positional relationship between the bed BD and the person Q1 and the head direction of the person Q1 from the object recognition device 10a can determine, for example, the posture and behavior of the person Q1. That is, the object recognition device 10a can provide the operator with information useful for determining the posture and behavior of the person Q1 who stays in the area where various objects are arranged. This is useful in fields such as watching people staying at facilities. That is, the object recognition apparatus 10a shown in FIG. 13 is useful in the field of a person watching service in a medical facility or a nursing facility.

同様に、図13に示した物体認識装置10aは、工場やオフィスなどに設置された様々な備品及び内部に滞在する人物のそれぞれを認識可能であり、また、各備品相互の位置関係及び備品と人物との位置関係や位置関係の変化を示す情報を出力することができる。したがって、図13に示した物体認識装置10aは、工場やオフィスなどへの侵入者を検知する監視システムなどに利用することが可能である。   Similarly, the object recognition apparatus 10a shown in FIG. 13 is capable of recognizing various fixtures installed in a factory, an office, etc., and a person staying in the interior, and the positional relationship between the fixtures and fixtures. Information indicating a positional relationship with a person and a change in the positional relationship can be output. Therefore, the object recognition apparatus 10a shown in FIG. 13 can be used for a monitoring system that detects an intruder into a factory or an office.

ところで、図13に示したパターンPT1あるいは図1に示したパターンPTが投影された領域に表面の特徴が異なる物体が含まれる場合に、画像IMGに含まれる光点の特徴のそれぞれに基づいて抽出された候補領域の境界が不明瞭になる場合がある。例えば、図2に示した画像IMGの例において、候補領域C1に含まれる各光点の輪郭の明瞭度と候補領域C0に含まれる各光点の輪郭の明瞭度との差は、光点SP1の輪郭の明瞭度CL1と光点SP2の輪郭の明瞭度CL2との差に比べて小さい。したがって、図4(B)に示した明瞭度の度数分布において、候補領域C1に含まれる光点の輪郭の明瞭度が分布する範囲と、候補領域C0に含まれる光点の輪郭の明瞭度が分布する範囲とは互いに重なり合っている可能性がある。このため、候補領域C1に対応する極大PC1と候補領域C0に対応する極大PC0との境界を示す度数分布の極小は、極大PC1と極大PC2との間の極小に比べて不明瞭になっている。そして、図4に示した極大PC1、PC0のように、2つの極大間の境界が不明瞭な場合に、一方の極大に対応して抽出した候補領域は、本来は他方の極大に対応する候補領域に含まれる光点を含むことがある。即ち、特徴量の度数分布において、互いの境界が不明瞭な2つの極大のそれぞれに対応して候補領域を抽出した場合は、互いの境界が明瞭な2つの極大のそれぞれに対応して抽出した場合に比べて、抽出された候補領域の確からしさが低くなる。逆に言えば、特徴量の度数分布において、他の極大と明瞭に区別される独立性の高い極大に対応して抽出された候補領域は、他の極大に対応する候補領域に分類される光点を含む可能性が低いことから、確からしい候補領域となる。   By the way, when the pattern PT1 shown in FIG. 13 or an object on which the pattern PT shown in FIG. 1 is projected includes an object having different surface characteristics, extraction is performed based on each of the characteristics of the light spots included in the image IMG. In some cases, the boundaries of the candidate regions that are displayed may be unclear. For example, in the example of the image IMG shown in FIG. 2, the difference between the clarity of the outline of each light spot included in the candidate area C1 and the clarity of the outline of each light spot included in the candidate area C0 is the light spot SP1. This is smaller than the difference between the clearness CL1 of the contour and the clearness CL2 of the contour of the light spot SP2. Therefore, in the frequency distribution of the intelligibility shown in FIG. 4B, the range in which the intelligibility of the outline of the light spot included in the candidate area C1 and the intelligibility of the outline of the light spot in the candidate area C0 are The distributed range may overlap each other. For this reason, the minimum of the frequency distribution indicating the boundary between the maximum PC1 corresponding to the candidate area C1 and the maximum PC0 corresponding to the candidate area C0 is less clear than the minimum between the maximum PC1 and the maximum PC2. . Then, when the boundary between the two maxima is unclear, such as the maxima PC1 and PC0 shown in FIG. 4, the candidate region extracted corresponding to one maxima is originally a candidate corresponding to the other maxima. It may contain light spots included in the region. That is, in the frequency distribution of the feature amount, when candidate regions are extracted corresponding to each of two maxima whose boundaries are unclear, they are extracted corresponding to each of two maxima whose boundaries are clear Compared to the case, the probability of the extracted candidate region is lower. In other words, in the frequency distribution of the feature quantity, candidate areas extracted corresponding to highly independent maxima that are clearly distinguished from other maxima are classified into candidate areas corresponding to other maxima. Since the possibility of including a point is low, it is a probable candidate area.

そこで、図13に示したプロセッサ21は、図14に示したステップS302の処理として、図15に示す処理を実行することで、画像IMGに含まれる光点の特徴量の度数分布において、閾値以上に独立性の高い極大に対応する候補領域を選択的に抽出する。   Therefore, the processor 21 illustrated in FIG. 13 executes the processing illustrated in FIG. 15 as the processing in step S302 illustrated in FIG. 14, so that the frequency distribution of the feature amount of the light spot included in the image IMG exceeds the threshold value. Candidate areas corresponding to local maxima with high independence are selectively extracted.

図15は、候補領域を抽出する処理の別例を示す。図15に示したステップS310〜ステップS312及びステップS314〜ステップS318の処理と、ステップS341,S342の処理とは、図13に示したプロセッサ21によって実行される。なお、図15に示すステップのうち、図11に示したステップと同等のものは、同一の符号で示すとともにステップの説明を省略する場合がある。例えば、図15に示したステップS310〜ステップS312及びステップS314〜ステップS318の処理は、図11に同一の符号で示したステップと同等である。   FIG. 15 shows another example of processing for extracting candidate regions. The processes in steps S310 to S312 and steps S314 to S318 and the processes in steps S341 and S342 shown in FIG. 15 are executed by the processor 21 shown in FIG. Note that among the steps shown in FIG. 15, the steps equivalent to those shown in FIG. 11 are denoted by the same reference numerals and description of the steps may be omitted. For example, steps S310 to S312 and steps S314 to S318 shown in FIG. 15 are equivalent to the steps indicated by the same reference numerals in FIG.

図15に示した流れ図において、プロセッサ21は、図11に示したステップS312と同等のステップS312の肯定判定の場合に、図11に示したステップS313の処理に代えて、ステップS341及びステップS342の処理を実行する。   In the flowchart shown in FIG. 15, in the case of an affirmative determination in step S312 equivalent to step S312 shown in FIG. 11, the processor 21 replaces the processing in step S313 shown in FIG. 11 with steps S341 and S342. Execute the process.

ステップS341において、プロセッサ21は、ステップS311の処理で求めた度数分布に基づいて、度数分布で示される各極大が他の極大から独立している度合いを示す指標値を求める。例えば、プロセッサ21は、各極大の度数の最大値から各極大と隣接する極大との境界を示す度数の極小値を差し引いた値を各極大の度数の最大値で除算した値を、各極大が隣接する極大に対する独立性を示す指標値として求める。例えば、図4(B)に示した極大PC1の極大PC0からの独立性を示す指標値は、明瞭度CL1に対応する度数から、極大PC1と極大PC0との境界を示す度数分布の極小値を差し引いて得られる値を、明瞭度CL1に対応する度数で除算した値となる。図4(B)に示したように、度数分布において極大PC1と極大PC0との境界を示す極小値が、明瞭度CL1に対応する度数の半分より大きい場合、図4(B)に示した極大PC1の極大PC0からの独立性を示す指標値は、例えば値0.5よりも小さい値となる。一方、図4(B)に示したように、極大PC1と極大PC2との境界を示す極小値が明瞭度CL2に対応する度数の半分未満である場合、図4(B)に示した極大PC2の極大PC1からの独立性を示す指標値は、例えば値0.5よりも大きい値となる。   In step S341, the processor 21 obtains an index value indicating the degree to which each maximum indicated by the frequency distribution is independent from the other maximum, based on the frequency distribution obtained in the process of step S311. For example, the processor 21 obtains a value obtained by dividing a value obtained by subtracting a local minimum value indicating the boundary between each local maximum and an adjacent local maximum by a maximum value of each local maximum by the maximum value of each local maximum. Obtained as an index value indicating independence with respect to adjacent maxima. For example, the index value indicating the independence of the maximum PC1 from the maximum PC0 shown in FIG. 4B is the minimum value of the frequency distribution indicating the boundary between the maximum PC1 and the maximum PC0 from the frequency corresponding to the clarity CL1. The value obtained by subtraction is a value obtained by dividing the value by the frequency corresponding to the clarity CL1. As shown in FIG. 4B, when the minimum value indicating the boundary between the maximum PC1 and the maximum PC0 in the frequency distribution is larger than half of the frequency corresponding to the clarity CL1, the maximum shown in FIG. The index value indicating the independence of PC1 from the maximum PC0 is a value smaller than 0.5, for example. On the other hand, as shown in FIG. 4B, when the minimum value indicating the boundary between the maximum PC1 and the maximum PC2 is less than half of the frequency corresponding to the clarity CL2, the maximum PC2 shown in FIG. An index value indicating independence from the maximum PC1 is, for example, a value larger than 0.5.

ステップS342において、プロセッサ21は、特徴量に対応する度数分布において、ステップS341の処理で閾値以上の指標値が得られた極大を判別し、画像IMGに含まれる光点を、判別した極大に対応する特徴量を持つグループに分類する。例えば、プロセッサ21は、値0.5程度あるいは値0.5よりも大きい値に設定される閾値よりも大きい指標値が得られた極大を、ステップS311の処理で得られた度数分布において、隣接する極大から独立している極大として判別する。そして、プロセッサ21は、画像IMGに含まれる光点のうち、判別した極大に対応する範囲内の特徴量を持つ光点を、判別した極大に対応するグループに分類する。一方、プロセッサ21は、画像IMGに含まれる光点のうち、閾値以下の指標値が得られた極大に対応する範囲に含まれる特徴値を持つ光点を、グループ化せずに残す。   In step S342, the processor 21 determines the maximum in which the index value equal to or greater than the threshold is obtained in the process of step S341 in the frequency distribution corresponding to the feature amount, and corresponds the light spot included in the image IMG to the determined maximum. Classify into groups with features For example, the processor 21 determines that the local maximum obtained by the index value larger than the threshold value set to a value of about 0.5 or larger than the value 0.5 is adjacent in the frequency distribution obtained in the process of step S311. It is determined as a local maximum independent of the local maximum. Then, the processor 21 classifies the light spots having the feature amount within the range corresponding to the determined maximum among the light spots included in the image IMG into a group corresponding to the determined maximum. On the other hand, among the light spots included in the image IMG, the processor 21 leaves the light spots having the characteristic values included in the range corresponding to the maximum where the index value equal to or less than the threshold is obtained without being grouped.

例えば、ステップS341の処理で、図4(B)に示した極大PC2の独立性を示す指標値として値0.5よりも大きい値を得た場合に、プロセッサ21は、図4(B)の範囲Rc2に含まれる明瞭度を持つ光点を、極大PC2に対応するグループに分類する。ここで、ステップS342の処理により、極大PC2に対応するグループに分類された光点は、輪郭の明瞭度の観点から、当該グループに属さない他の光点とは明らかに異なる特徴を示す。したがって、ステップS314の処理において、極大PC2に対応するグループに分類された光点が画像IMGにおいて連続して分布するとして特定された範囲は、画像IMGにおいて、背景等から区別される特徴を持つ物体を示す確からしい候補領域となる。   For example, when the process of step S341 obtains a value larger than 0.5 as an index value indicating the independence of the maximal PC 2 shown in FIG. 4B, the processor 21 in FIG. The light spots having the clarity included in the range Rc2 are classified into a group corresponding to the maximum PC2. Here, the light spot classified into the group corresponding to the maximum PC2 by the process of step S342 shows a characteristic clearly different from other light spots not belonging to the group from the viewpoint of the clarity of the outline. Therefore, in the process of step S314, the range specified as the light spots classified into the group corresponding to the maximum PC2 are continuously distributed in the image IMG is an object having a feature distinguished from the background or the like in the image IMG. This is a probable candidate area indicating

一方、ステップS341の処理で、図4(B)に示した極大PC1の独立性を示す指標値として値0.5未満の値が得られた場合に、ステップS342の処理において、プロセッサ21は、図4(B)の範囲Rc1に含まれる明瞭度を持つ光点の分類を抑止する。そして、この場合に、プロセッサ21は、図4(B)の範囲Rc1に含まれる明瞭度を持つ光点をグループ化されていない光点として残す。即ち、図4(B)に示した範囲Rc1に含まれる明瞭度を持つ光点と範囲Rc0に含まれる明瞭度を持つ光点は、明瞭度の観点では背景などから区別することが困難であるとして、未分類の光点として扱われる。したがって、図4(B)の範囲Rc1に含まれる明瞭度を持つ光点が画像IMGにおいて分布する範囲のように、他の物体の特徴を示す可能性を持つ光点を含む不確かな領域が、ステップS314の処理により候補領域として抽出されることはない。つまり、ステップS314の処理に先立って、ステップS341,S342の処理をプロセッサ21によって実行することにより、不確かな候補領域の抽出を抑止し、確からしい候補領域を選択的に抽出することができる。   On the other hand, when a value less than 0.5 is obtained as an index value indicating the independence of the maximal PC 1 shown in FIG. 4B in the process of step S341, in the process of step S342, the processor 21 The classification of the light spots having the clarity included in the range Rc1 in FIG. 4B is suppressed. In this case, the processor 21 leaves the light spots having the clarity included in the range Rc1 in FIG. 4B as unlighted light spots. That is, it is difficult to distinguish the light spot having the clarity included in the range Rc1 and the light spot having the clarity included in the range Rc0 shown in FIG. Are treated as unclassified light spots. Therefore, an uncertain region including a light spot having a possibility of showing the characteristics of another object, such as a range in which the light spot having the clarity included in the range Rc1 in FIG. 4B is distributed in the image IMG, It is not extracted as a candidate area by the process of step S314. In other words, prior to the processing in step S314, the processing in steps S341 and S342 is executed by the processor 21, so that extraction of uncertain candidate regions can be suppressed and probable candidate regions can be selectively extracted.

なお、図15に示したステップS341の処理で求められる指標値は、特徴量の度数分布で示される極大値と極小値とに基づいて算出される値に限らず、特徴量に基づいて分類される各グループのまとまりの度合いを示す値であればよい。   In addition, the index value calculated | required by the process of step S341 shown in FIG. 15 is not limited to the value calculated based on the maximum value and the minimum value indicated by the frequency distribution of the feature value, but is classified based on the feature value. Any value indicating the degree of grouping of each group may be used.

次に、図16に基づいて、図13に示した物体認識装置10aにより、以前に撮影された画像IMGに含まれる物体を認識することで得られた認識結果を、新たに撮影される画像に含まれる物体の認識に用いる手法を説明する。   Next, based on FIG. 16, the recognition result obtained by recognizing an object included in the image IMG previously captured by the object recognition device 10 a illustrated in FIG. 13 is converted into a newly captured image. A method used for recognition of included objects will be described.

図16は、物体の種類を特定する処理の別例を示す。図16に示したステップS320〜ステップS327、ステップS351及びステップS352は、図14に示したステップS304の処理の一例であり、図13に示したプロセッサ21によって実行される。なお、図16に示すステップのうち、図12に示したステップと同等のものは、同一の符号で示すとともにステップの説明を省略する場合がある。例えば、図16に示したステップS320〜ステップS327の処理は、図12に同一の符号で示したステップと同等である。また、図16に示した各処理は、図14に示したステップS302の処理で抽出された候補領域毎に実行される。   FIG. 16 shows another example of processing for specifying the type of object. Step S320 to step S327, step S351, and step S352 shown in FIG. 16 are an example of the process of step S304 shown in FIG. 14, and are executed by the processor 21 shown in FIG. Of the steps shown in FIG. 16, those equivalent to the steps shown in FIG. 12 are denoted by the same reference numerals and description of the steps may be omitted. For example, the processing from step S320 to step S327 shown in FIG. 16 is equivalent to the step shown by the same reference numeral in FIG. Further, each process shown in FIG. 16 is executed for each candidate area extracted in the process of step S302 shown in FIG.

図16に示した流れ図において、プロセッサ21は、図12に示したステップS322と同等のステップS322の肯定判定(YES)の場合に、図12に示したステップS323の処理に先立って、ステップS351及びステップS352の処理を実行する。   In the flowchart shown in FIG. 16, in the case of an affirmative determination (YES) in step S322 equivalent to step S322 shown in FIG. 12, the processor 21 performs steps S351 and S351 prior to the processing in step S323 shown in FIG. The process of step S352 is executed.

ステップS351において、プロセッサ21は、図13に示したカメラCAM1により、例えばひとつ前の撮影タイミングに撮影された画像IMGの物体認識処理において、処理の対象となっている候補領域と同等の候補領域の物体を認識したか否かを判定する。例えば、プロセッサ21は、図14に示したステップS332の処理でメモリ22等に記憶させた情報に、処理の対象となっている候補領域の位置及び形状に類似する候補領域に対応づけられた情報が含まれるか否かに基づいて同等の候補領域の有無を判定する。   In step S351, the processor 21 uses the camera CAM1 shown in FIG. 13 to select a candidate area equivalent to the candidate area to be processed in the object recognition process of the image IMG taken at the previous shooting timing, for example. It is determined whether or not an object has been recognized. For example, the processor 21 associates information stored in the memory 22 or the like with the process of step S332 illustrated in FIG. 14 with a candidate area similar to the position and shape of the candidate area to be processed. Whether or not there is an equivalent candidate region is determined based on whether or not the is included.

メモリ22などに記憶させた情報に、処理の対象となっている候補領域の位置及び形状に類似する候補領域に含まれる物体の種類の特定に寄与した特徴ベクトルの要素を示す情報が含まれる場合に、プロセッサ21はステップS351の肯定判定(YES)とする。この場合に、プロセッサ21は、ステップS352の処理を実行する。一方、ステップS351の否定判定(NO)の場合に、プロセッサ21は、ステップS352の処理を省略する。   When information stored in the memory 22 or the like includes information indicating feature vector elements that contribute to specifying the type of object included in the candidate area similar to the position and shape of the candidate area to be processed In addition, the processor 21 makes an affirmative determination (YES) in step S351. In this case, the processor 21 executes the process of step S352. On the other hand, in the case of a negative determination (NO) in step S351, the processor 21 omits the process of step S352.

ステップS352において、プロセッサ21は、ステップS332の処理でメモリなどに記憶させた情報に基づいて、ステップS324の処理で、検索結果の絞り込みに用いる光点の特徴量として特徴ベクトルの要素を選択する順序を設定する。プロセッサ21は、例えば、ステップS332の処理でメモリなどに記憶させた情報で示される特徴ベクトルの要素を他の要素よりも先に選択する順序を設定する。   In step S352, based on the information stored in the memory or the like in the process of step S332, the processor 21 selects the feature vector element as the feature value of the light spot used for narrowing down the search result in the process of step S324. Set. For example, the processor 21 sets the order in which the elements of the feature vector indicated by the information stored in the memory or the like in step S332 are selected before other elements.

例えば、メモリ22等に記憶された情報から、光点の輪郭の明瞭度に基づく絞り込みにより候補領域の物体の種類が一つに特定されたことが示された場合に、プロセッサ21は、明瞭度を最初に選択させる順序を設定する。したがって、新たに受けた画像IMGの対応する候補領域についてステップS321の処理で特徴データベースDBから検索された物体の種類の候補は、まず、特徴ベクトルに含まれる明瞭度を示す要素に基づいて絞り込まれる。   For example, when the information stored in the memory 22 or the like indicates that one type of object in the candidate area is specified by narrowing down based on the clarity of the outline of the light spot, the processor 21 Set the order in which are first selected. Therefore, the object type candidates retrieved from the feature database DB in the process of step S321 for the corresponding candidate region of the newly received image IMG are first narrowed down based on the element indicating the clarity included in the feature vector. .

ここで、一つ前のフレームの画像IMGについての認識処理で、候補領域の物体の種類を一つに絞り込んだ特徴ベクトルの要素は、候補領域に含まれる物体の特徴の中で、特徴データベースDBに登録された他の物体と際立って異なる特徴を示している。   Here, in the recognition process for the image IMG of the previous frame, the feature vector elements narrowed down to one type of object in the candidate region are the feature database DB among the features of the object included in the candidate region. The feature is markedly different from the other objects registered in.

したがって、ステップS321の処理で得られた検索結果を、ステップS332の処理でメモリ22等に記憶させた情報で示される要素を用いて絞り込むことで、他の要素を先に用いる場合よりも、候補領域の物体の種類を早く一つに絞り込むことができる。即ち、ステップS323の処理に先立って、ステップS351,S352の処理をプロセッサ21によって実行することにより、固定された順序で絞り込みに用いる要素を選択する場合よりも、候補領域に含まれる物体の種類を高速に一つに特定することができる。   Therefore, by narrowing down the search results obtained in the process of step S321 using the elements indicated by the information stored in the memory 22 or the like in the process of step S332, candidates can be obtained rather than using other elements first. The type of object in the area can be quickly narrowed down to one. That is, prior to the process of step S323, the processing of steps S351 and S352 is executed by the processor 21, so that the types of objects included in the candidate area are selected rather than selecting elements to be used for narrowing down in a fixed order. One can be identified at high speed.

以上の詳細な説明により、実施形態の特徴点及び利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で、前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更を容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。   From the above detailed description, features and advantages of the embodiment will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and changes. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.

以上の説明に関して、更に、以下の各項を開示する。
(付記1) 複数の光点を含むパターンが投影された第1物体の画像から、互いに類似する特徴を有する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出し、
前記候補領域に含まれる複数の光点の特徴を示す第1ベクトルを求め、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの特徴を示す予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する
ことを特徴とする物体認識方法。
(付記2) 付記1に記載の物体認識方法において、
前記候補領域を抽出する処理は、
前記画像に含まれる光点のそれぞれの輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を評価し、
前記複数種類の特徴量の一つに基づいて前記光点が複数のグループに分類された場合に、前記複数のグループのそれぞれに属する複数の光点が前記画像において連続して分布する範囲を前記候補領域として検出し、
前記特徴量の一つに基づいて前記光点が複数のグループに分類されない場合に、前記特徴量の他の一つに基づいて前記光点を分類し、前記候補領域を検出することで実行される
ことを特徴とする物体認識方法。
(付記3) 付記2に記載の物体認識方法において、
前記各光点の特徴量を評価する処理は、前記画像に含まれる光点のそれぞれの輝度及び前記光点の輪郭の明瞭度に加えて前記各光点の形状及び大きさのそれぞれを示す情報を、前記各光点の特徴量として求めることで実行され、
前記候補領域を検出する処理は、前記各光点の輝度に基づく分類により前記光点が複数のグループに分類されない場合に、前記光点の輪郭の明瞭度と前記各光点の形状と大きさとを順次に第1特徴量として選択し、選択した第1特徴量に基づいて前記光点を分類することで実行される
ことを特徴とする物体認識方法。
(付記4) 付記1に記載の物体認識方法において、
前記第1ベクトルを求める処理は、
前記候補領域に含まれる各光点の前記画像における位置に基づいて算出される、前記パターンが投影される基準面から前記第1物体に投影された各光点までの距離を示す情報を前記第1ベクトルの一部として求め、
前記候補領域に含まれる各光点の輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を示す情報を前記第1ベクトルの他の一部として求めることで実行され、
前記第1物体の種類を認識する処理は、
前記候補領域に含まれる前記各光点と前記基準点との間の距離を示す情報に類似する距離を示す情報を含む一つの第2ベクトルが特定された場合に、特定された第2ベクトルに対応付けられた第2物体を、前記候補領域で示される前記第1物体の種類として認識し、
複数の第2ベクトルが特定された場合に、前記特定された第2ベクトルの中から、前記第1ベクトルに含まれる前記各光点の複数の特徴量を示す情報に類似する情報を含む第2ベクトルを選択することで、前記第1物体の種類の認識に用いる第2ベクトルを絞り込むことで実行される
ことを特徴とする物体認識方法。
(付記5) 複数の光点を含むパターンが投影された第1物体の画像から、互いに類似する特徴を有する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出する抽出部と、
前記候補領域に含まれる複数の光点の特徴を示す第1ベクトルを求める算出部と、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの特徴を示す予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する認識部と、
を有することを特徴とする物体認識装置。
(付記6) 付記5に記載の物体認識装置において、
前記抽出部は、
前記画像に含まれる光点のそれぞれの輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を評価する評価部と、
前記複数種類の特徴量の一つに基づいて、前記画像に含まれる光点をグループに分類する分類部と、
前記分類部により前記画像に含まれる光点が複数のグループに分類された場合に、前記複数のグループのそれぞれに含まれる光点が前記画像において連続して分布する範囲を特定する特定部と、
前記特定部で特定された範囲のうち、所定数以上の光点を含む範囲を前記候補領域として検出する検出部と、
前記分類部により前記画像に含まれる光点が複数のグループに分類されない場合に、前記複数種類の特徴量の他の一つに基づいて前記光点を分類する処理を前記分類部に実行させる制御部とを含む
ことを特徴とする物体認識装置。
(付記7) 付記6に記載の物体認識装置において、
前記分類部は、他の特徴量に基づいて前記光点を分類する処理に先立って、前記光点の輝度に基づいて前記光点を分類する
ことを特徴とする物体認識装置。
(付記8) 付記5に記載の物体認識装置において、
前記算出部は、
前記候補領域に含まれる各光点の前記画像における位置に基づいて算出される、前記パターンが投影される基準面から前記第1物体に投影された各光点までの距離を示す情報を前記第1ベクトルの一部として求め、
前記候補領域に含まれる各光点の輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を示す情報を前記第1ベクトルの他の一部として求め、
前記認識部は、
前記候補領域に含まれる前記複数の光点のそれぞれまでの距離に類似する距離を示す情報を含む一つの第2ベクトルが特定された場合に、特定された第2ベクトルに対応付けられた第2物体を、前記候補領域で示される前記第1物体の種類として認識し、
複数の第2ベクトルが特定された場合に、前記特定された第2ベクトルから、前記第1ベクトルに含まれる前記各光点の特徴を示す情報に類似する情報を含む第2ベクトルを選択することで、前記第1物体の種類の認識に用いる第2ベクトルを絞り込む
ことを特徴とする物体認識装置。
(付記9) 付記8に記載の物体認識装置において、
複数の光点が投影された前記第1物体の複数の画像を受け、
前記認識部は、
前記候補領域に含まれる前記複数の光点のそれぞれまでの距離に類似する距離を示す情報を含むとして複数の第2ベクトルが特定された場合に、以前に受けた画像から抽出された候補領域に対応して得られた第1ベクトルに類似する第2ベクトルの数を他の特徴量よりも少ない数に絞り込んだ特徴量を用いて、前記第1物体の種類の認識に用いる第2ベクトルを絞り込む
ことを特徴とする物体認識装置。
(付記10) 複数の光点を含むパターンが投影された第1物体の画像(IMG)から、互いに類似する特徴を有する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出し、
前記候補領域に含まれる複数の光点の特徴を示す第1ベクトルを求め、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの特徴を示す予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する、
処理をコンピュータに実行させることを特徴とする物体認識プログラム。
Regarding the above description, the following items are further disclosed.
(Additional remark 1) Extracting the range which the light spot which has a mutually similar characteristic distributes as a candidate area | region which has a possibility of showing the said 1st object from the image of the 1st object in which the pattern containing a several light spot was projected And
Obtaining a first vector indicating characteristics of a plurality of light spots included in the candidate region;
Among the second vectors registered in advance indicating the characteristics of the plurality of light spots included in the pattern projected onto each of the plurality of second objects whose types of objects are known, the first of the candidate regions An object recognition method characterized by identifying a second vector similar to another second vector and recognizing a second object associated with the identified second vector as the type of the first object .
(Appendix 2) In the object recognition method according to appendix 1,
The process of extracting the candidate area is as follows:
Evaluating a plurality of types of feature quantities including the brightness of each light spot included in the image and the clarity of the outline of the light spot;
When the light spots are classified into a plurality of groups based on one of the plurality of types of feature amounts, a range in which a plurality of light spots belonging to each of the plurality of groups is continuously distributed in the image Detected as a candidate area,
When the light spots are not classified into a plurality of groups based on one of the feature quantities, the light spots are classified based on the other one of the feature quantities and the candidate area is detected. An object recognition method characterized by that.
(Supplementary note 3) In the object recognition method according to supplementary note 2,
The process for evaluating the feature amount of each light spot is information indicating the shape and size of each light spot in addition to the brightness of each light spot included in the image and the clarity of the outline of the light spot. Is calculated as a feature value of each light spot,
The process of detecting the candidate area includes the clarity of the outline of the light spot and the shape and size of each light spot when the light spot is not classified into a plurality of groups by classification based on the luminance of each light spot. Are sequentially executed as a first feature value, and the light spot is classified based on the selected first feature value.
(Supplementary Note 4) In the object recognition method according to Supplementary Note 1,
The process for obtaining the first vector includes:
Information indicating the distance from the reference plane on which the pattern is projected to each light spot projected onto the first object is calculated based on the position of each light spot included in the candidate region in the image. As part of a vector,
It is executed by obtaining information indicating a plurality of types of feature amounts including brightness of each light spot included in the candidate region and clarity of the outline of the light spot as another part of the first vector,
The process of recognizing the type of the first object is
When one second vector including information indicating a distance similar to information indicating the distance between each light spot and the reference point included in the candidate region is specified, the specified second vector Recognizing the associated second object as the type of the first object indicated by the candidate area;
When a plurality of second vectors are specified, second information including information similar to information indicating a plurality of feature amounts of each light spot included in the first vector is selected from the specified second vectors. An object recognition method, which is executed by narrowing down a second vector used for recognizing the type of the first object by selecting a vector.
(Additional remark 5) Extracting the range which the light spot which has a mutually similar characteristic distributes from the image of the 1st object as which the pattern containing a several light spot was projected as a candidate area | region which has a possibility of showing the said 1st object An extractor to perform,
A calculation unit for obtaining a first vector indicating characteristics of a plurality of light spots included in the candidate region;
Among the second vectors registered in advance indicating the characteristics of the plurality of light spots included in the pattern projected onto each of the plurality of second objects whose types of objects are known, the first of the candidate regions A recognizing unit that identifies a second vector similar to the other second vector to the vector, and recognizes a second object associated with the identified second vector as the type of the first object;
An object recognition apparatus comprising:
(Supplementary note 6) In the object recognition device according to supplementary note 5,
The extraction unit includes:
An evaluation unit that evaluates a plurality of types of feature quantities including the brightness of each light spot included in the image and the clarity of the outline of the light spot;
A classification unit that classifies the light spots included in the image into groups based on one of the plurality of types of feature amounts;
When the light spots included in the image are classified into a plurality of groups by the classification unit, a specifying unit that specifies a range in which the light spots included in each of the plurality of groups are continuously distributed in the image;
A detection unit that detects a range including a predetermined number or more of light spots among the range specified by the specifying unit as the candidate region;
Control that causes the classification unit to perform a process of classifying the light spot based on another one of the plurality of types of feature amounts when the light spot included in the image is not classified into a plurality of groups by the classification unit. An object recognizing device characterized by comprising:
(Supplementary note 7) In the object recognition device according to supplementary note 6,
The said classification | category part classifies the said light spot based on the brightness | luminance of the said light spot before the process which classifies the said light spot based on another feature-value. The object recognition apparatus characterized by the above-mentioned.
(Supplementary note 8) In the object recognition device according to supplementary note 5,
The calculation unit includes:
Information indicating the distance from the reference plane on which the pattern is projected to each light spot projected onto the first object is calculated based on the position of each light spot included in the candidate region in the image. As part of a vector,
Obtaining information indicating a plurality of types of feature amounts including the brightness of each light spot and the clarity of the outline of the light spot included in the candidate area as another part of the first vector,
The recognition unit
When one second vector including information indicating a distance similar to the distance to each of the plurality of light spots included in the candidate region is specified, a second associated with the specified second vector is specified. Recognizing an object as the type of the first object indicated by the candidate area;
When a plurality of second vectors are identified, a second vector including information similar to information indicating the characteristics of each light spot included in the first vector is selected from the identified second vectors. And narrowing down the second vector used for recognizing the type of the first object.
(Supplementary note 9) In the object recognition device according to supplementary note 8,
Receiving a plurality of images of the first object projected with a plurality of light spots;
The recognition unit
When a plurality of second vectors are identified as including information indicating distances similar to the distances to each of the plurality of light spots included in the candidate region, the candidate region extracted from the previously received image The second vector used for recognizing the type of the first object is narrowed down using the feature quantity obtained by narrowing the number of second vectors similar to the first vector obtained correspondingly to a number smaller than other feature quantities. An object recognition apparatus characterized by that.
(Supplementary Note 10) Candidates that may indicate the first object in a range in which light spots having similar characteristics are distributed from an image (IMG) of the first object onto which a pattern including a plurality of light spots is projected Extract as a region,
Obtaining a first vector indicating characteristics of a plurality of light spots included in the candidate region;
Among the second vectors registered in advance indicating the characteristics of the plurality of light spots included in the pattern projected onto each of the plurality of second objects whose types of objects are known, the first of the candidate regions Identifying a second vector that is more similar to the second vector than the other second vector, and recognizing a second object associated with the identified second vector as the type of the first object;
An object recognition program that causes a computer to execute processing.

10,10a…物体認識装置;11,11a…抽出部;12…算出部;13,13a…認識部;111…評価部;112…分類部;113…抽出制御部;114…特定部;115…検出部;131…検索部;132…認識制御部;21…プロセッサ;22…メモリ;23…ストレージ装置;24…汎用インタフェース;25…表示装置;26…光学ドライブ装置;27…リムーバブルディスク;28…ネットワークインタフェース;CAM,CAM1…カメラ;PR,PR1…投影装置;PT,PT1…パターン;T1,T2…物体;DB…特徴データベース;BD…ベッド;Q1…人物;COM…コンピュータ装置;NW…ネットワーク;SV…サーバ装置


DESCRIPTION OF SYMBOLS 10,10a ... Object recognition apparatus; 11, 11a ... Extraction part; 12 ... Calculation part; 13, 13a ... Recognition part; 111 ... Evaluation part; 112 ... Classification part; 113 ... Extraction control part; Detection unit; 131 ... Search unit; 132 ... Recognition control unit; 21 ... Processor; 22 ... Memory; 23 ... Storage device; 24 ... General-purpose interface; 25 ... Display device; 26 ... Optical drive device; CAM, CAM1 ... camera; PR, PR1 ... projection device; PT, PT1 ... pattern; T1, T2 ... object; DB ... feature database; BD ... bed; Q1 ... person; COM ... computer device; SV: Server device


Claims (5)

複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出し、
前記候補領域に含まれる複数の光点の前記特徴を含む第1ベクトルを求め、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの前記特徴を含む予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する
ことを特徴とする物体認識方法。
Possibility of indicating the first object in a range in which light spots with similar characteristics of luminance and contour clarity are distributed from the image of the first object onto which a pattern including a plurality of light spots is projected. Extracted as a candidate area
Obtains a first vector including the features of the plurality of light spots included in the candidate region,
In the second vector the type of the object is registered in advance, including each of the features of the plurality of light spots included in the plurality of the pattern projected on each of the second object is known, the said candidate region A second vector that is similar to one second vector than another second vector is identified, and a second object associated with the identified second vector is recognized as the type of the first object. Method.
請求項1に記載の物体認識方法において、
前記候補領域を抽出する処理は、
前記画像に含まれる光点のそれぞれの輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を評価し、
前記複数種類の特徴量の一つに基づいて前記光点が複数のグループに分類された場合に、前記複数のグループのそれぞれに属する複数の光点が前記画像において連続して分布する範囲を前記候補領域として検出し、
前記特徴量の一つに基づいて前記光点が複数のグループに分類されない場合に、前記特徴量の他の一つに基づいて前記光点を分類し、前記候補領域を検出することで実行される
ことを特徴とする物体認識方法。
The object recognition method according to claim 1,
The process of extracting the candidate area is as follows:
Evaluating a plurality of types of feature quantities including the brightness of each light spot included in the image and the clarity of the outline of the light spot;
When the light spots are classified into a plurality of groups based on one of the plurality of types of feature amounts, a range in which a plurality of light spots belonging to each of the plurality of groups is continuously distributed in the image Detected as a candidate area,
When the light spots are not classified into a plurality of groups based on one of the feature quantities, the light spots are classified based on the other one of the feature quantities and the candidate area is detected. An object recognition method characterized by that.
請求項1に記載の物体認識方法において、
前記第1ベクトルを求める処理は、
前記候補領域に含まれる各光点の前記画像における位置に基づいて算出される、前記パターンが投影される基準面から前記第1物体に投影された各光点までの距離を示す情報を前記第1ベクトルの一部として求め、
前記候補領域に含まれる各光点の輝度及び前記光点の輪郭の明瞭度を含む複数種類の特徴量を示す情報を前記第1ベクトルの他の一部として求めることで実行され、
前記第1物体の種類を認識する処理は、
前記候補領域に含まれる前記各光点と前記基準面との間の距離を示す情報に類似する距離を示す情報を含む一つの第2ベクトルが特定された場合に、特定された第2ベクトルに対応付けられた第2物体を、前記候補領域で示される前記第1物体の種類として認識し、
複数の第2ベクトルが特定された場合に、前記特定された第2ベクトルの中から、前記第1ベクトルに含まれる前記各光点の複数の特徴量を示す情報に類似する情報を含む第2ベクトルを選択することで、前記第1物体の種類の認識に用いる第2ベクトルを絞り込むことで実行される
ことを特徴とする物体認識方法。
The object recognition method according to claim 1,
The process for obtaining the first vector includes:
Information indicating the distance from the reference plane on which the pattern is projected to each light spot projected onto the first object is calculated based on the position of each light spot included in the candidate region in the image. As part of a vector,
It is executed by obtaining information indicating a plurality of types of feature amounts including brightness of each light spot included in the candidate region and clarity of the outline of the light spot as another part of the first vector,
The process of recognizing the type of the first object is
When one second vector including information indicating a distance similar to the information indicating the distance between each light spot and the reference plane included in the candidate region is specified, the specified second vector Recognizing the associated second object as the type of the first object indicated by the candidate area;
When a plurality of second vectors are specified, second information including information similar to information indicating a plurality of feature amounts of each light spot included in the first vector is selected from the specified second vectors. An object recognition method, which is executed by narrowing down a second vector used for recognizing the type of the first object by selecting a vector.
複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出する抽出部と、
前記候補領域に含まれる複数の光点の前記特徴を含む第1ベクトルを求める算出部と、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの前記特徴を含む予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する認識部と、
を備えたことを特徴とする物体認識装置。
Possibility of indicating the first object in a range in which light spots with similar characteristics of luminance and contour clarity are distributed from the image of the first object onto which a pattern including a plurality of light spots is projected. An extraction unit for extracting as a candidate area having,
A calculation unit for obtaining a first vector including the features of the plurality of light spots included in the candidate region,
In the second vector the type of the object is registered in advance, including each of the features of the plurality of light spots included in the plurality of the pattern projected on each of the second object is known, the said candidate region A recognizing unit that identifies a second vector that is more similar to one second vector than another second vector, and recognizes a second object associated with the identified second vector as the type of the first object;
An object recognition apparatus characterized by comprising:
複数の光点を含むパターンが投影された第1物体の画像から、輝度、輪郭の明瞭度のいずれかの特徴が互いに類似する光点が分布する範囲を、前記第1物体を示す可能性を持つ候補領域として抽出し、
前記候補領域に含まれる複数の光点の前記特徴を含む第1ベクトルを求め、
物体の種類が既知である複数の第2物体のそれぞれに投影された前記パターンに含まれる複数の光点のそれぞれの前記特徴を含む予め登録された第2ベクトルの中で、前記候補領域の第1ベクトルに他の第2ベクトルよりも類似する第2ベクトルを特定し、特定した第2ベクトルに対応付けられた第2物体を、前記第1物体の種類として認識する、
処理をコンピュータに実行させることを特徴とする物体認識プログラム。
Possibility of indicating the first object in a range in which light spots with similar characteristics of luminance and contour clarity are distributed from the image of the first object onto which a pattern including a plurality of light spots is projected. Extracted as a candidate area
Obtains a first vector including the features of the plurality of light spots included in the candidate region,
In the second vector the type of the object is registered in advance, including each of the features of the plurality of light spots included in the plurality of the pattern projected on each of the second object is known, the said candidate region A second vector that is more similar to one vector than another second vector is identified, and a second object associated with the identified second vector is recognized as the type of the first object;
An object recognition program that causes a computer to execute processing.
JP2014111004A 2014-05-29 2014-05-29 Object recognition method, object recognition apparatus, and object recognition program Active JP6435647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014111004A JP6435647B2 (en) 2014-05-29 2014-05-29 Object recognition method, object recognition apparatus, and object recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014111004A JP6435647B2 (en) 2014-05-29 2014-05-29 Object recognition method, object recognition apparatus, and object recognition program

Publications (2)

Publication Number Publication Date
JP2015225573A JP2015225573A (en) 2015-12-14
JP6435647B2 true JP6435647B2 (en) 2018-12-12

Family

ID=54842249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014111004A Active JP6435647B2 (en) 2014-05-29 2014-05-29 Object recognition method, object recognition apparatus, and object recognition program

Country Status (1)

Country Link
JP (1) JP6435647B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6424745B1 (en) * 1998-05-19 2002-07-23 Lucent Technologies Inc. Method and apparatus for object recognition
JP5448599B2 (en) * 2009-06-24 2014-03-19 キヤノン株式会社 Measurement system and measurement processing method
JP2014067193A (en) * 2012-09-25 2014-04-17 Canon Inc Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2015225573A (en) 2015-12-14

Similar Documents

Publication Publication Date Title
US8090157B2 (en) Approaches and apparatus for eye detection in a digital image
JP6032921B2 (en) Object detection apparatus and method, and program
EP3191989B1 (en) Video processing for motor task analysis
US10997465B2 (en) Information processing device, information processing method, and storage medium
JP5470262B2 (en) Binocular detection and tracking method and apparatus
US8861802B2 (en) Face image prioritization based on face quality analysis
US6941009B2 (en) Method for evaluating pattern defects on a water surface
CN107194323A (en) Car damage identification image acquiring method, device, server and terminal device
JP5342606B2 (en) Defect classification method and apparatus
JP2010072723A (en) Tracking device and tracking method
JP2011158373A (en) Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification
JP2014093023A (en) Object detection device, object detection method and program
KR20190099537A (en) Motion learning device, function determining device and function determining system
WO2024051067A1 (en) Infrared image processing method, apparatus, and device, and storage medium
JP4708835B2 (en) Face detection device, face detection method, and face detection program
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
JP2003271932A (en) Sight line direction detector
JP7377159B2 (en) Individual identification system, individual identification program, and recording medium
JP6647134B2 (en) Subject tracking device and program thereof
JP6435647B2 (en) Object recognition method, object recognition apparatus, and object recognition program
JP6244960B2 (en) Object recognition apparatus, object recognition method, and object recognition program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2004109105A (en) Flaw type classification boundary setting method in surface defect detection, and defect detection method
CN113544700A (en) Neural network training method and device, and associated object detection method and device
CN109034138B (en) Image processing method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170411

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180209

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181029

R150 Certificate of patent or registration of utility model

Ref document number: 6435647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150