JP2011198270A - Object recognition device and controller using the same, and object recognition method - Google Patents

Object recognition device and controller using the same, and object recognition method Download PDF

Info

Publication number
JP2011198270A
JP2011198270A JP2010066655A JP2010066655A JP2011198270A JP 2011198270 A JP2011198270 A JP 2011198270A JP 2010066655 A JP2010066655 A JP 2010066655A JP 2010066655 A JP2010066655 A JP 2010066655A JP 2011198270 A JP2011198270 A JP 2011198270A
Authority
JP
Japan
Prior art keywords
infrared
region
image
color
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010066655A
Other languages
Japanese (ja)
Inventor
Hideki Shirai
英樹 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2010066655A priority Critical patent/JP2011198270A/en
Publication of JP2011198270A publication Critical patent/JP2011198270A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition device correctly recognizing an object from an image, while suppressing increase in the size and the cost of the device.SOLUTION: The object recognition device 100 for recognizing the flesh-colored object (a hand) includes: a color camera 11 for generating a color image by photographing; a flesh color area detecting part 12 for detecting a flesh color area in the color image; an infrared lamp for irradiating the object with infrared light; an infrared camera 15 for generating an infrared image corresponding to the intensity of the incident infrared light; an infrared area detecting part 16 for detecting an area with the strong intensity of the infrared light, based on the infrared image; and a recognizing part 19 for outputting the recognition result of the target, based on the result of area detection in the flesh color area detecting part 12 and the result of area detection in the infrared area detecting part 16.

Description

本発明は、認識対象の位置、形状、数等を認識する対象認識装置及びそれを用いた制御装置、並びに対象認識方法に関する。   The present invention relates to an object recognition device that recognizes the position, shape, number, and the like of a recognition object, a control device using the device, and an object recognition method.

従来から、カメラで撮影された画像に対して画像認識を行って、その画像から特定の領域を抽出して認識対象の位置や形状等を認識する対象認識装置が知られている。例えば、カメラで人の手を撮影して、そのカラー画像から手や指の領域を抽出して手の向きや形状、指の位置等を認識し、その認識結果に応じた制御信号をコンピュータに入力する対象認識装置がある。この対象認識装置により、ユーザは、キーボードやマウスといった入力デバイスを用いることなく、空中で手の動かすという自然な動作でコンピュータに対して所望の入力を行うことができる。   2. Description of the Related Art Conventionally, an object recognition apparatus that recognizes the position, shape, and the like of a recognition target by performing image recognition on an image captured by a camera and extracting a specific area from the image is known. For example, a person's hand is photographed with a camera, the hand or finger area is extracted from the color image, the hand orientation, shape, finger position, etc. are recognized, and a control signal corresponding to the recognition result is sent to the computer. There is an object recognition device to input. With this object recognition device, the user can make a desired input to the computer by a natural operation of moving the hand in the air without using an input device such as a keyboard or a mouse.

この種の対象認識装置では、カメラがユーザの手を撮像してカラー画像を生成し、このカラー画像から、まず肌色領域を抽出し、次にその肌色領域の輪郭線を抽出して、指の検出や手の向きの推定を行っている(例えば、非特許文献1参照)。   In this type of object recognition device, a camera captures a user's hand to generate a color image, and first extracts a skin color area from the color image, then extracts a contour line of the skin color area, Detection and estimation of hand orientation are performed (for example, see Non-Patent Document 1).

また、カメラと3次元スキャナを用いて、手の画像及び3次元情報を取得して、手の形状等を認識する装置もある(例えば、特許文献1参照)。   There is also an apparatus that acquires a hand image and three-dimensional information using a camera and a three-dimensional scanner and recognizes the shape of the hand (for example, see Patent Document 1).

特開2007−241833号公報JP 2007-241833 A

Taehee Lee; Tobias Hollerer, “Handy AR: Markerless Inspection of Augmented Reality Objects Using Fingertip Tracking”, IEEE ISWC 2007 (11th Int’l Symposium on Wearable Computers), Boston, MA Oct. 11-13, 2007Taehee Lee; Tobias Hollerer, “Handy AR: Markerless Inspection of Augmented Reality Objects Using Fingertip Tracking”, IEEE ISWC 2007 (11th Int’l Symposium on Wearable Computers), Boston, MA Oct. 11-13, 2007 平成18年度情報科学科知識情報科学講座卒業論文発表会予稿、 「幾何学的特徴を用いる顔領域のモデル化」、山形大学情報科学科古閑研究室、遠藤力Preliminary presentation of the graduation thesis presentation of the Department of Information Science in the Department of Information Science in 2006, “Modeling of Face Area Using Geometric Features”, Yamagata University Department of Information Science

しかしながら、上記の非特許文献1の認識装置では、カラー画像から肌色領域を抽出することで、画像中の手の領域を抽出しているので、例えば背景に肌色に近い領域が含まれる場合には、そのような背景までも手の領域として抽出されていまい、手の形状や方向等の認識ができないことがある。また、照明等の影響によって、画像中の手の領域が肌色になっていない場合(例えば逆光で黒っぽくなっている場合など)には、手の領域を抽出できない。   However, in the recognition device of Non-Patent Document 1 described above, since the hand region in the image is extracted by extracting the skin color region from the color image, for example, when the background includes a region close to skin color. Even such a background may not be extracted as a hand region, and the shape and direction of the hand may not be recognized. In addition, when the hand region in the image is not skin-colored due to the influence of lighting or the like (for example, when the hand region is dark due to backlight), the hand region cannot be extracted.

一方、上記の特許文献1の認識装置のように3次元スキャナを利用すれば上記の問題を解消でき、背景を排除しつつ手が画像中でどのような色に撮影されているかにかかわらず手の形状等を認識できる。しかしながら、特許文献1の認識装置では、3次元スキャナを必要とするため、装置が大掛かりになり、製造コストも高くなるという問題がある。   On the other hand, if a three-dimensional scanner is used as in the recognition device of the above-mentioned Patent Document 1, the above problem can be solved, and the hand is removed regardless of what color the hand is photographed in the image while eliminating the background. Can be recognized. However, since the recognition apparatus of Patent Document 1 requires a three-dimensional scanner, there is a problem that the apparatus becomes large and the manufacturing cost increases.

そこで、本発明は、装置の大型化及びコストの上昇を抑えつつ、画像から正確に対象を認識できる対象認識装置を提供する。   Therefore, the present invention provides an object recognition apparatus that can accurately recognize an object from an image while suppressing an increase in size and cost of the apparatus.

本発明の一態様は、特定色を有する対象を認識する対象認識装置であって、この対象認識装置は、撮影によりカラー画像を生成するカラーカメラと、前記カラー画像における前記特定色の領域を検出する特定色検出部と、対象に赤外線を照射するための赤外線ランプと、入射する赤外線の強度に応じた赤外線画像を生成する赤外線カメラと、前記赤外線画像に基づいて、赤外線強度の強い領域を検出する赤外線領域検出部と、前記特定色検出部における領域検出の結果及び前記赤外線領域検出部における領域検出の結果に基づいて、前記対象の認識結果を出力する認識部とを備えている。   One aspect of the present invention is an object recognition apparatus that recognizes an object having a specific color, the object recognition apparatus detecting a color camera that generates a color image by photographing, and the region of the specific color in the color image. A specific color detection unit, an infrared lamp for irradiating an object with infrared rays, an infrared camera that generates an infrared image according to the intensity of incident infrared rays, and a region with high infrared intensity is detected based on the infrared image And a recognition unit that outputs a recognition result of the object based on a result of region detection in the specific color detection unit and a result of region detection in the infrared region detection unit.

この構成により、対象認識装置は、カラーカメラと赤外線カメラを備えるので、カラー画像から特定色を検出するのみでは認識できない対象ついても、赤外線画像から当該対象の数、形状、位置等を認識できるので、対象の認識精度を向上できる。また、このような認識精度の向上をカラーカメラと赤外線カメラという安価な構成で実現できるので、装置の大型化及びコストの上昇を抑えることができる。   With this configuration, the object recognition device includes a color camera and an infrared camera, so even if an object that cannot be recognized only by detecting a specific color from the color image, the number, shape, position, etc. of the object can be recognized from the infrared image. , The recognition accuracy of the object can be improved. In addition, since such an improvement in recognition accuracy can be realized with an inexpensive configuration of a color camera and an infrared camera, an increase in size and cost of the apparatus can be suppressed.

本発明の対象認識装置は、前記特定色検出部にて検出された領域の輪郭を求め、求めた輪郭に基づいて前記対象の輪郭を抽出する輪郭抽出部をさらに備え、前記認識部は、前記輪郭抽出部にて抽出された輪郭に基づいて、前記対象の形状、位置及び数の少なくともいずれかの情報を含む認識結果を出力する。   The target recognition device of the present invention further includes a contour extraction unit that calculates a contour of a region detected by the specific color detection unit, and extracts a contour of the target based on the determined contour. Based on the contour extracted by the contour extraction unit, a recognition result including information on at least one of the shape, position and number of the object is output.

この構成により、輪郭の特徴(例えば全長)に基づいて、対象以外のものを排除できるので、認識精度が向上する。また、認識結果として、対象の形状、位置及び数の少なくともいずれかの情報が得られる。   With this configuration, since objects other than the target can be excluded based on the contour characteristics (for example, the total length), the recognition accuracy is improved. Further, as the recognition result, information on at least one of the shape, position, and number of objects is obtained.

本発明の対象認識装置において、前記認識部は、前記輪郭抽出部にて抽出された輪郭内の所定の条件を満たす特定部分の数の情報を含む認識結果を出力する。   In the object recognition device of the present invention, the recognition unit outputs a recognition result including information on the number of specific portions that satisfy a predetermined condition in the contour extracted by the contour extraction unit.

この構成により、対象の特定部分(例えば手の指先)がいくつあるかを認識できる。   With this configuration, it is possible to recognize how many specific portions (for example, fingertips) of the target are present.

本発明の対象認識装置において、前記対象は人の手であり、前記特定色は肌色である。   In the object recognition device of the present invention, the object is a human hand, and the specific color is a skin color.

この構成により、ユーザの手の位置や形状を認識できる。   With this configuration, the position and shape of the user's hand can be recognized.

本発明の対象認識装置において、前記対象は人の手であり、前記特定色は肌色であり、前記特定部分は指先である。   In the object recognition device of the present invention, the object is a human hand, the specific color is a skin color, and the specific part is a fingertip.

この構成により、ユーザの手の指が何本立っているか等の状態を認識できる。   With this configuration, it is possible to recognize how many fingers of the user's hand are standing.

本発明の別の態様は、特定色を有する対象を認識する対象認識装置であって、この対象認識装置は、撮影により第1のカラー画像を生成する第1のカラーカメラと、前記第1のカラー画像における前記特定色の領域を検出する特定色検出部と、撮影により第2のカラー画像を生成する第2のカラーカメラと、前記第1のカラー画像及び前記第2のカラー画像の視差に基づいて、距離画像を生成する距離推定部と、前記特定色検出部における領域検出の結果及び前記距離推定部にて生成された距離画像に基づいて、前記対象の認識結果を出力する認識部とを備えている。   Another aspect of the present invention is an object recognition apparatus for recognizing an object having a specific color, the object recognition apparatus including a first color camera that generates a first color image by photographing, and the first color camera. A specific color detection unit that detects the specific color region in the color image; a second color camera that generates a second color image by photographing; and a parallax between the first color image and the second color image. A distance estimation unit that generates a distance image, a recognition unit that outputs a recognition result of the target based on a result of area detection in the specific color detection unit and a distance image generated by the distance estimation unit; It has.

この構成により、対象認識装置は、2台のカラーカメラを備えてそれらのカラー画像から距離画像を生成するので、第1のカラー画像から特定色を検出するのみでは認識できない対象物の形状や位置についても、距離画像に基づいて対象を正しく認識できるので、対象の認識精度を向上できる。また、このような認識精度の向上を2台のカラーカメラという安価な構成で実現できるので、装置の大型化及びコストの上昇を抑えることができる。   With this configuration, the object recognition apparatus includes two color cameras and generates a distance image from the color images. Therefore, the shape and position of the object that cannot be recognized only by detecting a specific color from the first color image. Since the object can be correctly recognized based on the distance image, the recognition accuracy of the object can be improved. Further, such an improvement in recognition accuracy can be realized with an inexpensive configuration of two color cameras, so that an increase in size and cost of the apparatus can be suppressed.

本発明の対象認識装置は、前記特定色検出部にて検出された領域の輪郭を求め、求めた輪郭に基づいて前記対象の輪郭を抽出する輪郭抽出部をさらに備え、前記認識部は、前記輪郭抽出部にて抽出された輪郭に基づいて、前記対象の形状、位置及び数の少なくともいずれかの情報を含む認識結果を出力する。   The target recognition device of the present invention further includes a contour extraction unit that calculates a contour of a region detected by the specific color detection unit, and extracts a contour of the target based on the determined contour. Based on the contour extracted by the contour extraction unit, a recognition result including information on at least one of the shape, position and number of the object is output.

この構成により、輪郭の特徴(例えば全長)に基づいて、対象の輪郭以外の輪郭を排除できるので、認識精度が向上する。   With this configuration, since the contour other than the target contour can be excluded based on the feature (for example, the total length) of the contour, the recognition accuracy is improved.

本発明の対象認識装置において、前記特定色検出部は、前記距離推定部で生成された距離画像に基づいて、前記特定色の領域ではあるが前記対象の領域ではない領域を除いて、前記領域検出の結果とし、前記輪郭抽出部は、前記対象の領域ではない領域が除かれた前記領域検出の結果について、領域の輪郭を求めて、その輪郭を抽出する。   In the object recognition device of the present invention, the specific color detection unit is configured to determine the region based on the distance image generated by the distance estimation unit, except for the region that is the specific color region but is not the target region. As a result of the detection, the contour extracting unit obtains a contour of the region with respect to the result of the region detection from which the region that is not the target region is removed, and extracts the contour.

この構成により、特定色検出部は、カラー画像の色の情報のみで判断した領域から、距離から判断して対象ではないと判断される部分を除くので、より正確に対象の領域を検出できる。   With this configuration, the specific color detection unit can more accurately detect the target region because the portion determined based on the distance and determined not to be the target is excluded from the region determined based only on the color information of the color image.

本発明の対象認識装置において、前記認識部は、前記輪郭抽出部にて抽出された輪郭内の所定の条件を満たす特定部分の数の情報を含む認識結果を出力する。   In the object recognition device of the present invention, the recognition unit outputs a recognition result including information on the number of specific portions that satisfy a predetermined condition in the contour extracted by the contour extraction unit.

この構成により、対象の特定部分(例えば手の指先)がいくつあるかを認識できる。   With this configuration, it is possible to recognize how many specific portions (for example, fingertips) of the target are present.

本発明のさらに別の態様は、対象を認識する対象認識装置であって、この対象認識装置は、対象に赤外線を照射するための赤外線ランプと、入射する赤外線の強度に応じた第1の赤外線画像を生成する第1の赤外線カメラと、前記第1の赤外線画像に基づいて、赤外線強度の強い領域を検出する赤外線領域検出部と、入射する赤外線の強度に応じた第2の赤外線画像を生成する第2の赤外線カメラと、前記第1の赤外線画像及び前記第2の赤外線画像の視差に基づいて、前記対象までの距離を推定する距離推定部と、前記赤外線領域検出部における領域検出の結果及び前記距離推定部における距離推定の結果に基づいて、前記対象の認識結果を出力する認識部とを備えている。   Still another aspect of the present invention is an object recognition device for recognizing an object, the object recognition device including an infrared lamp for irradiating an object with infrared rays and a first infrared ray corresponding to the intensity of incident infrared rays. A first infrared camera for generating an image, an infrared region detection unit for detecting a region having a high infrared intensity based on the first infrared image, and a second infrared image corresponding to the intensity of the incident infrared ray A second infrared camera, a distance estimation unit that estimates a distance to the target based on parallax of the first infrared image and the second infrared image, and a result of region detection in the infrared region detection unit And a recognition unit that outputs a recognition result of the object based on a result of distance estimation in the distance estimation unit.

この構成により、対象認識装置は、2台の赤外線カメラを備えて、それらの視差画像から対象までの距離を推定するので、第1の赤外線画像から赤外線強度の強い領域を検出するのみでは認識できない対象物の形状や位置についても、推定された距離に基づいて対象を正しく認識できるので、対象の認識精度を向上できる。また、このような認識精度の向上を2台の赤外線カメラという安価な構成で実現できるので、装置の大型化及びコストの上昇を抑えることができる。   With this configuration, the object recognition apparatus includes two infrared cameras and estimates the distance from the parallax images to the object. Therefore, the object recognition device cannot be recognized only by detecting a region with high infrared intensity from the first infrared image. As for the shape and position of the object, the object can be correctly recognized based on the estimated distance, so that the recognition accuracy of the object can be improved. In addition, since such an improvement in recognition accuracy can be realized with an inexpensive configuration of two infrared cameras, an increase in size and cost of the apparatus can be suppressed.

本発明の対象認識装置は、前記赤外線領域検出部にて検出された領域の輪郭を求め、求めた輪郭に基づいて前記対象の輪郭を抽出する輪郭抽出部をさらに備え、前記認識部は、前記輪郭抽出部にて抽出された輪郭に基づいて、前記対象の形状、位置及び数の少なくともいずれかの情報を含む認識結果を出力する。   The object recognition device of the present invention further includes a contour extraction unit that obtains a contour of the region detected by the infrared region detection unit, and extracts the contour of the target based on the obtained contour, Based on the contour extracted by the contour extraction unit, a recognition result including information on at least one of the shape, position and number of the object is output.

この構成により、輪郭の特徴(例えば全長)に基づいて、対象以外のものを排除できるので、認識精度が向上する。   With this configuration, since objects other than the target can be excluded based on the contour characteristics (for example, the total length), the recognition accuracy is improved.

本発明の対象認識装置において、前記赤外線領域検出部は、前記距離推定部で推定された前記対象までの距離に基づいて、赤外線の強度が強い領域であるが前記対象の領域ではない領域を除いて、前記領域検出の結果とし、前記輪郭抽出部は、前記対象の領域ではない領域が除かれた前記領域検出の結果について、領域の輪郭を求めて、その輪郭を抽出する。   In the target recognition device of the present invention, the infrared region detection unit excludes a region where the intensity of infrared light is strong but is not the target region based on the distance to the target estimated by the distance estimation unit. As a result of the region detection, the contour extraction unit obtains a contour of the region with respect to the result of the region detection from which the region that is not the target region is removed, and extracts the contour.

この構成により、赤外線領域検出部は、第1の赤外線画像から得られた赤外線強度の強い領域から、距離から判断して対象ではないと判断される部分を除くので、より正確に対象の領域を検出できる。   With this configuration, the infrared region detection unit excludes a portion that is determined not to be a target based on a distance from a region having a high infrared intensity obtained from the first infrared image, and thus more accurately determines a target region. It can be detected.

本発明の対象認識装置において、前記認識部は、前記輪郭抽出部にて抽出された輪郭内の所定の条件を満たす特定部分の数の情報を含む認識結果を出力する。   In the object recognition device of the present invention, the recognition unit outputs a recognition result including information on the number of specific portions that satisfy a predetermined condition in the contour extracted by the contour extraction unit.

この構成により、対象の特定部分(例えば手の指先)がいくつあるかを認識できる。   With this configuration, it is possible to recognize how many specific portions (for example, fingertips) of the target are present.

本発明のさらに別の態様は、制御装置であって、この制御装置は、上記のいずれかの対象認識装置と、前記認識部における認識結果に基づいて、制御信号を生成する制部とを備えている。   Still another aspect of the present invention is a control device, which includes any one of the object recognition devices described above and a control unit that generates a control signal based on a recognition result in the recognition unit. ing.

この構成により、対象の位置、形状、数等を正確に反映した制御信号を生成できる。   With this configuration, it is possible to generate a control signal that accurately reflects the position, shape, number, and the like of the target.

本発明のさらに別の態様は、特定色を有する対象を認識する対象認識方法であって、この方法は、撮影により対象のカラー画像を生成するとともに、対象に赤外線を照射して、入射する赤外線の強度に応じた赤外線画像を生成する画像生成ステップと、前記カラー画像における前記特定色の領域を検出する特定色検出ステップと、前記赤外線画像に基づいて、赤外線強度の強い領域を検出する赤外線領域検出ステップと、前記特定色検出ステップにおける領域検出の結果及び前記領域検出ステップにおける領域検出の結果に基づいて、前記対象の認識結果を出力する認識ステップとを含んでいる。   Still another aspect of the present invention is an object recognition method for recognizing an object having a specific color. The method generates a color image of an object by photographing, and irradiates the object with infrared rays to make incident infrared rays. An image generation step for generating an infrared image according to the intensity of the image, a specific color detection step for detecting the specific color region in the color image, and an infrared region for detecting a region with a high infrared intensity based on the infrared image A detection step, and a recognition step of outputting a recognition result of the object based on a result of region detection in the specific color detection step and a region detection result in the region detection step.

本発明のさらに別の態様は、特定色を有する対象を認識する対象認識方法であって、この方法は、第1のカラーカメラ及び第2のカラーカメラによりそれぞれ撮影して、第1のカラー画像及び第2のカラー画像を生成する画像生成ステップと、前記第1のカラー画像における前記特定色の領域を検出する特定色検出ステップと、前記第1のカラー画像及び前記第2のカラー画像の視差に基づいて、距離画像を生成する距離推定ステップと、前記特定色検出ステップにおける領域検出の結果及び前記距離推定ステップにて生成された距離画像に基づいて、前記対象の認識結果を出力する認識ステップとを含んでいる。   Still another aspect of the present invention is an object recognition method for recognizing an object having a specific color, which is obtained by photographing with a first color camera and a second color camera, respectively. And an image generation step for generating a second color image, a specific color detection step for detecting the specific color region in the first color image, and a parallax between the first color image and the second color image A distance estimation step for generating a distance image, and a recognition step for outputting the recognition result of the object based on the result of area detection in the specific color detection step and the distance image generated in the distance estimation step. Including.

本発明のさらに別の態様は、対象を認識する対象認識方法であって、この方法は、対象に赤外線を照射して、第1の赤外線カメラ及び第2の赤外線カメラを用いて、それぞれ入射する赤外線の強度に応じた第1の赤外線画像及び第2の赤外線画像を生成する画像生成ステップと、前記第1の赤外線画像に基づいて、赤外線強度の強い領域を検出する赤外線領域検出ステップと、前記第1の赤外線画像及び前記第2の赤外線画像の視差に基づいて、距離画像を生成する距離推定ステップと、前記特定色検出ステップにおける領域検出の結果及び前記距離推定ステップにて生成された距離画像に基づいて、前記対象の認識結果を出力する認識ステップとを含んでいる。   Still another aspect of the present invention is an object recognition method for recognizing an object. The method irradiates an object with infrared rays, and enters each using a first infrared camera and a second infrared camera. An image generation step of generating a first infrared image and a second infrared image according to the intensity of the infrared; an infrared region detection step of detecting a region having a high infrared intensity based on the first infrared image; A distance estimation step for generating a distance image based on the parallax between the first infrared image and the second infrared image, a result of area detection in the specific color detection step, and a distance image generated in the distance estimation step And a recognition step for outputting a recognition result of the object.

本発明のさらに別の態様は、プログラムであって、このプログラムは、コンピュータにて実行されることにより、コンピュータに、上記のいずれかの方法を行わせる。   Still another aspect of the present invention is a program, which is executed by a computer to cause the computer to perform any of the above methods.

本発明によれば、装置の大型化及びコストの上昇を抑えつつ、画像から正確に対象を認識できる。   According to the present invention, an object can be accurately recognized from an image while suppressing an increase in size and cost of the apparatus.

本発明の第1の実施の形態における制御装置の全体構成を示すブロック図The block diagram which shows the whole structure of the control apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における対象認識装置の撮像部の外観正面図1 is an external front view of an imaging unit of an object recognition device according to a first embodiment of the present invention. 本発明の第1の実施の形態におけるカラー画像の例を示す図The figure which shows the example of the color image in the 1st Embodiment of this invention 本発明の第1の実施の形態における検出された肌色領域の例を示す図The figure which shows the example of the detected skin color area | region in the 1st Embodiment of this invention 本発明の第1の実施の形態における輪郭抽出処理を行って得られた輪郭を示す図The figure which shows the outline obtained by performing the outline extraction process in the 1st Embodiment of this invention 本発明の第1の実施の形態における抽出された輪郭を示す図The figure which shows the extracted outline in the 1st Embodiment of this invention 本発明の第1の実施の形態における指抽出の結果を示す図The figure which shows the result of the finger extraction in the 1st Embodiment of this invention 本発明の第1の実施の形態における指を抽出する処理を説明するための図The figure for demonstrating the process which extracts the finger | toe in the 1st Embodiment of this invention 本発明の第1の実施の形態における指の判定を行った結果を示す図The figure which shows the result of having performed the determination of the finger in the 1st Embodiment of this invention 本発明の第1の実施の形態における指先に楕円をフィッティングした結果を示す図The figure which shows the result of having fitted the ellipse to the fingertip in the 1st Embodiment of this invention 本発明の第1の実施の形態における手の輪郭を構成する画素を走査したときの角度Θiの変化を示すグラフThe graph which shows the change of angle (theta) i when scanning the pixel which comprises the outline of the hand in the 1st Embodiment of this invention 本発明の第1の実施の形態における赤外線画像の例を示す図The figure which shows the example of the infrared image in the 1st Embodiment of this invention 本発明の第1の実施の形態における検出された赤外線領域の例を示す図The figure which shows the example of the infrared region detected in the 1st Embodiment of this invention 本発明の第1の実施の形態における輪郭抽出処理を行って得られた輪郭を示す図The figure which shows the outline obtained by performing the outline extraction process in the 1st Embodiment of this invention 本発明の第1の実施の形態における抽出された輪郭を示す図The figure which shows the extracted outline in the 1st Embodiment of this invention 本発明の第1の実施の形態における指抽出の結果を示す図The figure which shows the result of the finger extraction in the 1st Embodiment of this invention 本発明の第2の実施の形態の制御装置の全体構成を示すブロック図The block diagram which shows the whole structure of the control apparatus of the 2nd Embodiment of this invention. 本発明の第3の実施の形態の制御装置の全体構成を示すブロック図The block diagram which shows the whole structure of the control apparatus of the 3rd Embodiment of this invention. 本発明の第3の実施の形態における対象認識装置の撮像部の外観正面図External appearance front view of the imaging part of the object recognition apparatus in the 3rd Embodiment of this invention 本発明の第3の実施の形態における第1のカラー画像の例を示す図The figure which shows the example of the 1st color image in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における検出された肌色領域の例を示す図The figure which shows the example of the detected skin color area | region in the 3rd Embodiment of this invention 本発明の第3の実施の形態における肌色領域のうち距離の遠い領域を排除した結果を示す図The figure which shows the result of having excluded the distant area | region among the skin color area | regions in the 3rd Embodiment of this invention. 本発明の第4の実施の形態の制御装置の全体構成を示すブロック図The block diagram which shows the whole structure of the control apparatus of the 4th Embodiment of this invention. 本発明の第4の実施の形態における対象認識装置の撮像部の外観正面図External appearance front view of the imaging part of the object recognition apparatus in the 4th Embodiment of this invention 本発明の第4の実施の形態における第1の赤外線画像の例を示す図The figure which shows the example of the 1st infrared image in the 4th Embodiment of this invention 本発明の第4の実施の形態における検出された赤外線領域の例を示す図The figure which shows the example of the infrared region detected in the 4th Embodiment of this invention 本発明の第4の実施の形態における赤外線領域のうち距離の遠い領域を排除した結果を示す図The figure which shows the result of having excluded the area | region with a long distance among the infrared rays area | regions in the 4th Embodiment of this invention.

以下、本発明の実施の形態の対象認識装置及びそれを備えた制御装置について、図面を参照しながら説明する。以下では、人の手の指の数を認識する対象認識装置と、対象認識装置の認識結果に基づいてコンピュータを操作するための制御信号を生成する制御部とを備えた制御装置を例として説明する。この制御装置は、コンピュータに対するインターフェースとして用いることができる。   Hereinafter, an object recognition device and a control device including the same according to an embodiment of the present invention will be described with reference to the drawings. In the following, a control device including an object recognition device that recognizes the number of fingers of a human hand and a control unit that generates a control signal for operating the computer based on the recognition result of the object recognition device will be described as an example. To do. This control device can be used as an interface to a computer.

(第1の実施の形態)
図1は、第1の実施の形態の制御装置の全体構成を示すブロック図である。制御装置1は、対象認識装置100と制御部50とからなる。対象認識装置100は、肌色の人の手を認識する。対象認識装置100は、カラーカメラ11と、肌色領域検出部12と、輪郭抽出部13と、指抽出部14とを備えている。この構成により、カラーカメラ11で撮影して得られたカラー画像から手の指を抽出する。対象認識装置100は、さらに、赤外線ランプ20と、赤外線カメラ15と、赤外線領域検出部16と、輪郭検出部17と、指抽出部18とを備えている。この構成により、赤外線カメラ15で撮影して得られた赤外線画像から手の指を抽出する。
(First embodiment)
FIG. 1 is a block diagram illustrating the overall configuration of the control device according to the first embodiment. The control device 1 includes an object recognition device 100 and a control unit 50. The object recognition apparatus 100 recognizes a human hand of skin color. The object recognition device 100 includes a color camera 11, a skin color area detection unit 12, a contour extraction unit 13, and a finger extraction unit 14. With this configuration, a finger of a hand is extracted from a color image obtained by photographing with the color camera 11. The object recognition apparatus 100 further includes an infrared lamp 20, an infrared camera 15, an infrared region detection unit 16, a contour detection unit 17, and a finger extraction unit 18. With this configuration, the finger of the hand is extracted from the infrared image obtained by photographing with the infrared camera 15.

図2は、対象認識装置100の撮像部21の外観正面図である。図2において、レンズ201は、カラーカメラ11のレンズであり、レンズ202は、赤外線カメラ15のレンズである。赤外線カメラ15のレンズ202には、可視光カットフィルタが被せられる。赤外線カメラ15のレンズ202の周囲には、赤外光を発光する複数の赤外線ランプ20としての赤外線LED203が配置されている。図2に示すように、対象認識装置100において、カラーカメラ11と赤外線カメラ15とは、近接して設けられている。これにより、カラーカメラ11の撮像画像と赤外線カメラ15の撮像画像とでは、画像内のほぼ同一の位置において同一の被写体部分を撮像したものとなる。ユーザは、撮像部21が自らの手を撮影できるように、撮像部21に対して手をかざす。   FIG. 2 is an external front view of the imaging unit 21 of the object recognition device 100. In FIG. 2, a lens 201 is a lens of the color camera 11, and a lens 202 is a lens of the infrared camera 15. The lens 202 of the infrared camera 15 is covered with a visible light cut filter. Around the lens 202 of the infrared camera 15, infrared LEDs 203 as a plurality of infrared lamps 20 that emit infrared light are arranged. As shown in FIG. 2, in the object recognition apparatus 100, the color camera 11 and the infrared camera 15 are provided close to each other. As a result, the captured image of the color camera 11 and the captured image of the infrared camera 15 are obtained by capturing the same subject portion at substantially the same position in the image. The user holds his / her hand over the imaging unit 21 so that the imaging unit 21 can photograph his / her hand.

図1に戻って、カラーカメラ11は、ユーザの手を撮影することによりカラー画像を生成する。このために、カラーカメラ11は、光電変換素子が2次元配列された撮像素子を有している。撮像素子には、レンズ等を介して外部の光が入射する。カラーカメラ11は、各画素について、入射した光を光電変換して、RBGデータを生成し、これをカラー画像として出力する。図3Aは、カラー画像の例を示す図である。図3Aの例では、ユーザは、撮像部21に右手をかざしている。また、図3Aの例では、ユーザの手の他に、ユーザの顔や首、及び背景も撮影されている。   Returning to FIG. 1, the color camera 11 generates a color image by photographing the user's hand. For this purpose, the color camera 11 has an image sensor in which photoelectric conversion elements are two-dimensionally arranged. External light is incident on the image sensor via a lens or the like. The color camera 11 photoelectrically converts incident light for each pixel to generate RBG data, and outputs this as a color image. FIG. 3A is a diagram illustrating an example of a color image. In the example of FIG. 3A, the user holds the right hand over the imaging unit 21. In the example of FIG. 3A, the user's face, neck, and background are also photographed in addition to the user's hand.

肌色領域検出部12は、カラーカメラ11にて生成されたカラー画像における肌色の領域を検出する。具体的には、肌色領域検出部12は、非特許文献2にあるように、カラーカメラ11から出力されたカラー画像であるRGBデータをLUVデータに変換し、LUV空間において所定の閾値の範囲内にある値を持つ領域を肌色領域として検出する。図3Bは、図3Aのカラー画像に対して、肌色領域検出部12において肌色検出を行った結果、検出された肌色領域の例を示す図である。図3Bの例では、ユーザの手の人差し指部分は背景の肌色部分と一体となって肌色領域として検出されている。また、図3Bの例では、ユーザの手のほか、ユーザの顔や首、及び背景の肌色の物体も肌色領域として検出されている。   The skin color area detection unit 12 detects a skin color area in the color image generated by the color camera 11. Specifically, as described in Non-Patent Document 2, the skin color area detection unit 12 converts RGB data, which is a color image output from the color camera 11, into LUV data, and within a predetermined threshold range in the LUV space. An area having a certain value is detected as a skin color area. FIG. 3B is a diagram illustrating an example of a skin color region detected as a result of skin color detection performed on the color image of FIG. 3A by the skin color region detection unit 12. In the example of FIG. 3B, the index finger part of the user's hand is detected as a skin color area together with the skin color part of the background. In the example of FIG. 3B, the user's hand, the user's face and neck, and the skin color object in the background are also detected as the skin color region.

輪郭抽出部13は、肌色領域検出部12にて検出された肌色領域の輪郭を求め、そこから手の輪郭を抽出する。ここで、輪郭を示すデータは、輪郭を構成する画素が順序付けされたデータである。このデータにおいて、任意の一の画素と順序が連続する画素は、当該一の画素を取り囲む8つの画素のいずれかである。なお、輪郭を示すデータは、輪郭を構成する画素の座標値を順序に従って並べたベクトルの形式で表される。   The contour extracting unit 13 obtains the contour of the skin color region detected by the skin color region detecting unit 12 and extracts the contour of the hand therefrom. Here, the data indicating the contour is data in which the pixels constituting the contour are ordered. In this data, a pixel whose order is continuous with any one pixel is one of eight pixels surrounding the one pixel. The data indicating the contour is represented in the form of a vector in which the coordinate values of the pixels constituting the contour are arranged in order.

図3Cは、肌色領域検出部12にて検出された図3Bの肌色領域について、輪郭抽出処理を行って得られた輪郭を示す図である。図3Bの例では、一部に背景を含む手、顔及び首、及び背景の物体がそれぞれ肌色領域として検出されているので、これに従って輪郭抽出部13においても肌色領域として検出された一部に背景を含む手、顔及び首、及び背景の物体の領域の輪郭が求められる。   FIG. 3C is a diagram illustrating a contour obtained by performing contour extraction processing on the skin color region of FIG. 3B detected by the skin color region detection unit 12. In the example of FIG. 3B, the hand, face and neck including the background in part, and the background object are detected as the skin color area, and accordingly, the contour extraction unit 13 also detects the part as the skin color area accordingly. The contours of the hand, face and neck, including the background, and the background object area are determined.

輪郭抽出部13は、このようにして求められた輪郭から、手の領域の輪郭以外の輪郭を排除するために、まず、各輪郭の全長を求める。そして、全長が最も長いものを手の輪郭として抽出する。図3Dは、全長が最も長いものとして抽出された輪郭を示す図である。即ち、図3Dでは、一部に背景を含む手の輪郭が抽出されており、この段階で、顔及び首や背景の一部の肌色領域は排除されている。輪郭抽出部13は、図3Dの輪郭を示すデータを指抽出部14に出力する。   The contour extraction unit 13 first obtains the total length of each contour in order to exclude contours other than the contour of the hand region from the contour thus obtained. And the thing with the longest total length is extracted as a hand outline. FIG. 3D is a diagram showing an outline extracted as having the longest overall length. That is, in FIG. 3D, the outline of the hand partially including the background is extracted, and at this stage, the skin color region of the face, the neck, and the background is excluded. The contour extracting unit 13 outputs data indicating the contour of FIG. 3D to the finger extracting unit 14.

指抽出部14は、輪郭抽出部13にて抽出された手の輪郭に基づいて、指の形状及び位置の情報を含む抽出結果を出力する。図4A〜図4C及び図5は、指を抽出する処理を説明するための図である。図4A〜図4Cは、輪郭抽出部13にて抽出された手の輪郭の指先部分を拡大したものである。図4A〜図4Cにおいて、1つの点は、1つの画素を示している。上記のように、輪郭を示すデータでは、画素の座標値が順序付けられて並んでいる。指抽出部14は、輪郭を構成する画素をこの順序に従って順に走査していく。図4Aに示すように、指抽出部14は、注目する第i番目の画素Cと、その画素から一定の数d(図4Aの例では、d=30)だけ前の順序の画素Ci−dとを結ぶ線と、画素Cと、その画素からdだけ後の順序の画素Ci+dとを結ぶ線とがなす角の角度Θを求める。 The finger extraction unit 14 outputs an extraction result including information on the shape and position of the finger based on the hand contour extracted by the contour extraction unit 13. 4A to 4C and FIG. 5 are diagrams for explaining processing for extracting a finger. 4A to 4C are enlarged views of the fingertip portion of the contour of the hand extracted by the contour extracting unit 13. 4A to 4C, one point represents one pixel. As described above, in the data indicating the contour, the coordinate values of the pixels are arranged in order. The finger extraction unit 14 sequentially scans the pixels constituting the contour according to this order. As shown in FIG. 4A, the finger extraction unit 14, and the i-th pixel C i of interest, (in the example of FIG. 4A, d = 30) fixed number d from the pixel by pixel C i of pre-order An angle Θ i of an angle formed by a line connecting −d , a pixel C i, and a line connecting pixel C i + d in the order after d by that pixel is obtained.

そして、指抽出部14は、角度Θが所定の閾値(例えば、70度)を下回る否かを判定する。図4Bは、このようにして角度Θを順に判定していった結果を示す図である。図4Bの例では、上部の合計11個の画素(点を○で囲んだ画素)が上記の条件を満たしている。指抽出部14は、このようにして注目画素Cの角度Θが閾値を下回るか否かを判定しながら輪郭を走査していき、最終的に角度Θが閾値を下回る画素Cが5以上連続した箇所があればその箇所を指先であると判断する。図4Bの例では、上記の条件を満たす画素が11個連続しているので、この部分を指先と判断する。なお、本実施の形態では、指先と判断するための角度Θが閾値を下回る連続した画素Cの数を5としたが、この数は5に限られない。 Then, the finger extraction unit 14 determines whether or not the angle Θ i is below a predetermined threshold (for example, 70 degrees). FIG. 4B is a diagram showing a result of sequentially determining the angle Θ i in this way. In the example of FIG. 4B, a total of 11 pixels (pixels surrounded by a circle) satisfy the above condition. Finger extraction unit 14, thus to continue to scan the contour while determining whether the angle theta i of the pixel of interest C i is below the threshold, the pixel C i finally angle theta i is below a threshold If there are five or more consecutive locations, the location is determined to be the fingertip. In the example of FIG. 4B, since 11 pixels satisfying the above condition are continuous, this portion is determined as the fingertip. In the present embodiment, the number of consecutive pixels C i whose angle Θ i for determining the fingertip is less than the threshold is five, but this number is not limited to five.

図5は、手の輪郭を構成する画素Cを順次走査しながら5本の指を検出したときの、角度Θの変化を示すグラフである。このグラフでは、横軸に輪郭における位置iをとり、縦軸に角度Θをとってある。図5の例では、閾値を85度としてある。この閾値を下回る5つの谷部分(図5中の○で囲った部分)が指の先端部分に相当する。なお、輪郭線は1周する閉曲線であるので、図5のグラフの左隅と右隅とは輪郭線上の同一点を表している。 FIG. 5 is a graph showing a change in the angle Θ i when five fingers are detected while sequentially scanning the pixels C i constituting the contour of the hand. In this graph, the position i in the contour is taken on the horizontal axis, and the angle Θ i is taken on the vertical axis. In the example of FIG. 5, the threshold is set to 85 degrees. Five valley portions below this threshold (portions surrounded by circles in FIG. 5) correspond to the tip portion of the finger. Since the contour line is a closed curve that makes one round, the left corner and the right corner of the graph of FIG. 5 represent the same point on the contour line.

指抽出部14は、指先を見つけ出すと、指先と判断された部分で楕円のフィッティングを行う。具体的には、指抽出部14は、角度Θが閾値を下回る連続する画素C及びその周囲の何点かと最もよくフィッティングする楕円を設定する。図4Cは、楕円をフィッティングした結果を示す図である。指抽出部14は、フィッティングされた楕円の長辺、短辺の長さ及びそれらの比が所定の閾値の範囲内にある場合に、この楕円がフィッティングされた部分を指(の先端)であると判断する。楕円が大きすぎたり、扁平しすぎていたりする場合には、指でない部分を誤検出した可能性が高いため、この場合は指とは判断しない。 When the finger extraction unit 14 finds the fingertip, the finger extraction unit 14 performs ellipse fitting at the portion determined to be the fingertip. Specifically, the finger extraction unit 14 sets an ellipse that best fits the continuous pixel C i in which the angle Θ i is less than the threshold and some points around it. FIG. 4C is a diagram illustrating a result of fitting an ellipse. When the long side, the short side length, and the ratio of the fitted ellipse are within a predetermined threshold range, the finger extraction unit 14 is the finger (tip) of the part to which the ellipse is fitted. Judge. If the ellipse is too large or flat, there is a high possibility that a part that is not a finger has been erroneously detected. In this case, it is not determined to be a finger.

指抽出部14は、上記の処理をすべての指について行う。図3Eは、指抽出部14による指抽出の結果を示す図である。図3Eに示すように、人差し指の輪郭が背景の長方形領域に吸収されてしまっている部分については、角度Θが閾値を下回る画素Cが5以上連続するという上記の条件を満たさないので、指とは検出されていない。指抽出部14は、指先にフィッティングした楕円の位置(中心の座標)と形状(長軸及び短軸の長さ及び方向)を表すデータを認識部19に出力する。 The finger extraction unit 14 performs the above process for all fingers. FIG. 3E is a diagram illustrating a result of finger extraction by the finger extraction unit 14. As shown in FIG. 3E, for the part where the outline of the index finger has been absorbed by the rectangular region of the background, the above condition that the pixels C i whose angle Θ i is less than the threshold value continues 5 or more does not satisfy the above condition. The finger is not detected. The finger extraction unit 14 outputs data representing the position (center coordinate) and shape (length and direction of the major axis and minor axis) of the ellipse fitted to the fingertip to the recognition unit 19.

対象認識装置100は、さらに、赤外線カメラ15と、赤外線領域検出部16と、輪郭抽出部17と、指抽出部18とを備えている。赤外線カメラ15は、赤外線ランプ20が、赤外線カメラ15の撮影方向に向けて赤外線を照射している状態で、入射する赤外線の強度に応じた赤外線画像を生成する。赤外線カメラ15は、カラーカメラ11と同じサイズ、同じ画素数の撮像素子を有しており、カラーカメラ11と同時に被写体を撮影する。カラーカメラ11と同様に、赤外線カメラ15はレンズを備えており、レンズを通過した赤外線が撮像素子に入射するように構成されている。赤外線カメラ15は、さらにレンズの前面に可視光カットフィルタを有しており、可視光はレンズを通して撮像素子に至らないように構成されている。撮像素子は、入射した赤外線を光電変換して、赤外線強度に応じた画素値を持つ各画素のデータを赤外線画像として出力する。   The object recognition device 100 further includes an infrared camera 15, an infrared region detection unit 16, a contour extraction unit 17, and a finger extraction unit 18. The infrared camera 15 generates an infrared image corresponding to the intensity of incident infrared light in a state where the infrared lamp 20 is irradiating infrared light in the shooting direction of the infrared camera 15. The infrared camera 15 has an image sensor having the same size and the same number of pixels as the color camera 11, and photographs a subject simultaneously with the color camera 11. Similar to the color camera 11, the infrared camera 15 includes a lens, and is configured such that infrared light that has passed through the lens enters the imaging device. The infrared camera 15 further has a visible light cut filter on the front surface of the lens, and is configured so that visible light does not reach the image sensor through the lens. The image sensor photoelectrically converts incident infrared rays and outputs data of each pixel having a pixel value corresponding to the infrared intensity as an infrared image.

図6Aは、図3のカラー画像と同時に撮像された赤外線画像を示す図である。図6Aの例では、ユーザの手、腕の一部、背景の一部(部屋に入り込んだ外光に照らされた壁)の領域において赤外線強度が比較的強い赤外線画像が得られている。なお、図6Aの例では便宜上、比較的赤外線強度の強い領域を輪郭で囲って示したが、実際には赤外線画像における各画素は赤外線強度に応じた画素値を持っている。なお、赤外線強度に対して色温度を定義して、赤外線画像を色温度で表現すると理解しやすくなる。また、上述のように、赤外線カメラ15の付近からは赤外線の撮像方向に赤外光が発光されているが、この赤外光はそれほど強くなく、ある程度の距離だけ離れれば、そこからの反射赤外光は、撮像素子でほとんど感知されなくなる。   FIG. 6A is a diagram showing an infrared image captured simultaneously with the color image of FIG. In the example of FIG. 6A, an infrared image having a relatively strong infrared intensity is obtained in the areas of the user's hand, part of the arm, and part of the background (wall illuminated by outside light entering the room). In the example of FIG. 6A, for the sake of convenience, a region having a relatively high infrared intensity is surrounded by an outline, but each pixel in the infrared image actually has a pixel value corresponding to the infrared intensity. It is easy to understand if the color temperature is defined for the infrared intensity and the infrared image is expressed by the color temperature. Further, as described above, infrared light is emitted from the vicinity of the infrared camera 15 in the infrared imaging direction, but this infrared light is not so strong, and if it is separated by a certain distance, the reflected red light from there is reflected. External light is hardly detected by the image sensor.

赤外線領域検出部16は、赤外線カメラ15で生成された赤外線画像に基づいて、赤外線強度の強い領域(以下、「赤外線領域」という)を検出する。具体的には、赤外線領域検出部16は、赤外線画像において画素値が所定の閾値を超える領域を赤外線領域として検出する。図6Bは、図6Aの赤外線画像に対して、赤外線領域検出を行った結果、検出された赤外線領域の例を示す図である。図6Bの例では、ユーザの手のほか、ユーザの腕の一部、背景の一部(外光に照らされた壁)が赤外線領域として検出されている。   The infrared region detection unit 16 detects a region having a high infrared intensity (hereinafter referred to as “infrared region”) based on the infrared image generated by the infrared camera 15. Specifically, the infrared region detection unit 16 detects, as an infrared region, a region where the pixel value exceeds a predetermined threshold in the infrared image. FIG. 6B is a diagram illustrating an example of an infrared region detected as a result of performing infrared region detection on the infrared image of FIG. 6A. In the example of FIG. 6B, in addition to the user's hand, a part of the user's arm and a part of the background (a wall illuminated by outside light) are detected as an infrared region.

輪郭抽出部17は、赤外線領域検出部16にて検出された領域の輪郭を求め、そこから手の輪郭を抽出する。輪郭抽出部17における処理は、輪郭抽出部13における処理と同じである。図6Cは、赤外線領域検出部16にて検出された図6Bの赤外線領域について、輪郭抽出処理を行って得られた輪郭を示す図である。図6Dは、輪郭抽出部17が、求めた輪郭のうち、全長の短い輪郭を排除して抽出された輪郭を示す図である。腕部分及び背景の一部の赤外線領域は、その輪郭の全長が比較的短いので、手の輪郭としては抽出されていない。輪郭抽出部17は、図6Dの輪郭を示すデータを指抽出部18に出力する。   The contour extracting unit 17 obtains the contour of the region detected by the infrared region detecting unit 16 and extracts the contour of the hand therefrom. The processing in the contour extraction unit 17 is the same as the processing in the contour extraction unit 13. FIG. 6C is a diagram illustrating a contour obtained by performing contour extraction processing on the infrared region of FIG. 6B detected by the infrared region detection unit 16. FIG. 6D is a diagram showing the contour extracted by the contour extracting unit 17 by removing a contour having a short overall length from the obtained contours. The infrared region of the arm portion and part of the background is not extracted as the hand contour because the entire length of the contour is relatively short. The contour extracting unit 17 outputs data indicating the contour of FIG. 6D to the finger extracting unit 18.

指抽出部18は、輪郭抽出部17にて抽出された手の輪郭に基づいて、指の形状及び位置の情報を含む抽出結果を出力する。指抽出部18が指を抽出する処理も、指抽出部14における処理と同じであるので、説明を省略する。図6Eは、指抽出部18による指抽出の結果を示す図である。なお、ここでは、人差し指の先に楕円がフィッティングされている。指抽出部18は、指先にフィッティングした楕円の位置(中心の座標)と形状(長軸及び短軸の長さ及び向き)を表すデータを認識部19に出力する。   The finger extraction unit 18 outputs an extraction result including information on the shape and position of the finger based on the hand contour extracted by the contour extraction unit 17. The process of extracting the finger by the finger extraction unit 18 is also the same as the process of the finger extraction unit 14 and will not be described. FIG. 6E is a diagram illustrating a result of finger extraction by the finger extraction unit 18. Here, an ellipse is fitted to the tip of the index finger. The finger extraction unit 18 outputs data representing the position (center coordinate) and shape (length and orientation of the major axis and minor axis) of the ellipse fitted to the fingertip to the recognition unit 19.

認識部19は、指抽出部14における抽出結果及び指抽出部18における抽出結果を考慮して、最終的な指の認識を行い、認識結果として指の数の情報を出力する。認識部19が2つの抽出結果に基づいて認識結果を得る方法は様々考えられる。例えば、上記の例では、人差し指を除く他の4本の指については、カラーカメラ11のカラー画像から検出された指と、赤外線カメラ15の赤外線画像から検出された指とは、ほぼ一致しているが、人差し指については、赤外線画像のみで抽出され、カラー画像では抽出されていない。このような場合には、本実施の形態の認識部19は、少なくとも一方の抽出結果で抽出されている指をユーザの指であると認識する。他の例の認識部19は、両方の抽出結果で抽出されている指のみをユーザの指であると認識する。さらに他の例の認識部19は、両方の抽出結果で抽出されている指をユーザの指であると認識するとともに、一方の抽出結果でしか抽出されていない指については、それが所定の条件を満たした場合に、それを指であると認識する。例えば、両方の検出結果で検出されている他の指先と当該一方の抽出結果のみで抽出されている指先との位置関係が所定の条件を満たすときに、それをユーザの指であると認識する。   The recognition unit 19 performs final finger recognition in consideration of the extraction result in the finger extraction unit 14 and the extraction result in the finger extraction unit 18, and outputs information on the number of fingers as the recognition result. There are various ways in which the recognition unit 19 obtains a recognition result based on two extraction results. For example, in the above example, for the other four fingers excluding the index finger, the finger detected from the color image of the color camera 11 and the finger detected from the infrared image of the infrared camera 15 are substantially the same. However, the index finger is extracted only by the infrared image and not by the color image. In such a case, the recognition unit 19 of the present embodiment recognizes that the finger extracted from at least one extraction result is the user's finger. The recognition unit 19 in another example recognizes only the finger extracted from both extraction results as the user's finger. Furthermore, the recognition unit 19 of another example recognizes that the finger extracted in both extraction results is the user's finger, and for a finger extracted only in one extraction result, the predetermined condition is satisfied. If it is satisfied, it is recognized as a finger. For example, when the positional relationship between the other fingertip detected from both detection results and the fingertip extracted only from the one extraction result satisfies a predetermined condition, it is recognized as a user's finger. .

また、認識部19は、キャリブレーション機能を用いて、2つの抽出結果に基づいて認識結果を得てもよい。この場合は、予め、ユーザに指を1本から5本まで順に提示してもらって、また、複数の制御信号の各々に応じた形状及び位置で手を提示してもらい、これらをカラーカメラ11及び赤外線カメラ15でそれぞれ撮影して、カラー画像及び赤外線画像を生成する。そして、認識部19は、これらのカラー画像及び赤外線画像を所定の指の本数に対応する標準の情報として記憶しておく。認識部19は、2つの抽出結果に基づいて指の認識を行う場合には、2つの抽出結果をそれぞれの標準の情報と比較して、より標準の情報に近いほうの検出結果を採用する。認識部19は、以上で説明した方法以外の方法で2つの抽出結果に基づいて指の認識を行ってよい。   The recognition unit 19 may obtain a recognition result based on two extraction results using a calibration function. In this case, the user is asked to present one to five fingers in order, and the hand is presented in a shape and position corresponding to each of the plurality of control signals. Each image is captured by the infrared camera 15 to generate a color image and an infrared image. And the recognition part 19 memorize | stores these color images and infrared images as standard information corresponding to the number of predetermined fingers. When the recognition unit 19 recognizes the finger based on the two extraction results, the recognition unit 19 compares the two extraction results with the respective standard information, and adopts the detection result closer to the standard information. The recognition unit 19 may perform finger recognition based on the two extraction results by a method other than the method described above.

制御部50は、指の本数に応じた制御信号を生成して出力する。この制御信号はコンピュータに送られて、コンピュータの操作を制御することになる。例えば、制御部50は、指の本数がゼロ(手を握り締めている状態)の場合は、マウスをホールドする制御信号を出力し、指の本数が5本の場合はマウスをリリースする制御信号を出力する。このような指の本数と制御信号との対応付けも種々の実施の形態が考えられる。   The control unit 50 generates and outputs a control signal corresponding to the number of fingers. This control signal is sent to the computer to control the operation of the computer. For example, the control unit 50 outputs a control signal for holding the mouse when the number of fingers is zero (a state where the hand is clasped), and outputs a control signal for releasing the mouse when the number of fingers is five. Output. Various embodiments can be considered for the correspondence between the number of fingers and the control signal.

なお、認識部19が指の本数と指先に設定した楕円の位置の情報を含む認識結果を出力して、制御部50がその認識結果に応じた制御信号を出力してもよい。この場合は、手を広げて縦にする場合と横にする場合とで異なる制御信号を生成できることになる。   The recognition unit 19 may output a recognition result including information on the number of fingers and the position of the ellipse set on the fingertip, and the control unit 50 may output a control signal corresponding to the recognition result. In this case, it is possible to generate different control signals depending on whether the hand is spread out vertically or horizontally.

以上のように、本実施の形態の対象認識装置100によれば、1つのカラーカメラと1つの赤外線カメラという安価かつ簡易な構造で、背景色等に係らず、正確に手の指を検出でき、制御装置1は、ユーザの手の形状や位置を正確に反映させた制御信号を生成できる。   As described above, according to the object recognition device 100 of the present embodiment, a finger of a hand can be accurately detected regardless of the background color or the like with an inexpensive and simple structure of one color camera and one infrared camera. The control device 1 can generate a control signal that accurately reflects the shape and position of the user's hand.

(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。図7は、本発明の第2の実施の形態の制御装置の全体構成を示すブロック図である。本実施の形態の制御装置2において、第1の実施の形態の制御装置1と同一の構成については、同一の符号を付して、適宜説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 7 is a block diagram showing the overall configuration of the control device according to the second embodiment of the present invention. In the control device 2 of the present embodiment, the same components as those of the control device 1 of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

制御装置2は、対象認識装置200と制御部50とからなる。対象認識装置200は、カラーカメラ11と、肌色領域検出部12と、赤外線カメラ15と、赤外線領域検出部16とを備えている。これらの構成は、第1の実施の形態の対応する部分の構成と同じである。本実施の形態の対象認識装置200は、肌色領域検出部12の検出結果と、赤外線領域検出部16の検出結果とに基づいて、ユーザの手の領域を検出する手領域検出部22を備えている。即ち、第1の実施の形態の対象認識装置100では、カラー画像と赤外線画像のそれぞれについて指を抽出した上で、認識部19にて2つの指抽出の結果を考慮して最終的な指の認識結果を得ていたが、本実施の形態では、カラー画像から肌色領域を検出して、赤外線画像から赤外線領域を検出して、それらの結果に基づいて、手領域を検出した上で、輪郭抽出、指抽出、認識という後続の処理を行う。   The control device 2 includes an object recognition device 200 and a control unit 50. The object recognition device 200 includes a color camera 11, a skin color area detection unit 12, an infrared camera 15, and an infrared area detection unit 16. These structures are the same as the structure of the corresponding part of 1st Embodiment. The object recognition device 200 according to the present embodiment includes a hand region detection unit 22 that detects the user's hand region based on the detection result of the skin color region detection unit 12 and the detection result of the infrared region detection unit 16. Yes. That is, in the object recognition apparatus 100 according to the first embodiment, after the finger is extracted for each of the color image and the infrared image, the recognition unit 19 considers the result of the two finger extractions, and the final finger recognition is performed. Although the recognition result has been obtained, in the present embodiment, the skin color region is detected from the color image, the infrared region is detected from the infrared image, and the hand region is detected based on the result, and then the contour is obtained. Subsequent processing of extraction, finger extraction, and recognition is performed.

手領域検出部22には、肌色領域検出部12にて検出された肌色の領域と、赤外線領域検出部16で検出された赤外線領域とがオーバラップする領域を手領域として検出する。即ち、手領域検出部22は、カラー画像及び赤外線画像のいずれにおいても検出された領域を手領域とする。なお、オーバラップする領域が複数ある場合には、面積の大きい方の領域のみを残して、面積の小さい方の領域を無視してもよいし、複数の領域をそのまま手領域として出力してもよい。   The hand region detection unit 22 detects a region where the skin color region detected by the skin color region detection unit 12 and the infrared region detected by the infrared region detection unit 16 overlap as a hand region. That is, the hand region detection unit 22 sets a region detected in both the color image and the infrared image as a hand region. When there are a plurality of overlapping regions, only the region with the larger area may be left and the region with the smaller area may be ignored, or the plurality of regions may be output as hand regions as they are. Good.

輪郭抽出部13は、第1の実施の形態の輪郭抽出部13、17と同様にして、手領域について輪郭を求め、それをユーザの手の輪郭として抽出する。ここで、手領域検出部22にて手領域として検出された領域が複数ある場合には、第1の実施の形態と同様に、全長が最も長い輪郭をユーザの手の輪郭として抽出する。指抽出部14も、第1の実施の形態の指抽出部14、18と同様にして指の検出を行い、検出された指に楕円をフィッティングして、指にフィッティングした楕円の情報を出力する。認識部23は、指抽出部14から得た楕円の情報に基づいて、認識結果として、指の数を含む情報を制御部50に出力する。但し、本実施の形態の認識部23は、第1の実施の形態の認識部19と異なり、複数の指抽出の結果から指の数等を判断する必要はなく、1つの指抽出の結果に基づいて、上記のキャリブレーション機能を利用するなどして指の数を認識する。制御部50は、第1の実施の形態と同様である。   The contour extracting unit 13 obtains the contour of the hand region in the same manner as the contour extracting units 13 and 17 of the first embodiment, and extracts it as the contour of the user's hand. Here, when there are a plurality of regions detected as hand regions by the hand region detecting unit 22, the contour having the longest overall length is extracted as the contour of the user's hand, as in the first embodiment. The finger extraction unit 14 also detects a finger in the same manner as the finger extraction units 14 and 18 of the first embodiment, fits an ellipse to the detected finger, and outputs information on the ellipse fitted to the finger. . Based on the ellipse information obtained from the finger extraction unit 14, the recognition unit 23 outputs information including the number of fingers to the control unit 50 as a recognition result. However, unlike the recognition unit 19 of the first embodiment, the recognition unit 23 of the present embodiment does not need to determine the number of fingers or the like from the results of a plurality of finger extractions. Based on this, the number of fingers is recognized by using the calibration function described above. The control unit 50 is the same as that in the first embodiment.

本実施の形態によっても、対象認識装置200は、1つのカラーカメラと1つの赤外線カメラという安価かつ簡易な構造で、背景色等に係らず、正確に手の指を検出でき、制御装置2は、ユーザの手の形状や位置を正確に反映させた制御信号を生成できる。また、本実施の形態では、輪郭抽出や指抽出の処理をカラー画像及び赤外線画像のそれぞれについて行う必要がないので、少ないリソースで対象を認識できる。   Also according to the present embodiment, the object recognition apparatus 200 has an inexpensive and simple structure of one color camera and one infrared camera, can accurately detect a finger of a hand regardless of the background color, etc. A control signal that accurately reflects the shape and position of the user's hand can be generated. Further, in the present embodiment, it is not necessary to perform contour extraction and finger extraction processing for each of the color image and the infrared image, so that the object can be recognized with fewer resources.

(第3の実施の形態)
次に、本発明の第3の実施の形態を説明する。図8は、本発明の第3の実施の形態の制御装置の全体構成を示すブロック図である。本実施の形態の制御装置3において、第1、第2の実施の形態の制御装置1、2と同一の構成については、同一の符号を付して、適宜説明を省略する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. FIG. 8 is a block diagram showing the overall configuration of the control device according to the third embodiment of the present invention. In the control device 3 of the present embodiment, the same components as those of the control devices 1 and 2 of the first and second embodiments are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

制御装置3は、対象認識装置300と制御部50とからなる。対象認識装置300は、第1のカラーカメラ11−1と、手領域検出部24と、第2のカラーカメラ11−2と、距離推定部25とを備えている。第1のカラーカメラ11−1と第2のカラーカメラ11−2は一体的に構成されている。   The control device 3 includes an object recognition device 300 and a control unit 50. The object recognition device 300 includes a first color camera 11-1, a hand region detection unit 24, a second color camera 11-2, and a distance estimation unit 25. The first color camera 11-1 and the second color camera 11-2 are integrally configured.

図9は、対象認識装置300の撮像部26の外観正面図である。レンズ201−1は、第1のカラーカメラ11−1のレンズであり、レンズ201−2は、第2のカラーカメラのレンズである。図9に示すように、対象認識装置300において、第1のカラーカメラ11−1と第2のからーカメラ11−2とは、近接して設けられている。これにより、第1のカラーカメラ11−1で得られたカラー画像(第1のカラー画像)と第2のカラーカメラ11−2で得られたカラー画像(第2のカラー画像)とでは、画像内のほぼ同一の位置において同一の被写体部分を撮像したものとなる。   FIG. 9 is an external front view of the imaging unit 26 of the object recognition device 300. The lens 201-1 is a lens of the first color camera 11-1, and the lens 201-2 is a lens of the second color camera. As shown in FIG. 9, in the object recognition apparatus 300, the first color camera 11-1 and the second camera 11-2 are provided close to each other. As a result, the color image (first color image) obtained by the first color camera 11-1 and the color image (second color image) obtained by the second color camera 11-2 are images. The same subject portion is imaged at substantially the same position.

第1のカラーカメラ11−1にて得られた第1のカラー画像は、手領域検出部24及び距離推定部25に入力される。第2のカラーカメラ11−2にて得られた第2のカラー画像は、距離推定部25に入力される。距離推定部25は、第1のカラー画像及び第2のカラー画像の視差に基づいて、ステレオ法により被写体までの距離を求めて、距離画像を生成する。距離画像とは、各画素の画素値がその画素に現れている被写体までの距離を表している画像である。   The first color image obtained by the first color camera 11-1 is input to the hand region detection unit 24 and the distance estimation unit 25. The second color image obtained by the second color camera 11-2 is input to the distance estimation unit 25. The distance estimation unit 25 obtains a distance to the subject by a stereo method based on the parallax between the first color image and the second color image, and generates a distance image. A distance image is an image in which the pixel value of each pixel represents the distance to the subject appearing at that pixel.

図10Aは、第1のカラーカメラ11−1にて撮像された第1のカラー画像の例を示す図である。このカラー画像には、ユーザの手と、その背景として天井(画像の上側)及び後方の壁(画像の下側)が写りこんでいる。手領域検出部24は、この第1のカラー画像に対して肌色の検出処理を行う。肌色の検出は、第1の実施例で説明したのと同様の方法で行う。図10Bは、手領域検出部24にて検出された肌色領域を示す図である。図10Bの例では、天井がユーザの手と重なって肌色領域として検出されている。   FIG. 10A is a diagram illustrating an example of a first color image captured by the first color camera 11-1. This color image includes the user's hand and the ceiling (upper side of the image) and the rear wall (lower side of the image) as the background. The hand region detection unit 24 performs skin color detection processing on the first color image. The skin color is detected by the same method as described in the first embodiment. FIG. 10B is a diagram illustrating a skin color area detected by the hand area detection unit 24. In the example of FIG. 10B, the ceiling overlaps with the user's hand and is detected as a skin color region.

手領域検出部24は、距離推測部25にて得られた距離画像を用いて、検出された肌色領域から手の部分のみを検出する。このために、手領域検出部24は、肌色領域として検出された領域のうち、距離画像における距離が閾値以上である領域を排除する。図10Bの例では、肌色として検出されている天井は距離が閾値以上であるため、排除される。図10Cは、肌色の領域のうち距離の遠い領域を排除した結果を示す図である。図10Cに示すように、肌色として検出された領域から、距離の遠い領域を排除した結果、ユーザの手の領域が天井の領域と切り離されて検出されている。   The hand region detection unit 24 detects only the hand portion from the detected skin color region using the distance image obtained by the distance estimation unit 25. For this reason, the hand region detection unit 24 excludes a region in which the distance in the distance image is equal to or greater than a threshold among the regions detected as the skin color region. In the example of FIG. 10B, the ceiling detected as skin color is excluded because the distance is equal to or greater than the threshold. FIG. 10C is a diagram illustrating a result of removing a far-field region from the skin-colored region. As shown in FIG. 10C, as a result of excluding the far-distant area from the area detected as the skin color, the user's hand area is detected separately from the ceiling area.

手領域検出部24は、上記のようにして、検出された手の部分のみの肌色領域を輪郭抽出部13に出力する。輪郭抽出部13は、この肌色領域から輪郭を抽出して、指抽出部14に出力する。指抽出部14は、手の輪郭から指の先端を抽出して、指の先端に楕円をフィッティングして、手の輪郭及び楕円の情報を認識部23に出力する。認識部23は、指抽出部14から得た情報を元に、指の数を認識して、認識結果を制御部50に出力する。   The hand region detection unit 24 outputs the skin color region of only the detected hand part to the contour extraction unit 13 as described above. The contour extracting unit 13 extracts a contour from the skin color region and outputs the contour to the finger extracting unit 14. The finger extraction unit 14 extracts the tip of the finger from the contour of the hand, fits an ellipse to the tip of the finger, and outputs the hand contour and ellipse information to the recognition unit 23. The recognition unit 23 recognizes the number of fingers based on the information obtained from the finger extraction unit 14 and outputs a recognition result to the control unit 50.

本実施の形態の対象認識装置300によれば、2つのカラーカメラという安価かつ簡易な構造で、背景色等に係らず、正確に手の指を検出でき、制御装置3は、ユーザの手の形や位置を正確に反映させた制御信号を生成できる。   According to the object recognition device 300 of the present embodiment, the finger of the hand can be accurately detected regardless of the background color or the like with an inexpensive and simple structure of two color cameras. A control signal accurately reflecting the shape and position can be generated.

(第4の実施の形態)
次に、本発明の第4の実施の形態を説明する。図11は、本発明の第4の実施の形態の制御装置の全体構成を示すブロック図である。本実施の形態の制御装置4において、第1、第2、第3の実施の形態の制御装置1、2、3と同一の構成については、同一の符号を付して、適宜説明を省略する。図11と図8とを比較して分かるように、本実施の形態の制御装置4は、第3の実施の形態の制御装置3の第1及び第2のカラーカメラ11−1、11−2が、第1及び第2の赤外線カメラ15−1、15−2に置き換わったものである。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. FIG. 11 is a block diagram showing an overall configuration of a control device according to the fourth embodiment of the present invention. In the control device 4 of the present embodiment, the same components as those of the control devices 1, 2, and 3 of the first, second, and third embodiments are denoted by the same reference numerals, and description thereof is omitted as appropriate. . As can be seen by comparing FIG. 11 and FIG. 8, the control device 4 of the present embodiment is the first and second color cameras 11-1, 11-2 of the control device 3 of the third embodiment. Is replaced with the first and second infrared cameras 15-1 and 15-2.

制御装置4は、対象認識装置400と制御部50とからなる。対象認識装置400は、第1の赤外線カメラ15−1と、手領域検出部27と、第2の赤外線カメラ15−2と、距離推定部25とを備えている。第1の赤外線カメラ15−1と第2の赤外線カメラ15−2は一体的に構成されている。   The control device 4 includes an object recognition device 400 and a control unit 50. The object recognition device 400 includes a first infrared camera 15-1, a hand region detection unit 27, a second infrared camera 15-2, and a distance estimation unit 25. The first infrared camera 15-1 and the second infrared camera 15-2 are integrally configured.

図12は、対象認識装置300の撮像部28の外観正面図である。レンズ202−1は、第1の赤外線カメラ15−1のレンズであり、レンズ202−2は、第2の赤外線カメラ15−2のレンズである。レンズ202−1及びレンズ202−2の周りには複数の赤外線LED203が配置されている。図12に示すように、対象認識装置300において、第1の赤外線カメラ15−1と第2の赤外線カメラ15−2とは、近接して設けられている。これにより、第1の赤外線カメラ15−1で得られた赤外線画像(第1の赤外線画像)と第2の赤外線カメラ15−2で得られた赤外線画像(第2の赤外線画像)とでは、画像内のほぼ同一の位置において同一の被写体部分を撮像したものとなる。   FIG. 12 is an external front view of the imaging unit 28 of the object recognition device 300. The lens 202-1 is a lens of the first infrared camera 15-1, and the lens 202-2 is a lens of the second infrared camera 15-2. A plurality of infrared LEDs 203 are arranged around the lens 202-1 and the lens 202-2. As shown in FIG. 12, in the object recognition apparatus 300, the first infrared camera 15-1 and the second infrared camera 15-2 are provided close to each other. Thereby, an infrared image (first infrared image) obtained by the first infrared camera 15-1 and an infrared image (second infrared image) obtained by the second infrared camera 15-2 are images. The same subject portion is imaged at substantially the same position.

第1の赤外線カメラ15−1にて得られた第1の赤外線画像は、手領域検出部27及び距離推定部25に入力される。第2の赤外線カメラ15−2にて得られた第2の赤外線画像は、距離推定部25に入力される。距離推定部25は、第1のカラー画像及び第2のカラー画像の視差に基づいて、ステレオ法により被写体までの距離を求めて、距離画像を生成する。   The first infrared image obtained by the first infrared camera 15-1 is input to the hand region detection unit 27 and the distance estimation unit 25. The second infrared image obtained by the second infrared camera 15-2 is input to the distance estimation unit 25. The distance estimation unit 25 obtains a distance to the subject by a stereo method based on the parallax between the first color image and the second color image, and generates a distance image.

図13Aは、第1の赤外線カメラ15−1にて撮像された第1の赤外線画像の例を示す図である。この赤外線画像では、ユーザの手と、顔と、上半身とが赤外線の強度の強い領域として撮像されている。図13Aでは、第1の実施の形態で説明した図6Aと同様に、便宜上、比較的赤外線強度の強い領域を輪郭で囲って示したが、実際には赤外線画像における各画素は赤外線強度に応じた画素値を持っている。   FIG. 13A is a diagram illustrating an example of a first infrared image captured by the first infrared camera 15-1. In this infrared image, the user's hand, face, and upper body are imaged as regions with high infrared intensity. In FIG. 13A, as in FIG. 6A described in the first embodiment, for convenience, a region having a relatively high infrared intensity is surrounded by an outline, but each pixel in the infrared image actually corresponds to the infrared intensity. Have a pixel value.

手領域検出部27は、この第1の赤外線画像に対して赤外線領域の検出処理を行う。赤外線領域の検出は、第1の実施例で説明したのと同様の方法で行う。図13Bは、手領域検出部27にて検出された赤外線領域を示す図である。図13Bの例では、ユーザの手と、顔の一部と上半身の一部とがすべて一体となって赤外線領域として検出されている。   The hand region detection unit 27 performs an infrared region detection process on the first infrared image. Detection of the infrared region is performed by the same method as described in the first embodiment. FIG. 13B is a diagram illustrating an infrared region detected by the hand region detection unit 27. In the example of FIG. 13B, the user's hand, part of the face, and part of the upper body are all detected as an infrared region.

手領域検出部27は、距離推定部25にて得られた距離画像を用いて、検出された赤外線領域から手の部分のみを検出する。このために、手領域検出部27は、赤外線領域として検出された領域のうち、距離画像における距離が閾値以上である領域を排除する。図13Bの例では、赤外線領域として検出されている顔及び上半身は距離が閾値以上であるため、排除される。図13Cは、赤外線領域のうち距離の遠い領域を排除した結果を示す図である。図13Cに示すように、赤外線領域として検出された領域から距離の遠い領域を排除した結果、ユーザの手の領域が顔や上半身の領域と切り離されて検出されている。   The hand region detection unit 27 detects only the hand portion from the detected infrared region using the distance image obtained by the distance estimation unit 25. For this reason, the hand area detection unit 27 excludes an area where the distance in the distance image is greater than or equal to a threshold from the areas detected as the infrared areas. In the example of FIG. 13B, the face and upper body detected as the infrared region are excluded because the distance is equal to or greater than the threshold value. FIG. 13C is a diagram illustrating a result of excluding far-field regions from the infrared region. As shown in FIG. 13C, as a result of eliminating the region far from the region detected as the infrared region, the user's hand region is detected separately from the face and upper body region.

手領域検出部27は、上記のようにして、検出された手の部分のみの赤外線領域を輪郭抽出部13に出力する。輪郭抽出部13は、この赤外線領域から輪郭を抽出して、指抽出部14に出力する。指抽出部14は、手の輪郭から指の先端を抽出して、指の先端に楕円をフィッティングして、手の輪郭及び楕円の情報を認識部23に出力する。認識部23は、指抽出部14から得た情報を元に、指の数や位置等を認識して、認識結果を制御部50に出力する。   The hand region detection unit 27 outputs the infrared region of only the detected hand part to the contour extraction unit 13 as described above. The contour extracting unit 13 extracts a contour from the infrared region and outputs the contour to the finger extracting unit 14. The finger extraction unit 14 extracts the tip of the finger from the contour of the hand, fits an ellipse to the tip of the finger, and outputs the hand contour and ellipse information to the recognition unit 23. The recognition unit 23 recognizes the number and position of fingers based on the information obtained from the finger extraction unit 14 and outputs the recognition result to the control unit 50.

本実施の形態の対象認識装置400によれば、2つの赤外線カメラという安価かつ簡易な構造で、背景色に係らず、正確に手の指を検出でき、制御装置4は、ユーザの手の形状や位置を正確に反映させた制御信号を生成できる。   According to the object recognition device 400 of the present embodiment, it is possible to accurately detect a finger of a hand regardless of the background color with an inexpensive and simple structure of two infrared cameras. And a control signal accurately reflecting the position.

以上、本発明の実施の形態を説明したが、上記の説明は例示に過ぎず、本発明は他の実施の形態でも実施される。   As mentioned above, although embodiment of this invention was described, said description is only an illustration and this invention is implemented also in other embodiment.

例えば、上記の実施の形態の対象認識装置は、認識結果として指の数の情報を出力したが、対象認識装置が認識結果として出力する情報は、指の数に限られない。例えば、対象認識装置が、指抽出部で得られた指の形状や位置の情報を認識結果として出力してもよい。さらに、対象認識装置が、輪郭抽出部で抽出された手の輪郭の情報を認識結果として出力してもよい。また、対象認識装置が、肌色領域検出部や赤外線領域検出部で検出した領域の情報を認識結果として出力してもよい。また、対象認識装置が、これらの情報を加工した情報を認識結果として出力してもよい。例えば、対象認識装置が、輪郭抽出部で抽出された手の輪郭の長さの情報を認識結果として出力してもよい。また、例えば、対象認識装置が、肌色領域検出部や赤外線領域検出部で検出した領域の面積の情報を認識結果として出力してもよい。さらに、第3及び第4の実施の形態のように、対象認識装置が、手までの距離を推定する構成を有している場合には、この距離の情報を認識結果の情報に付加して出力してもよい。   For example, the target recognition device according to the above embodiment outputs information on the number of fingers as a recognition result, but information output as a recognition result by the target recognition device is not limited to the number of fingers. For example, the target recognition device may output information on the shape and position of the finger obtained by the finger extraction unit as a recognition result. Further, the object recognition device may output information on the contour of the hand extracted by the contour extraction unit as a recognition result. In addition, the object recognition device may output information on a region detected by the skin color region detection unit or the infrared region detection unit as a recognition result. Further, the target recognition device may output information obtained by processing these pieces of information as a recognition result. For example, the target recognition device may output information on the length of the contour of the hand extracted by the contour extraction unit as the recognition result. Further, for example, the target recognition device may output information on the area of the area detected by the skin color area detection unit or the infrared area detection unit as the recognition result. Furthermore, when the object recognition apparatus has a configuration for estimating the distance to the hand as in the third and fourth embodiments, the information on the distance is added to the information on the recognition result. It may be output.

また、上記の実施の形態では、対象認識装置は、1つのカラーカメラと1つの赤外線カメラ(第1及び第2の実施の形態)、又は2台のカラーカメラ(第3の実施の形態)、又は2台の赤外線カメラ(第4の実施の形態)という合計2台のカメラを備えていたが、合計3台以上のカメラを備えていてもよい。   In the above-described embodiment, the object recognition device includes one color camera and one infrared camera (first and second embodiments), or two color cameras (third embodiment), Alternatively, the two infrared cameras (fourth embodiment) in total are provided, but a total of three or more cameras may be provided.

さらに、上記の実施の形態では、カラー画像から肌色の領域を検出する例を説明したが、認識対象が他の色を有している場合には、当該他の色を検出してよい。   Furthermore, in the above embodiment, an example in which a skin color region is detected from a color image has been described. However, when the recognition target has another color, the other color may be detected.

本発明は、装置の大型化及びコストの上昇を抑えつつ、画像から正確に対象を認識できるという優れた効果を有し、認識対象の数、位置、形状等を認識する対象認識装置等に適用することができる。   The present invention has an excellent effect of accurately recognizing an object from an image while suppressing an increase in size and cost of the apparatus, and is applied to an object recognition apparatus that recognizes the number, position, shape, etc. of recognition objects. can do.

1、2、3、4 制御装置
100、200、300、400 対象認識装置
11、11−1、11−2 カラーカメラ
12 肌色領域検出部
13 輪郭抽出部
14 指抽出部
15、15−1、15−2 赤外線カメラ
16 赤外線領域検出部
17 輪郭抽出部
18 指抽出部
19、23 認識部
20 赤外線ランプ
21、26、28 撮像部
22、24、27 手領域検出部
25 距離推定部
50 制御部

1, 2, 3, 4 Control device 100, 200, 300, 400 Object recognition device 11, 11-1, 11-2 Color camera 12 Skin color area detection unit 13 Contour extraction unit 14 Finger extraction unit 15, 15-1, 15 -2 Infrared camera 16 Infrared region detection unit 17 Contour extraction unit 18 Finger extraction unit 19, 23 Recognition unit 20 Infrared lamp 21, 26, 28 Imaging unit 22, 24, 27 Hand region detection unit 25 Distance estimation unit 50 Control unit

Claims (18)

特定色を有する対象を認識する対象認識装置であって、
撮影によりカラー画像を生成するカラーカメラと、
前記カラー画像における前記特定色の領域を検出する特定色検出部と、
対象に赤外線を照射するための赤外線ランプと、
入射する赤外線の強度に応じた赤外線画像を生成する赤外線カメラと、
前記赤外線画像に基づいて、赤外線強度の強い領域を検出する赤外線領域検出部と、
前記特定色検出部における領域検出の結果及び前記赤外線領域検出部における領域検出の結果に基づいて、前記対象の認識結果を出力する認識部と、
を備えたことを特徴とする対象認識装置。
An object recognition device for recognizing an object having a specific color,
A color camera that generates color images by shooting;
A specific color detection unit for detecting a region of the specific color in the color image;
An infrared lamp for irradiating the subject with infrared rays;
An infrared camera that generates an infrared image according to the intensity of the incident infrared ray;
Based on the infrared image, an infrared region detector that detects a region having a strong infrared intensity;
A recognition unit that outputs a recognition result of the object based on a result of region detection in the specific color detection unit and a result of region detection in the infrared region detection unit;
An object recognition apparatus comprising:
前記特定色検出部にて検出された領域の輪郭を求め、求めた輪郭に基づいて前記対象の輪郭を抽出する輪郭抽出部をさらに備え、
前記認識部は、前記輪郭抽出部にて抽出された輪郭に基づいて、前記対象の形状、位置及び数の少なくともいずれかの情報を含む認識結果を出力する請求項1に記載の対象認識装置。
A contour extraction unit that obtains the contour of the area detected by the specific color detection unit and extracts the contour of the target based on the obtained contour is further provided.
The object recognition apparatus according to claim 1, wherein the recognition unit outputs a recognition result including information on at least one of the shape, position, and number of the object based on the contour extracted by the contour extraction unit.
前記認識部は、前記輪郭抽出部にて抽出された輪郭内の所定の条件を満たす特定部分の数の情報を含む認識結果を出力する請求項2に記載の対象認識装置。   The object recognition apparatus according to claim 2, wherein the recognition unit outputs a recognition result including information on a number of specific portions that satisfy a predetermined condition in the contour extracted by the contour extraction unit. 前記対象は人の手であり、前記特定色は肌色である請求項1又は2に記載の対象認識装置。   The object recognition apparatus according to claim 1, wherein the object is a human hand and the specific color is a skin color. 前記対象は人の手であり、前記特定色は肌色であり、前記特定部分は指先である請求項3に記載の対象認識装置。   The object recognition apparatus according to claim 3, wherein the object is a human hand, the specific color is a skin color, and the specific part is a fingertip. 特定色を有する対象を認識する対象認識装置であって、
撮影により第1のカラー画像を生成する第1のカラーカメラと、
前記第1のカラー画像における前記特定色の領域を検出する特定色検出部と、
撮影により第2のカラー画像を生成する第2のカラーカメラと、
前記第1のカラー画像及び前記第2のカラー画像の視差に基づいて、距離画像を生成する距離推定部と、
前記特定色検出部における領域検出の結果及び前記距離推定部にて生成された距離画像に基づいて、前記対象の認識結果を出力する認識部と、
を備えたことを特徴とする対象認識装置。
An object recognition device for recognizing an object having a specific color,
A first color camera that generates a first color image by photographing;
A specific color detection unit for detecting a region of the specific color in the first color image;
A second color camera for generating a second color image by photographing;
A distance estimation unit that generates a distance image based on the parallax of the first color image and the second color image;
A recognition unit that outputs a recognition result of the target based on a result of area detection in the specific color detection unit and a distance image generated by the distance estimation unit;
An object recognition apparatus comprising:
前記特定色検出部にて検出された領域の輪郭を求め、求めた輪郭に基づいて前記対象の輪郭を抽出する輪郭抽出部をさらに備え、
前記認識部は、前記輪郭抽出部にて抽出された輪郭に基づいて、前記対象の形状、位置及び数の少なくともいずれかの情報を含む認識結果を出力する請求項6に記載の対象認識装置。
A contour extraction unit that obtains the contour of the area detected by the specific color detection unit and extracts the contour of the target based on the obtained contour is further provided.
The object recognition apparatus according to claim 6, wherein the recognition unit outputs a recognition result including information on at least one of the shape, position, and number of the object based on the contour extracted by the contour extraction unit.
前記特定色検出部は、前記距離推定部で生成された距離画像に基づいて、前記特定色の領域ではあるが前記対象の領域ではない領域を除いて、前記領域検出の結果とし、
前記輪郭抽出部は、前記対象の領域ではない領域が除かれた前記領域検出の結果について、領域の輪郭を求めて、その輪郭を抽出する請求項7に記載の対象認識装置。
The specific color detection unit is based on the distance image generated by the distance estimation unit, except for the region of the specific color but not the target region, as a result of the region detection,
The object recognition apparatus according to claim 7, wherein the contour extraction unit obtains a contour of a region from the region detection result from which a region that is not the target region is removed, and extracts the contour.
前記認識部は、前記輪郭抽出部にて抽出された輪郭内の所定の条件を満たす特定部分の数の情報を含む認識結果を出力する請求項7又は8に記載の対象認識装置。   The object recognition apparatus according to claim 7 or 8, wherein the recognition unit outputs a recognition result including information on a number of specific portions that satisfy a predetermined condition in the contour extracted by the contour extraction unit. 対象を認識する対象認識装置であって、
対象に赤外線を照射するための赤外線ランプと、
入射する赤外線の強度に応じた第1の赤外線画像を生成する第1の赤外線カメラと、
前記第1の赤外線画像に基づいて、赤外線強度の強い領域を検出する赤外線領域検出部と、
入射する赤外線の強度に応じた第2の赤外線画像を生成する第2の赤外線カメラと、
前記第1の赤外線画像及び前記第2の赤外線画像の視差に基づいて、距離画像を生成する距離推定部と、
前記赤外線領域検出部における領域検出の結果及び前記距離推定部にて生成された距離画像に基づいて、前記対象の認識結果を出力する認識部と、
を備えたことを特徴とする対象認識装置。
An object recognition device for recognizing an object,
An infrared lamp for irradiating the subject with infrared rays;
A first infrared camera that generates a first infrared image according to the intensity of incident infrared rays;
Based on the first infrared image, an infrared region detection unit for detecting a region having a strong infrared intensity;
A second infrared camera that generates a second infrared image according to the intensity of the incident infrared radiation;
A distance estimation unit that generates a distance image based on the parallax of the first infrared image and the second infrared image;
A recognition unit that outputs a recognition result of the object based on a result of region detection in the infrared region detection unit and a distance image generated by the distance estimation unit;
An object recognition apparatus comprising:
前記赤外線領域検出部にて検出された領域の輪郭を求め、求めた輪郭に基づいて前記対象の輪郭を抽出する輪郭抽出部をさらに備え、
前記認識部は、前記輪郭抽出部にて抽出された輪郭に基づいて、前記対象の形状、位置及び数の少なくともいずれかの情報を含む認識結果を出力する請求項10に記載の対象認識装置。
A contour extraction unit that obtains the contour of the region detected by the infrared region detection unit and extracts the contour of the target based on the obtained contour is further provided.
The object recognition device according to claim 10, wherein the recognition unit outputs a recognition result including information on at least one of the shape, position, and number of the object based on the contour extracted by the contour extraction unit.
前記赤外線領域検出部は、前記距離推定部で生成された距離画像に基づいて、赤外線の強度が強い領域であるが前記対象の領域ではない領域を除いて、前記領域検出の結果とし、
前記輪郭抽出部は、前記対象の領域ではない領域が除かれた前記領域検出の結果について、領域の輪郭を求めて、その輪郭を抽出する請求項11に記載の対象認識装置。
The infrared region detection unit is based on the distance image generated by the distance estimation unit, except for a region where the intensity of infrared light is strong but not the target region, as a result of the region detection,
The object recognition device according to claim 11, wherein the contour extraction unit obtains a contour of a region from the result of the region detection from which a region that is not the target region is removed, and extracts the contour.
前記認識部は、前記輪郭抽出部にて抽出された輪郭内の所定の条件を満たす特定部分の数の情報を含む認識結果を出力する請求項11又は12に記載の対象認識装置。   The target recognition apparatus according to claim 11 or 12, wherein the recognition unit outputs a recognition result including information on a number of specific portions that satisfy a predetermined condition in the contour extracted by the contour extraction unit. 請求項1ないし請求項13のいずれかに記載の対象認識装置と、
前記認識部における認識結果に応じた制御信号を生成する制御部と、
を備えたことを特徴とする制御装置。
An object recognition device according to any one of claims 1 to 13,
A control unit that generates a control signal according to a recognition result in the recognition unit;
A control device comprising:
特定色を有する対象を認識する対象認識方法であって、
撮影により対象のカラー画像を生成すると同時に、対象に赤外線を照射して、入射する赤外線の強度に応じた赤外線画像を生成する画像生成ステップと、
前記カラー画像における前記特定色の領域を検出する特定色検出ステップと、
前記赤外線画像に基づいて、赤外線強度の強い領域を検出する赤外線領域検出ステップと、
前記特定色検出ステップにおける領域検出の結果及び前記領域検出ステップにおける領域検出の結果に基づいて、前記対象の認識結果を出力する認識ステップと、
を含むことを特徴とする対象認識方法。
An object recognition method for recognizing an object having a specific color,
An image generation step of generating a color image of a target by photographing and simultaneously irradiating the target with infrared rays to generate an infrared image according to the intensity of the incident infrared rays;
A specific color detection step of detecting the specific color region in the color image;
An infrared region detecting step for detecting a region having a strong infrared intensity based on the infrared image;
A recognition step of outputting a recognition result of the object based on a result of region detection in the specific color detection step and a result of region detection in the region detection step;
An object recognition method comprising:
特定色を有する対象を認識する対象認識方法であって、
第1のカラーカメラ及び第2のカラーカメラによりそれぞれ同時に撮影をして、第1のカラー画像及び第2のカラー画像を生成する画像生成ステップと、
前記第1のカラー画像における前記特定色の領域を検出する特定色検出ステップと、
前記第1のカラー画像及び前記第2のカラー画像の視差に基づいて、距離画像を生成する距離推定ステップと、
前記特定色検出ステップにおける領域検出の結果及び前記距離推定ステップにて生成された距離画像に基づいて、前記対象の認識結果を出力する認識ステップと、
を含むことを特徴とする対象認識方法。
An object recognition method for recognizing an object having a specific color,
An image generation step of simultaneously shooting with each of the first color camera and the second color camera to generate a first color image and a second color image;
A specific color detecting step of detecting a region of the specific color in the first color image;
A distance estimation step of generating a distance image based on the parallax of the first color image and the second color image;
A recognition step of outputting a recognition result of the object based on a result of area detection in the specific color detection step and a distance image generated in the distance estimation step;
An object recognition method comprising:
対象を認識する対象認識方法であって、
対象に赤外線を照射して、第1の赤外線カメラ及び第2の赤外線カメラを用いて、それぞれ入射する赤外線の強度に応じた第1の赤外線画像及び第2の赤外線画像を同時に生成する画像生成ステップと、
前記第1の赤外線画像に基づいて、赤外線強度の強い領域を検出する赤外線領域検出ステップと、
前記第1の赤外線画像及び前記第2の赤外線画像の視差に基づいて、距離画像を生成する距離推定ステップと、
前記特定色検出ステップにおける領域検出の結果及び前記距離推定ステップにて生成された距離画像に基づいて、前記対象の認識結果を出力する認識ステップと、
を含むことを特徴とする対象認識方法。
An object recognition method for recognizing an object,
An image generation step of irradiating an object with infrared rays and simultaneously generating a first infrared image and a second infrared image corresponding to the intensity of incident infrared rays using the first infrared camera and the second infrared camera, respectively. When,
An infrared region detecting step for detecting a region having a strong infrared intensity based on the first infrared image;
A distance estimation step for generating a distance image based on the parallax of the first infrared image and the second infrared image;
A recognition step of outputting a recognition result of the object based on a result of area detection in the specific color detection step and a distance image generated in the distance estimation step;
An object recognition method comprising:
コンピュータにて実行されることにより、コンピュータに、請求項15ないし請求項17のいずれかに記載の方法を行わせることを特徴とするプログラム。   A program that, when executed by a computer, causes the computer to perform the method according to any one of claims 15 to 17.
JP2010066655A 2010-03-23 2010-03-23 Object recognition device and controller using the same, and object recognition method Pending JP2011198270A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010066655A JP2011198270A (en) 2010-03-23 2010-03-23 Object recognition device and controller using the same, and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010066655A JP2011198270A (en) 2010-03-23 2010-03-23 Object recognition device and controller using the same, and object recognition method

Publications (1)

Publication Number Publication Date
JP2011198270A true JP2011198270A (en) 2011-10-06

Family

ID=44876329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010066655A Pending JP2011198270A (en) 2010-03-23 2010-03-23 Object recognition device and controller using the same, and object recognition method

Country Status (1)

Country Link
JP (1) JP2011198270A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101299695B1 (en) 2011-12-14 2013-08-26 전자부품연구원 Pointing device using disparity map and method of gesture
WO2016018395A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Document region detection
JP2016052096A (en) * 2014-09-02 2016-04-11 任天堂株式会社 Image processing program, information processing system, and image processing method
KR101929077B1 (en) * 2014-10-29 2018-12-13 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Image identificaiton method and image identification device
WO2019049511A1 (en) * 2017-09-05 2019-03-14 住友重機械搬送システム株式会社 Crane device
US10348983B2 (en) 2014-09-02 2019-07-09 Nintendo Co., Ltd. Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302328A (en) * 1994-03-09 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Method for extracting area of moving object based upon background difference
JPH08287216A (en) * 1995-04-18 1996-11-01 Sanyo Electric Co Ltd In-face position recognizing method
JP2001028046A (en) * 1999-07-15 2001-01-30 Sharp Corp Image recognizing device
JP2001108758A (en) * 1999-10-06 2001-04-20 Matsushita Electric Ind Co Ltd Human detector
JP2003346162A (en) * 2002-05-28 2003-12-05 Japan Science & Technology Corp Input system by image recognition of hand
JP2004053324A (en) * 2002-07-17 2004-02-19 Denso Corp Collision safety controller for automobile
JP2004094673A (en) * 2002-08-30 2004-03-25 Fujitsu Ltd Method for extracting image and authentication device
JP2005321966A (en) * 2004-05-07 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> Interface method, device and program
JP2007108941A (en) * 2005-10-12 2007-04-26 Sharp Corp Apparatus control system, remote controller, apparatus, apparatus control method, apparatus control program, and computer readable recording medium recording the same apparatus control program
JP2007148663A (en) * 2005-11-25 2007-06-14 Sony Corp Object-tracking device, object-tracking method, and program
JP2007193445A (en) * 2006-01-17 2007-08-02 Honda Motor Co Ltd Periphery monitoring device for vehicle

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302328A (en) * 1994-03-09 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Method for extracting area of moving object based upon background difference
JPH08287216A (en) * 1995-04-18 1996-11-01 Sanyo Electric Co Ltd In-face position recognizing method
JP2001028046A (en) * 1999-07-15 2001-01-30 Sharp Corp Image recognizing device
JP2001108758A (en) * 1999-10-06 2001-04-20 Matsushita Electric Ind Co Ltd Human detector
JP2003346162A (en) * 2002-05-28 2003-12-05 Japan Science & Technology Corp Input system by image recognition of hand
JP2004053324A (en) * 2002-07-17 2004-02-19 Denso Corp Collision safety controller for automobile
JP2004094673A (en) * 2002-08-30 2004-03-25 Fujitsu Ltd Method for extracting image and authentication device
JP2005321966A (en) * 2004-05-07 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> Interface method, device and program
JP2007108941A (en) * 2005-10-12 2007-04-26 Sharp Corp Apparatus control system, remote controller, apparatus, apparatus control method, apparatus control program, and computer readable recording medium recording the same apparatus control program
JP2007148663A (en) * 2005-11-25 2007-06-14 Sony Corp Object-tracking device, object-tracking method, and program
JP2007193445A (en) * 2006-01-17 2007-08-02 Honda Motor Co Ltd Periphery monitoring device for vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101299695B1 (en) 2011-12-14 2013-08-26 전자부품연구원 Pointing device using disparity map and method of gesture
WO2016018395A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Document region detection
US10002434B2 (en) 2014-07-31 2018-06-19 Hewlett-Packard Development Company, L.P. Document region detection
JP2016052096A (en) * 2014-09-02 2016-04-11 任天堂株式会社 Image processing program, information processing system, and image processing method
US10348983B2 (en) 2014-09-02 2019-07-09 Nintendo Co., Ltd. Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
KR101929077B1 (en) * 2014-10-29 2018-12-13 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Image identificaiton method and image identification device
WO2019049511A1 (en) * 2017-09-05 2019-03-14 住友重機械搬送システム株式会社 Crane device
CN111032561A (en) * 2017-09-05 2020-04-17 住友重机械搬运系统工程株式会社 Crane device
JPWO2019049511A1 (en) * 2017-09-05 2020-05-28 住友重機械搬送システム株式会社 Crane equipment
CN111032561B (en) * 2017-09-05 2021-04-09 住友重机械搬运系统工程株式会社 Crane device

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
EP3284011B1 (en) Two-dimensional infrared depth sensing
EP2755115A1 (en) Method for detecting motion of input body and input device using same
JP4752918B2 (en) Image processing apparatus, image collation method, and program
JP6125188B2 (en) Video processing method and apparatus
US9542755B2 (en) Image processor and image processing method
EP2306367A1 (en) Dual cameras face recognition device and method
JP2015526927A (en) Context-driven adjustment of camera parameters
JP6799155B2 (en) Information processing device, information processing system, and subject information identification method
JP2011198270A (en) Object recognition device and controller using the same, and object recognition method
CN106911922A (en) From the depth map of single sensor generation
JP6799154B2 (en) Information processing device and material identification method
JP6157165B2 (en) Gaze detection device and imaging device
US9690430B2 (en) Touch detection apparatus, touch detection method and recording medium
JP2017174344A (en) Hand-raising detection device, and hand-raising detection program
JP2011186816A (en) Face image synthesis apparatus
KR20150005094A (en) Electronic device and method for detection eye region in electronic device
JP2011002292A (en) Three-dimensional fingertip position detecting method, three-dimensional fingertip position detector, and program
JP7067743B2 (en) Oral Cancer Diagnostic System and Oral Cancer Diagnostic Program
JP5419777B2 (en) Face image synthesizer
US11900731B2 (en) Biometrics imaging device and biometrics imaging method for capturing image data of a body part of a person which enable improved image data quality
JP2021149691A (en) Image processing system and control program
JP2013210723A (en) Display system
CN113405674B (en) Body temperature measuring method and camera equipment
US20230410548A1 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140204