JP2010152791A - Image processor for detecting object, method, program, and computer readable medium storing the program - Google Patents
Image processor for detecting object, method, program, and computer readable medium storing the program Download PDFInfo
- Publication number
- JP2010152791A JP2010152791A JP2008332208A JP2008332208A JP2010152791A JP 2010152791 A JP2010152791 A JP 2010152791A JP 2008332208 A JP2008332208 A JP 2008332208A JP 2008332208 A JP2008332208 A JP 2008332208A JP 2010152791 A JP2010152791 A JP 2010152791A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- component
- pair
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は画像処理技術に関し、より詳細には、撮像された画像から対象物を認識するための画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体に関する。 The present invention relates to an image processing technique, and more particularly to an image processing apparatus, method, program, and computer readable medium for storing the program for recognizing an object from a captured image.
動画像内の所定の移動物体(対象物)を認識するために様々な画像処理技術が考案されている。これらの技術によって人の手の動きやジェスチャを識別することができ、コンピュータ等のユーザインターフェース装置やテレビ等のリモコン装置に適用することが可能である。 Various image processing techniques have been devised for recognizing a predetermined moving object (object) in a moving image. These techniques can identify human hand movements and gestures, and can be applied to user interface devices such as computers and remote control devices such as televisions.
上記画像処理技術において最も代表的なものとしてテンプレートマッチング技術が挙げられる。テンプレートマッチングは、認識する物体の画像(テンプレート画像)を予め用意し、処理対象の画像上に該テンプレート画像を移動させながら比較して、該物体の有無を識別する手法である。この手法は物体の形状や色の違いまで識別できるため、高い精度で物体を認識することが可能である。しかし、処理量が多く、それゆえ処理に時間がかかり高速に移動する物体をリアルタイムで認識する用途には適していない。また、上述のテンプレート画像を取得する手順は使用者にとっては煩わしい作業になり得る。 A template matching technique is the most representative of the image processing techniques. Template matching is a method in which an image of an object to be recognized (template image) is prepared in advance, and the presence or absence of the object is identified by comparing the template image while moving it over the image to be processed. Since this method can discriminate even the difference in shape and color of an object, it is possible to recognize the object with high accuracy. However, the amount of processing is large, and therefore it is not suitable for an application for recognizing an object that takes a long time to process and moves at high speed. Further, the procedure for obtaining the template image described above can be a troublesome operation for the user.
また、テンプレートマッチングは外乱光などの想定外の光の影響を受けやすく、さらに、対象物がその形状や角度を変化させる場合には正確に認識することができない。 Further, template matching is easily affected by unexpected light such as disturbance light, and cannot be accurately recognized when the object changes its shape or angle.
上述の外乱光による影響を低減させるためには、特許文献1に開示する装置を用いればよい。この装置では、照明装置の光を所定の周期で点滅させ、照明装置が点灯時の画像と消灯時の画像とを撮像装置で取得する。次いで、これら2つの画像から時間差分画像を求め、その時間差分画像を基に対象物を検出する。点灯画像と消灯画像とから時間差分画像を求めることで、外乱光による影響を低減させて好適に移動物体を検出することを可能としている。 In order to reduce the influence of the above-mentioned disturbance light, an apparatus disclosed in Patent Document 1 may be used. In this device, the light of the lighting device is blinked at a predetermined cycle, and an image when the lighting device is turned on and an image when the lighting device is turned off are acquired by the imaging device. Next, a time difference image is obtained from these two images, and an object is detected based on the time difference image. By obtaining a time difference image from the lit image and the unlit image, it is possible to detect the moving object suitably by reducing the influence of disturbance light.
また、特許文献2は、ステレオカメラ(一対のカメラ)を用いることで移動物体を的確に検出する移動物体検出装置を開示している。 Patent Document 2 discloses a moving object detection apparatus that accurately detects a moving object by using a stereo camera (a pair of cameras).
さらに、特許文献3は、物体を検出する技術を備えた対象物検出前処理装置および方法を開示している。この装置および方法は、低コストで、かつ周囲環境に影響されず安定して対象物(人物の顔)を検出することが可能である。
しかし、上記特許文献1〜3が開示する装置では、以下のような不都合が生じてしまう。 However, the devices disclosed in Patent Documents 1 to 3 have the following disadvantages.
特許文献1の装置が利用する時間差分画像は、元来動きにより生ずる差を識別するために用いるものである。そのため、撮像装置が手振れ等により動く、または、対象物の背後に他の移動物体が存在する場合には、対象物を正確に検出できない恐れがある。そのため、この装置は撮像装置をしっかりと固定し、かつ背景に他の移動物体が存在しない状態で使用しなくてはならない。すなわち、使用条件に制約が生じてしまう。 The time difference image used by the device of Patent Document 1 is used to identify a difference caused by a motion originally. Therefore, there is a possibility that the target cannot be accurately detected when the imaging apparatus moves due to hand shake or the like, or when another moving object exists behind the target. Therefore, this apparatus must be used in a state where the imaging apparatus is firmly fixed and no other moving object exists in the background. That is, the usage conditions are restricted.
特許文献2の装置ではステレオカメラを用いているため、カメラと対象物との間の距離を算出することができる。そのため、対象物の背後にある移動物体に影響されることはない。しかし、2台のカメラを用いるため、装置が大型化し、かつ高価になり得る。さらに、カメラが2台あるため処理する画像の量が多くなり、演算能力の低い処理装置、特に家電機器などに適用することが困難になる。 Since the apparatus of Patent Document 2 uses a stereo camera, the distance between the camera and the object can be calculated. Therefore, it is not affected by the moving object behind the object. However, since two cameras are used, the apparatus can be large and expensive. Furthermore, since there are two cameras, the amount of images to be processed increases, making it difficult to apply to a processing apparatus with low calculation capability, particularly home appliances.
特許文献3の装置では、カメラ等からなる撮像部に特定波長透過フィルタを装備している。このフィルタは装置の光源から放射される近赤外線領域の光のみを透過させる機能を有し、外乱光をカットする役目を果たす。しかし、外乱光光源となる太陽、蛍光灯、白熱灯などから放射される光には近赤外線領域の光も含まれるため、外乱光を十分にカットすることはできない。
また、該当の装置において、光量を制御するためには一定の明るさを有する面積が画像内に一定の割合で存在すること、対象物(顔)の特徴が予め把握していること、が必要である。すなわち、対象物の特徴を事前に装置に把握させる前処理が必要である。
さらに、異なる照射光量(明、暗)で画像を撮像し、その画像のうち良質な方を対象物の認識に用いている。そのため、検出に用いるフレームレートは、撮像部の実フレームレートの1/2に限定されてしまう。
In the apparatus of Patent Document 3, an imaging unit including a camera or the like is equipped with a specific wavelength transmission filter. This filter has a function of transmitting only light in the near-infrared region emitted from the light source of the apparatus, and serves to cut out disturbance light. However, since the light emitted from the sun, the fluorescent lamp, the incandescent lamp, or the like serving as the disturbance light source includes light in the near infrared region, the disturbance light cannot be sufficiently cut.
In addition, in the corresponding device, in order to control the amount of light, it is necessary that an area having a certain brightness exists in the image at a certain ratio and that the characteristics of the object (face) are grasped in advance. It is. That is, pre-processing is required for causing the apparatus to grasp the characteristics of the object in advance.
Furthermore, an image is picked up with different irradiation light amounts (bright and dark), and the higher quality of the images is used for recognition of the object. Therefore, the frame rate used for detection is limited to ½ of the actual frame rate of the imaging unit.
本発明は上記のような事情に鑑みて創案されたものであり、本発明の課題は、前処理が不要で、かつ周囲環境(外乱光の照射、他の移動物体の存在、撮像装置の変位等)に影響されずに動画像内の対象物を認識可能な画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することである。 The present invention has been made in view of the above circumstances, and the problem of the present invention is that no pre-processing is required and the surrounding environment (irradiation of ambient light, presence of other moving objects, displacement of the imaging device). Etc.) to provide an image processing apparatus, a method, a program, and a computer-readable medium for storing the program that can recognize an object in a moving image.
本発明の別の目的は、単一の撮像装置で実現可能で、かつ高度な演算処理が不要な対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することである。 Another object of the present invention is to provide an object detection image processing apparatus, method, program, and computer readable medium storing the program, which can be realized by a single imaging device and does not require advanced arithmetic processing. That is.
前記課題を解決するために創案された請求項1の発明は、所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備え、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理装置であり、当該装置は、
(a1)前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込手段と、
前記画像取込手段が受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング手段と、
(a2)前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成手段と、
(a3)前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成手段と、
(a4)前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成手段と、
(a5)前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成手段と、
(a6)前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出手段と、
を備えることを特徴とする。
The invention of claim 1 devised to solve the above-described problem is an imaging means for imaging a landscape including an object at a predetermined frame rate, and light having a wavelength in any one of the three primary colors or in the infrared region. An irradiating means for irradiating the object, the irradiating means for blinking irradiation light in synchronization with a frame rate of the imaging means, and the object for detecting the object from an image captured by the imaging means An image processing apparatus for detection,
(A1) Image capturing means for receiving a plurality of frame images captured by the imaging means in time series;
From the frame image received by the image capturing unit, a frame image pairing unit that selects and pairs a frame image captured when the irradiation unit is turned on and a frame image captured when the irradiation unit is turned off. When,
(A2) first component image generation means for extracting a color component corresponding to the emission color of the illumination means from the pair of frame images and generating a pair of first component frame images;
(A3) second component image generating means for extracting any one color component different from the light emission color of the illumination means from the pair of frame images and generating a pair of second component frame images;
(A4) first difference image generation means for generating a first difference image from the pair of first component frame images;
(A5) second difference image generation means for generating a second difference image from the pair of second component frame images;
(A6) an object extraction unit that generates a third difference image from the first difference image and the second difference image, and recognizes the object based on the third difference image;
It is characterized by providing.
前記課題を解決するために創案された請求項2の発明は、請求項1に記載の対象物検出用画像処理装置において、前記照射手段が1つまたは複数の発光ダイオードから構成されることを特徴とする。 Invention of Claim 2 created in order to solve the said subject is the image processing apparatus for object detection of Claim 1, Comprising: The said irradiation means is comprised from a 1 or several light emitting diode, It is characterized by the above-mentioned. And
前記課題を解決するために創案された請求項3の発明は、請求項1または2に記載の対象物検出用画像処理装置において、前記フレーム画像ペアリング手段による前記一対のフレーム画像の選択が、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする。 Invention of Claim 3 created in order to solve the said subject WHEREIN: In the image processing apparatus for object detection of Claim 1 or 2, selection of the said pair of frame image by the said frame image pairing means is the following. It is performed based on a frame rate of the imaging unit, a lighting cycle of irradiation light of the irradiation unit, and a behavior of the object.
前記課題を解決するために創案された請求項4の発明は、請求項1ないし3の何れか一項に記載の対象物検出用画像処理装置において、前記撮像手段が単一のカメラから構成されることを特徴とする。 Invention of Claim 4 created in order to solve the said subject is the image processing apparatus for object detection as described in any one of Claim 1 thru | or 3. WHEREIN: The said imaging means is comprised from a single camera. It is characterized by that.
前記課題を解決するために創案された請求項5の発明は、所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備えた画像処理装置によって行われる、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理方法であり、当該方法は、
(b1)前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込段階と、
前記画像取込段階で受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング段階と、
(b2)前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成段階と、
(b3)前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成段階と、
(b4)前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成段階と、
(b5)前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成段階と、
(b6)前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出段階と、
を含むことを特徴とする。
Invention of Claim 5 created in order to solve the said subject is the imaging means which images the scenery containing a target object with a predetermined | prescribed frame rate, and the light of the wavelength of any one area | region of three primary colors, or an infrared region. An irradiation unit that irradiates the object, and an irradiation unit that blinks irradiation light in synchronization with a frame rate of the imaging unit. This is an object detection image processing method for detecting an object.
(B1) an image capturing stage for receiving a plurality of frame images captured by the imaging unit in time series;
A frame image pairing step for selecting a pair of a frame image captured when the irradiation unit is turned on and a frame image captured when the irradiation unit is turned off from the frame image received in the image capturing step. When,
(B2) a first component image generation step of extracting a color component corresponding to the emission color of the illumination unit from the pair of frame images to generate a pair of first component frame images;
(B3) a second component image generation step of extracting any one color component different from the emission color of the illumination unit from the pair of frame images to generate a pair of second component frame images;
(B4) a first difference image generation step of generating a first difference image from the pair of first component frame images;
(B5) a second difference image generation step of generating a second difference image from the pair of second component frame images;
(B6) generating a third difference image from the first difference image and the second difference image, and recognizing the object based on the third difference image;
It is characterized by including.
前記課題を解決するために創案された請求項6の発明は、請求項5に記載の対象物検出用画像処理方法において、前記照射手段が1つまたは複数の発光ダイオードから構成されることを特徴とする。 Invention of Claim 6 created in order to solve the said subject WHEREIN: The image processing method for object detection of Claim 5 WHEREIN: The said irradiation means is comprised from a 1 or several light emitting diode, It is characterized by the above-mentioned. And
前記課題を解決するために創案された請求項7の発明は、請求項5または6に記載の対象物検出用画像処理方法において、前記フレーム画像ペアリング段階における前記一対のフレーム画像の選択が、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする。 Invention of Claim 7 created in order to solve the said subject WHEREIN: In the image processing method for object detection of Claim 5 or 6, selection of the said pair of frame image in the said frame image pairing step is, It is performed based on a frame rate of the imaging unit, a lighting cycle of irradiation light of the irradiation unit, and a behavior of the object.
前記課題を解決するために創案された請求項8の発明は、請求項5ないし7の何れか一項に記載の対象物検出用画像処理方法において、前記撮像手段が単一のカメラから構成されることを特徴とする。 Invention of Claim 8 created in order to solve the said subject is the image processing method for object detection as described in any one of Claim 5 thru | or 7. WHEREIN: The said imaging means is comprised from a single camera. It is characterized by that.
前記課題を解決するために創案された請求項9の発明は、請求項5ないし8の何れか1項に記載の方法をコンピュータに実行させるソフトウェアである。 Invention of Claim 9 created in order to solve the said subject is the software which makes a computer perform the method of any one of Claim 5 thru | or 8.
前記課題を解決するために創案された請求項10の発明は、請求項9に記載のソフトウェアを格納したコンピュータ可読媒体である。 The invention of claim 10 devised to solve the above problem is a computer readable medium storing the software of claim 9.
請求項1の装置および請求項5の方法は、周囲の環境変化に影響を受けずに動画像内の対象物を検出することが可能である。
具体的には、対象物を撮像時に外乱光の照射を受けても対象物の検出に影響を及ぼさない。外乱光の光源は、通常、太陽、白熱球、蛍光灯等が挙げられるが、そのうち太陽および白熱球からの光はほぼ直流の光のため、一対の第1成分フレーム画像(または一対の第2成分フレーム画像)の双方に同一に照射される。そのため、第1差分画像(または第2差分画像)生成時にその影響が削除される。同様に、蛍光灯、特に数100Hz程度で点灯するインバータ蛍光灯の光が照射しても、フレーム画像ペアリング手段が当該蛍光灯の点灯周期と重ならない周期で一対のフレーム画像を選択すれば、第1および第2差分画像生成時にその影響を削除することができる。
また、撮像時に撮像手段が振動、手ぶれ等で変位しても第1および第2成分画像を生成時にその影響が除去される。さらに、対象物の後方に移動物体が存在しても、第3差分画像生成時にその影響が除去される。
The apparatus of claim 1 and the method of claim 5 are capable of detecting an object in a moving image without being affected by changes in the surrounding environment.
Specifically, even if the object is irradiated with disturbance light during imaging, the detection of the object is not affected. The light source of disturbance light is usually the sun, an incandescent bulb, a fluorescent lamp, etc. Among them, the light from the sun and the incandescent bulb is almost direct current light, and thus a pair of first component frame images (or a pair of second images). Both of the component frame images are irradiated equally. Therefore, the influence is deleted when the first difference image (or the second difference image) is generated. Similarly, if a frame image pairing means selects a pair of frame images in a cycle that does not overlap with the lighting cycle of the fluorescent lamp, even if it is irradiated with light of a fluorescent lamp, particularly an inverter fluorescent lamp that lights at about several hundred Hz, The influence can be deleted when the first and second difference images are generated.
In addition, even when the imaging unit is displaced due to vibration, camera shake, or the like during imaging, the influence is removed when the first and second component images are generated. Furthermore, even if there is a moving object behind the target object, the influence is removed when the third differential image is generated.
上記の内容に加え、請求項1の装置および請求項5の方法では、事前に対象物を撮像するなどの前処理を行う必要がない。それゆえ容易に対象物の検出を行うことが可能である。また、対象物がその角度や形状を変化させても、識別が可能である。 In addition to the above contents, the apparatus of claim 1 and the method of claim 5 do not require preprocessing such as imaging an object in advance. Therefore, it is possible to easily detect an object. Further, even if the object changes its angle or shape, it can be identified.
請求項2の装置および請求項6の方法では、照射手段として1つまたは複数のLEDを用いることができる。LEDを用いることで、安価でコンパクトな照射手段を構成することが可能である。加えて、LEDは長い動作寿命を有しているため、照射手段が故障する可能性も低減される。 In the apparatus of claim 2 and the method of claim 6, one or more LEDs can be used as the irradiation means. By using the LED, it is possible to configure an inexpensive and compact irradiation means. In addition, since the LED has a long operating life, the possibility of failure of the irradiation means is also reduced.
請求項3の装置および請求項7の方法では、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて前記フレーム画像ペアリング手段による前記一対のフレーム画像を選択することで、応答性や処理するデータ量などを最適化することができる。 In the apparatus of claim 3 and the method of claim 7, the pair of frames by the frame image pairing unit based on a frame rate of the imaging unit, a lighting cycle of irradiation light of the irradiation unit, and a behavior of the object. By selecting the frame image, it is possible to optimize the responsiveness and the amount of data to be processed.
請求項4の装置および請求項8の方法では、単一のカメラで照明手段を実現するため、照明装置をコンパクトで、かつ軽量にすることが可能となる。また、既存のステレオカメラを用いた装置と比べると処理に用いる画像データの量が1/2になるため、装置の演算機能への負荷が低減される。それゆえ、演算能力の高くない処理装置で当該画像装置を実現することが可能であり、テレビのリモコン装置など、一般家電製品に適用することが可能となる。 In the apparatus of claim 4 and the method of claim 8, since the illumination means is realized by a single camera, the illumination apparatus can be made compact and lightweight. In addition, since the amount of image data used for processing is halved compared to an apparatus using an existing stereo camera, the load on the arithmetic function of the apparatus is reduced. Therefore, the image device can be realized by a processing device that does not have high computing power, and can be applied to general household appliances such as a remote control device for a television.
請求項9のソフトウェアによって、上記の対象物検出用画像処理方法を任意のコンピュータに実行させることが可能となる。 With the software according to the ninth aspect, it is possible to cause an arbitrary computer to execute the object detection image processing method.
請求項10のコンピュータ可読媒体によって、上記の対象物検出用画像処理方法を特定のユーザに好適に提供することが可能となる。 According to the computer readable medium of the tenth aspect, the object detection image processing method can be suitably provided to a specific user.
本発明により、前処理が不要で、かつ周囲環境(外乱光の照射、他の移動物体の存在、撮像装置の変位等)に影響されずに動画像内の対象物を認識可能な画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することが可能となる。さらに、単一の撮像装置で実現可能で、かつ高度な演算処理が不要な対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体も提供することが可能となる。 According to the present invention, an image processing apparatus that does not require preprocessing and can recognize an object in a moving image without being affected by ambient environment (irradiation of ambient light, presence of other moving objects, displacement of an imaging apparatus, etc.) It is possible to provide a method, a program, and a computer-readable medium storing the program. Furthermore, it is possible to provide an object detection image processing apparatus, a method, a program, and a computer-readable medium for storing the program, which can be realized by a single imaging apparatus and do not require advanced arithmetic processing.
添付図面を参照して本発明の一実施形態を説明する。なお、本実施形態において、動画を構成する複数のコマ画像を「フレーム画像」、画像内の被検出物体を「対象物」と称する。
また、本発明の一実施形態において「フレーム差分処理」とは、一対のフレーム画像の画素間の差分を求めることにより、当該フレーム画像間で異なる部分を抽出する処理であり、この処理で得られた画像を「差分画像」と称する。
An embodiment of the present invention will be described with reference to the accompanying drawings. In the present embodiment, a plurality of frame images constituting a moving image are referred to as “frame images”, and detected objects in the images are referred to as “target objects”.
Further, in one embodiment of the present invention, “frame difference processing” is processing for obtaining a difference between pixels of a pair of frame images to extract a different portion between the frame images. This image is referred to as a “difference image”.
図1は、本発明の一実施形態に係る対象物検出用画像処理装置(以下、「画像処理装置」)1000の機能ブロック図である。この画像処理装置1000は、外部機能要素として画像撮像部2000と、対象物照射部3000とを備え、さらに内部機能要素として画像取込部10と、フレーム画像ペアリング部20と、成分画像生成部30と、成分差分画像生成部40と、対象物抽出部50とを備え、画像撮像部2000が撮像した動画像から対象物を識別し、その位置を検出する機能を有する。
FIG. 1 is a functional block diagram of an object detection image processing apparatus (hereinafter, “image processing apparatus”) 1000 according to an embodiment of the present invention. The
以下に図1に示す画像処理装置1000の各機能要素についての簡単に説明する。
[画像撮像部]
画像撮像部2000は対象物を含む風景を所定のフレームレートで撮像し、その撮像した風景を所定形式のデジタル画像データとして画像取込部10に送る機能を有する。この画像撮像部2000には、既存の動画像を撮像可能なデジタル式カメラ、通称ムービーカメラを用いてよい。
The functional elements of the
[Image capture unit]
The
[対象物照射部]
対象物照射部3000は、カメラ用のライトのように対象物に光を照射する機能を有する。ただし、照射光は、通常の白熱光ではなく、光の三原色(R、G、B)の何れかの領域内、あるいは赤外領域内の単一の波長の光成分のみを含む。さらに、詳細は後述するが、照射光は画像撮像部2000の撮像の実施/停止に同期して点滅する。したがって、マイクロ秒オーダの高速な応答性を有する。
対象物照射部3000は、特に限定するものではないが、発光ダイオード(LED)、レーザダイオードと光学部品、白熱球または蛍光灯と光学フィルタとシャッタ機構等で実現することができる。しかし、実現の容易さ、コスト、コンパクト性、信頼性等を考慮するとLEDを用いることが最も好ましい。
[Object irradiation unit]
The
The
[画像取込部]
画像取込部10は、画像撮像部2000とケーブル、無線、赤外線等で接続され、画像撮像部2000が撮像したフレーム画像のデータを時系列に受け取る機能を有する。受け取ったフレーム画像のデータは、フレーム画像ペアリング部20に送付する。
[Image capture unit]
The image capturing unit 10 is connected to the
[フレーム画像ペアリング部]
フレーム画像ペアリング部20は、画像取込部10から受け取った複数のフレーム画像から所定のフレーム画像を抽出し、それらを一対に組み合わせる機能を有する。フレーム画像の抽出条件については後述するが、一対のフレーム画像のうち、一方は対象物に対象物照射部3000の光が照射された状態で画像撮像部2000によって撮像されたフレーム画像であり、他方は対象物に光が照射されない状態で撮像されたフレーム画像である。
[Frame image pairing part]
The frame
[成分画像生成部]
成分画像生成部30は、R成分生成部310と、G成分生成部320と、B成分生成部330とから構成され、フレーム画像ペアリング部20が組み合わせた一対のフレーム画像からそれぞれR、G、B成分を抽出し、一対のR、G、B成分フレーム画像を生成する機能を有する。
[Component image generator]
The component
[成分差分画像生成部]
成分差分画像生成部40は、R成分差分画像生成部410と、G成分差分画像生成部420と、B成分差分画像生成部430とから構成され、成分画像生成部30から受け取った一対のR、G、B成分フレーム画像を基に、それぞれR、G、B成分差分画像を生成する機能を有する。
[Component Difference Image Generation Unit]
The component difference
[対象物抽出部]
対象物抽出部50は、成分差分画像生成部40から受け取ったR、G、B成分差分画像を基に、画像撮像部2000が撮像したフレーム画像内の対象物を識別し、その位置座標を求め、求めた座標を外部に出力する機能を有する。また、当該対象物抽出部50は、差分画像生成部510と、二値化処理部520と、ラベリング処理部530と、領域選定部540とから構成される。以下にそれぞれの機能について説明する。
(差分画像生成部)
差分画像生成部510は、成分差分画像生成部40から受け取ったR、G、B成分差分画像を基に、その差分画像(以降、「最終差分画像」と称する)を生成する機能を有する。
(二値化処理部)
二値化処理部520は、差分画像生成部510が生成した最終差分画像に対して二値化処理を行う機能を有する。この二値化処理には当該技術分野において周知な手法、例えば固定閾値法、Pタイル法、モード法、判別分析2値化法などを用いてよい。
(ラベリング処理部)
ラベリング処理部530は、二値化処理部520が二値化処理を施した最終差分画像にラベリング処理を行う機能を有する。ラベリング処理とは、画像の各画素における色情報を分析し、連結している画素に同一ラベルを付加することで複数の領域をグループとして分類する処理である。また、同時に各領域における重心を求めその位置を測定することが好ましい。これは、異なるフレーム画像間でこれらの領域の形や大きさが変化した場合に柔軟に対応するためである。
(領域選定部)
領域選定部540は、ラベリング処理部530が画定した複数の領域の輝度を求めて、それを比較し、最も輝度の高い領域を検出物と判断してその位置の座標を出力する機能を有する。
[Target Extraction Unit]
The object extraction unit 50 identifies the object in the frame image captured by the
(Difference image generator)
The difference image generation unit 510 has a function of generating a difference image (hereinafter referred to as “final difference image”) based on the R, G, and B component difference images received from the component difference
(Binarization processing part)
The binarization processing unit 520 has a function of performing binarization processing on the final difference image generated by the difference image generation unit 510. For this binarization processing, a method well known in the art, for example, a fixed threshold method, a P tile method, a mode method, a discriminant analysis binarization method, or the like may be used.
(Labeling processing part)
The labeling processing unit 530 has a function of performing a labeling process on the final difference image that has been binarized by the binarization processing unit 520. The labeling process is a process of classifying a plurality of regions as a group by analyzing color information in each pixel of the image and adding the same label to the connected pixels. At the same time, it is preferable to obtain the center of gravity in each region and measure the position. This is to flexibly cope with changes in the shape and size of these areas between different frame images.
(Region selection section)
The region selection unit 540 has a function of obtaining the brightness of a plurality of regions defined by the labeling processing unit 530, comparing them, determining the region with the highest brightness as a detected object, and outputting the coordinates of the position.
次に、図2の処理条件および図3の各種生成画像を参照しながら、図4のフロー図に従って、上述の機能を有する画像処理装置1000が行う画像処理の内容および手順の実施例を詳細に説明する。なお、図2および図3の原画像図を本出願と同時に提出した物件提出書にそれぞれ参考図面1および2として添付したので参照されたい。
Next, referring to the processing conditions of FIG. 2 and various generated images of FIG. 3, according to the flowchart of FIG. 4, the details of image processing contents and procedures performed by the
図2(a)は本実施例の撮像条件を示している。画像処理装置1000の画像撮像部2000で1人の人物の顔とその右掌、並びにその他の人物の左掌を撮像して動画像を作成し、その動画像から対象物である右掌を識別し、その位置を検出する。ここで、画像撮像部2000と人物の各部位との距離関係は、該画像撮像部2000に近い順に当該1人の人物の右掌、顔、当該その他人物の左掌となる。また、撮像中に人物は動かず、人物の後方に画像撮像部2000から向かって左から右方向に自動車が走行するものとする。
FIG. 2A shows the imaging conditions of this embodiment. The
最初に、画像処理装置1000の対象物照射部3000の照射光を調整する(図4のステップS10)。まず、対象物照射部3000の照射光の種類の決定であるが、ここでは人物への影響を低減するために赤外光とする。この場合、画像撮像部2000の仕様によるが、一般的には赤外成分の情報はR、G、B成分の何れかの情報に加えられて出力される。本実施形態では、R成分に加えられるものとする。すなわち、画像処理装置1000は、対象物照射部3000がR領域の光を照射する場合と同様の処理を行えばよい。
First, the irradiation light of the
次いで、対象物である右掌の全体にできる限り均一に光が照射されるよう対象物照射部3000の照射範囲を調整する。本実施例では右掌は移動しないが、移動する場合には移動範囲全域に渡って光が右掌に照射されるよう調整しなくてはならない。対象物照射部3000をLEDで構成している場合には、LEDの数を増減することで照射光の照射範囲を可変すればよい。
Next, the irradiation range of the
最後に、照射光の点滅のタイミングを調整する。本実施例では図2(b)に示すように、画像撮像部2000が撮像を行う毎に消灯/点灯を繰り返すよう調整する。
Finally, the flashing timing of the irradiation light is adjusted. In this embodiment, as shown in FIG. 2B, adjustment is performed so that the
以上で、図4のステップS10の調整は完了する。ステップS10の手順が完了すると、次は画像撮像部2000が対象物を含む風景を撮像する(図4のステップS20)。撮像された動画像を構成する各フレーム画像は、画像撮像部2000から画像取込部10に送られる(図4のステップS30)。このとき送られるフレーム画像の例を図2(c)に示す。撮像された順にフレーム画像を第1〜第4フレーム画像とする。ここで、第1および第3フレーム画像は、対象物(右掌)に対象物照射部3000の光が照射されない状態で撮像されたものであり、第2および第4フレーム画像は、対象物に光が照射された状態で撮像されたものであることに留意されたい。
Thus, the adjustment in step S10 in FIG. 4 is completed. When the procedure of step S10 is completed, the
第1〜4フレーム画像が画像取込部10に送られると、フレーム画像ペアリング部20が第1および第2フレーム画像、並びに、第3および第4フレーム画像をそれぞれ一対に組み合わせる(図4のステップS40)。
なお、これらの一対のフレーム画像は同一の処理が施されるため、以降は第1および第2フレーム画像のペアへの処理についてのみ説明する。
When the first to fourth frame images are sent to the image capturing unit 10, the frame
Since the pair of frame images are subjected to the same processing, only the processing for the pair of the first and second frame images will be described below.
成分画像生成部30は、フレーム画像ペアリング部20から第1および第2フレーム画像(図3(a))を受け取ると、それらを基に第1および第2R成分フレーム画像(図3(b))を生成する(図4のステップS50)。図3(b)に示すように、第2R成分フレーム画像では色の明暗が明瞭になっている。それは、人物の各部位に対象物照射部3000の光が照射されているためである。対象物である右掌は対象物照射部3000と最も近接しているため最も強く照射光を反射する。したがって一番明るい色で表示される。また、顔も右掌ほどではないが照射光を反射するため明るい色となる。一方、左掌および人物の後方を走行する自動車は暗い色となっている。つまり、左掌と自動車には対象物照射部3000の照射光が到達していない。また、図ではわかりにくいが、第1および第2R成分フレーム画像では、人物の後方を走行する自動車の位置が異なっている。
Upon receipt of the first and second frame images (FIG. 3A) from the frame
第1および第2R成分フレーム画像は、成分画像生成部30から成分差分画像生成部40に送られ、成分差分画像生成部40はこれらの画像の差分画像であるR成分差分画像を生成する(図4のステップS60)。このR成分差分画像を図3(b)の一番右側に示す。この図で、右掌と自動車の前方部分とが黒く塗り潰されているのがわかる。右掌は照射光の反射によって差分を生じており、自動車の前方部分は該自動車の移動によって差分を生じている。すなわち、R成分差分画像は、明暗の差分成分と動きの差分成分とを有する。
The first and second R component frame images are sent from the component
上記ステップS50およびS60の手順と並列して、以下のステップS70とS80の手順が行われる。
ステップS50の手順と同様に、成分画像生成部30は、第1および第2フレーム画像(図3(a))を基に第1および第2G成分フレーム画像(図3(c))を生成する(図4のステップS70)。
The following steps S70 and S80 are performed in parallel with the steps S50 and S60.
Similar to the procedure of step S50, the component
ステップS60の処理と同様に、第1および第2G成分フレーム画像が成分差分画像生成部40に送られると、成分差分画像生成部40は第1および第2G成分フレーム画像の差分画像であるG成分差分画像を生成する(図4のステップS80)。そのG成分差分画像を図3(c)の一番右側に示す。この図において、自動車の前方部分が黒く塗り潰されている。これはR成分差分画像と同様に該自動車の移動によって生じた差分である。一方、対象物照射部3000の照射光はG成分の光を含んでいないため、G成分差分画像にはR成分差分画像とは異なり明暗の差分が生じない。つまり、G成分差分画像は動きの差分成分のみを有する。
Similar to the processing of step S60, when the first and second G component frame images are sent to the component difference
成分差分画像生成部40で生成されたRおよびG成分差分画像は対象物抽出部50に送られ、これらの画像の差分画像(最終差分画像(図3(d)の一番右の図を参照))が生成される(図4のステップS90)。図3(d)の最終差分画像では、対象物である右掌のみが黒く塗り潰されている。これは、RおよびG成分差分画像が有していた、自動車の移動により生じた動きの差分が除去され、R成分差分画像のみが有していた右掌の明暗の差分のみが表示されているからである。すなわち、R成分差分画像(明暗差分成分+動き差分成分)−G成分差分画像(動き差分成分)=最終差分画像(明暗差分成分)となる。
以降、この最終差分画像に二値化、ラベリング、領域選定処理を行うことで対象物(右掌)の位置を検出する(図4のステップS100)。
The R and G component difference images generated by the component difference
Thereafter, binarization, labeling, and region selection processing are performed on the final difference image to detect the position of the object (right palm) (step S100 in FIG. 4).
以上が本発明の一実施形態に係る画像処理装置1000によって行われる対象物検出用画像処理の内容および手順である。しかし、本発明の対象物検出用画像処理は、これらの内容および手順に限定されるものではない。
The above is the contents and procedure of the object detection image processing performed by the
実施例1では、成分画像生成部30と成分差分画像生成部40は、R成分の画像とG成分の画像を処理しているが、本発明はこれに限定されるものではなく、他の実施例においてG成分の画像の代わりにB成分の画像を取り扱ってよい。対象物照射部3000の照射光が赤外光である限り、G成分の画像とB成分の画像は同一となる。したがって、G成分の画像とB成分の画像の何れの画像を取り扱っても得られる最終結果は同一となる。
また、本実施例では対象物である右掌は静止しているが、移動していても照射光が到達可能な距離内に存在する限り好適にその位置を検出することができる。
In the first embodiment, the component
In this embodiment, the right palm, which is the object, is stationary, but even if it is moving, its position can be suitably detected as long as the irradiation light is within a reachable distance.
実施例1では、図2(b)に示すように画像撮像部2000の撮像毎に対象物照射部3000の照射光を消灯/点灯させているが、本発明において照射光はこの点滅タイミングに限定されるものではない。さらに、実施例では、フレーム画像ペアリング部20は時間軸上で隣接するフレーム画像同士を一対に組み合わせているが、本発明はこの組み合わせ方法に限定されるものではない。他の実施例において、対象物照射部3000は、画像撮像部2000が2度撮像する毎に照射光を消灯/点灯させてもよい。つまり、図2(c)の第1および第2フレーム画像は照射光が消灯時に撮像され、第3および第4フレーム画像は照射光が点灯時に撮像されることになる。さらに、フレーム画像ペアリング部20は、第1フレーム画像と第3フレーム画像とを一対に組み合わせ、第2および第4フレームには処理を行わないことも可能である。かかる場合、検出の応答性は下がるが、処理するデータ量が1/2に低減するため画像処理装置1000への負荷が軽減される。
したがって、本発明における画像処理装置の照射光の消灯/点灯のタイミングと、フレーム画像ペアリング部20が行うフレーム画像の組み合わせ方法とは、対象物の挙動、画像撮像物のフレームレート、画像処理装置の演算能力などの種々の条件に基づいて選択されることが好ましい。
In the first embodiment, as shown in FIG. 2B, the irradiation light of the
Therefore, the timing of turning off / on the irradiation light of the image processing apparatus according to the present invention and the frame image combination method performed by the frame
以上説明した本発明の一実施形態に係る画像処理1000は、従来の画像処理装置に比べて以下に示すような有利点を提供することができる。
[1]周囲環境の変化による影響が少ない。具体的には、外乱光(太陽光、白熱球および蛍光灯の光等)が対象物を照射しても、成分画像生成部30が成分差分画像(図3(b)(c)の一番右の画像)を生成する段階で外乱光による影響が除去される。同様に、画像撮像部2000が撮像中に多少動いても成分差分画像を生成する段階で影響が除去される。さらに、対象物の背後に移動物体が存在しても、対象物抽出部50が最終差分画像(図3の一番右の画像)を生成する段階で移動物体による影響が除去される。
[2]テンプレートマッチング処理等と異なり、前処理が不要である。また、対象物が動いて風景画内の対象物の大きさや角度が変わっても良好に検出することができる。
[3]単一の撮像装置しか用いていないため、ステレオカメラを用いる従来の画像処理装置と比べ、処理する画像の量が少ない。さらに、複雑な演算処理を行っていないため、画像処理装置1000に過大な負荷かからない。
The
[1] Less affected by changes in the surrounding environment. Specifically, even if disturbance light (sunlight, incandescent bulb, fluorescent lamp light, etc.) irradiates the object, the component
[2] Unlike template matching processing and the like, no preprocessing is required. Further, even if the object moves and the size or angle of the object in the landscape image changes, it can be detected well.
[3] Since only a single imaging device is used, the amount of images to be processed is small compared to a conventional image processing device using a stereo camera. Furthermore, since no complicated arithmetic processing is performed, the
本発明の一実施形態に係る画像認識装置1000は、以上のような有利点を有しているため、様々な用途に好適に適用可能である。例えば、実施例2で後述するコンピュータ用ポインティングデバイス、物体の動きの軌跡を解析するためのモーションキャプチャー、あるいは家電製品のリモコン装置などに適用できる。
Since the
上述した本発明の一実施形態に係る対象物検出用画像処理方法は、プログラムとして実装されることが好ましい。その場合には、プログラムはメインのサーバから該方法を実行するコンピュータへダウンロードされるか、コンピュータ可読媒体の形態で分配されることが好ましい。コンピュータ可読媒体の例としては、ハードディスク、CD−ROM、磁気テープ、フレキシブルディスク、光学式データ保存装置などが挙げられる。 The above-described image processing method for detecting an object according to an embodiment of the present invention is preferably implemented as a program. In that case, the program is preferably downloaded from the main server to a computer executing the method or distributed in the form of a computer readable medium. Examples of the computer readable medium include a hard disk, a CD-ROM, a magnetic tape, a flexible disk, and an optical data storage device.
実施例2では、上述の本発明の1実施形態に係る対象物検出用画像処理装置をコンピュータ用のユーザインターフェース装置に適用した場合を例示して説明する。
図5は、画像処理装置1000を搭載したユーザインターフェース装置4000を示している。このインターフェース装置4000は、ライト600と、ウェブカメラ700と、コンピュータ800とから構成されている。なお、ライト600およびウェブカメラ700は、画像処理装置1000の対象物照射部3000および画像撮像部2000(図1参照)にそれぞれ該当する。コンピュータ800は汎用コンピュータ等で実装され、画像処理装置1000の内部要素10〜50(図1参照)の機能を搭載している。
In Example 2, a case where the object detection image processing apparatus according to the embodiment of the present invention described above is applied to a computer user interface apparatus will be described as an example.
FIG. 5 shows a
本実施例のユーザインターフェース装置4000は非接触式であり、ユーザの手のジェスチャに従ってコンピュータ800に種々の動作を実行させる機能を有する。
図5および図6を参照し、かつ図7のフロー図に従ってユーザインターフェース装置4000の動作の手順を以下に説明する。
まず、図5(a)に示すようにユーザはユーザインターフェース装置4000に対峙し、右手をウェブカメラ700の視野内に配置する。なお、このとき右手は他の部位よりもウェブカメラ700およびライト600に接近させることが必要である。この状態でユーザは右手で所定のジェスチャをすることでコンピュータ800に所望の動作を行わせることができる。本実施例では、所定のジェスチャを親指と人差し指の先端を接触、あるいは近接させて輪を作る行為(以下「摘み動作」)とする。
The
The operation procedure of the
First, as shown in FIG. 5A, the user faces the
ユーザインターフェース装置4000はウェブカメラ700が撮像した風景から対象物を常時識別している。ユーザの右手が撮像風景の中に現れるとユーザインターフェース装置4000はその手を対象物として識別し、その位置を検出する(図7のステップS200)。なお、その詳細な検出手順は上述した図4のフロー図の手順ステップS10〜S100に従うものとする。
The
対象物を検出すると、次は図5(b)のように手の重心から手の端までの距離を求める(図7のステップS210)。具体的には、手の重心には図4のステップS100におけるラベリング処理で求めた重心を用い、その重心を中心として所定の角度ステップ(5°等)で所定の角度範囲(360°等)における手の端を求め、その端と重心との間の距離を測定する。そして、最も距離が長い5つの端を指先(a、b、c、d、e)として認識する。 When the object is detected, next, the distance from the center of gravity of the hand to the end of the hand is obtained as shown in FIG. 5B (step S210 in FIG. 7). Specifically, the center of gravity obtained by the labeling process in step S100 in FIG. 4 is used as the center of gravity of the hand, and the center of gravity is set at a predetermined angle step (such as 5 °) within a predetermined angle range (such as 360 °). Find the edge of the hand and measure the distance between that edge and the center of gravity. Then, the five ends with the longest distance are recognized as fingertips (a, b, c, d, e).
指を認識後、その指の形状から指が曲がっているかどうかを判断し、曲がっている場合にはその曲がり方向を特定する(図7のステップS220)。図5(c)の手の形状では、それぞれの指はその指先上部に示す矢印の方向に曲がっていると特定される。人間の手の指は親指のみが他の指と異なる方向に曲がる。したがって、個々の指の曲がり方向が特定できれば、指の中から親指(a)と人差し指(b)を特定することが可能である。 After recognizing the finger, it is determined whether or not the finger is bent from the shape of the finger. If the finger is bent, the bending direction is specified (step S220 in FIG. 7). In the shape of the hand shown in FIG. 5C, each finger is specified to be bent in the direction of the arrow shown at the top of the fingertip. Only the thumb of a human hand bends in a different direction from the other fingers. Therefore, if the bending direction of each finger can be specified, the thumb (a) and the index finger (b) can be specified from the fingers.
次に、手が摘み動作を行っているかどうかを判断する(図7のステップS230)。摘み動作を行っていると判断した場合には(ステップS230で「YES」)、コンピュータ800に所定の動作を実行させる(図7のステップS240)。行っていないと判断した場合には(ステップS230で「NO」)、再度ステップS200から手順を繰り返す。摘み動作を行っているか否かの判断は、図(d)に示すように、親指(図のa)と人差し指(図のb)とが閉ループを形成しているか否かで行う。
Next, it is determined whether or not the hand is picking (step S230 in FIG. 7). If it is determined that the picking operation is being performed (“YES” in step S230), the
以上が本実施例のユーザインターフェース装置400が行う一連の手順である。従来のジェスチャを識別する非接触式ユーザインターフェースでは、事前に所定のジェスチャを登録し、その登録した画像と撮像した画像とのマッチング処理を行う必要がある。この事前の登録作業はユーザにとっては煩わしいものである。さらに、ジェスチャには識別しやすいようにグー、チョキ、パーなどの形状にした手を登録する必要があったが、これでは長時間作業するとユーザは手に疲労を感じてしまう。また、他人の目が気になりユーザが使用を控える恐れもある。しかし、本実施例のユーザインターフェース装置400では事前登録が不要であり、かつ、摘み動作などのより自然で、控えめなジェスチャを設定することができる。 The above is a series of procedures performed by the user interface device 400 of this embodiment. In a conventional non-contact user interface for identifying a gesture, it is necessary to register a predetermined gesture in advance and perform a matching process between the registered image and the captured image. This prior registration work is troublesome for the user. Furthermore, it is necessary to register a hand shaped like goo, choki, par, etc. so that it can be easily identified as a gesture, but this makes the user feel fatigued when working for a long time. Moreover, there is a possibility that the user may refrain from using it because of the eyes of others. However, the user interface device 400 according to the present embodiment does not require pre-registration and can set a more natural and modest gesture such as a picking operation.
また、本実施例のユーザインターフェース装置400は、指の曲がる角度を基にユーザの親指と人差し指を識別するため、ユーザが右手と左手の何れを用いても、あるいは手の向きを反転させても親指と人差し指を正確に検出することができる。加えて、ユーザの手が上下左右、あるいは回転方向に移動しても、ウェブカメラ700の視野内に存在する限り検出することが可能である。
In addition, since the user interface device 400 according to the present embodiment identifies the user's thumb and index finger based on the angle at which the finger bends, the user can use either the right hand or the left hand, or the direction of the hand can be reversed. The thumb and index finger can be accurately detected. In addition, even if the user's hand moves up and down, left and right, or in the rotation direction, it can be detected as long as it is within the field of view of the
上記の特徴により、図6に示すようなビジュアル機能を提供することができる。この図の(a)〜(c)の右側の円形のオブジェクトは、コンピュータ800の画面に表示されるアイコンである。このアイコンはユーザのジェスチャに依存して形状を適宜変化させる。
With the above features, a visual function as shown in FIG. 6 can be provided. The circular objects on the right side of (a) to (c) in this figure are icons displayed on the screen of the
例えば、図6(a)では、ユーザの手は摘み動作を行っていない状態、あるいは行う直前である。このときアイコンは略真円の形状である。図6(b)ではユーザの手が摘み動作を行っている。このときアイコンは潰れた形状となる。当該アイコンは摘み動作と同一の角度に潰れる。さらに、図6(c)ではユーザは摘んだ状態で手を傾けている。このとき図の右側に示すように潰れたアイコンが同様に傾く。 For example, in FIG. 6A, the user's hand is in a state where no picking operation is performed, or just before it is performed. At this time, the icon has a substantially circular shape. In FIG. 6B, the user's hand is picking. At this time, the icon has a collapsed shape. The icon is crushed at the same angle as the picking operation. Furthermore, in FIG.6 (c), the user inclines with the hand picked. At this time, the collapsed icon is similarly tilted as shown on the right side of the figure.
このように、本実施例のユーザインターフェース装置400は、ユーザのジェスチャに連動した視覚的なフィードバックが可能であり、例えば、カーソルの摘みの有無、摘む角度、捻り具合、移動および回転の具合等をビジュアル化することにより、より実体感があり、かつユーザの直感に訴えた操作性を提供することができる。 As described above, the user interface device 400 according to the present embodiment can provide visual feedback linked to the user's gesture. For example, the presence / absence of the cursor picking, the picking angle, the twisting state, the moving and rotating state, etc. By visualizing, it is possible to provide operability that is more substantial and appeals to the user's intuition.
以上、本発明を図面に示した実施形態を用いて説明したが、これらは例示的なものに過ぎず、本技術分野の当業者ならば、本発明の範囲および趣旨から逸脱しない範囲で多様な変更および変形が可能なことは理解できるであろう。したがって、本発明の範囲は、説明された実施形態によって定められず、特許請求の範囲に記載された技術的趣旨により定められねばならない。 As mentioned above, although this invention was demonstrated using embodiment shown in drawing, these are only an illustration and those skilled in this technical field can variously be within the range which does not deviate from the range and the meaning of this invention. It will be understood that modifications and variations are possible. Accordingly, the scope of the invention should not be determined by the described embodiments, but by the technical spirit described in the claims.
10 画像取込部
20 フレーム画像ペアリング部
30 成分画像生成部
40 成分差分画像生成部
50 対象物抽出部
310 R成分生成部
320 G成分生成部
330 B成分生成部
410 R成分差分画像生成部
420 G成分差分画像生成部
430 B成分差分画像生成部
510 差分画像生成部
520 二値化処理部
530 ラベリング処理部
540 領域選定部
1000 対象物検出用画像処理装置
2000 画像撮像部
3000 対象物照射部
DESCRIPTION OF SYMBOLS 10
Claims (10)
前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込手段と、
前記画像取込手段が受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング手段と、
前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成手段と、
前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成手段と、
前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成手段と、
前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成手段と、
前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出手段と、
を備えることを特徴とする対象物検出用画像処理装置。 An imaging unit that images a landscape including an object at a predetermined frame rate; and an irradiation unit that irradiates the object with light having a wavelength in any one of the three primary colors or an infrared region, the frame of the imaging unit In an object processing image processing apparatus for detecting an object from an image captured by the image capturing unit, the irradiation unit flashing irradiation light in synchronization with a rate,
Image capturing means for receiving a plurality of frame images captured by the imaging means in time series;
From the frame image received by the image capturing unit, a frame image pairing unit that selects and pairs a frame image captured when the irradiation unit is turned on and a frame image captured when the irradiation unit is turned off. When,
First component image generation means for extracting a color component corresponding to the emission color of the illumination means from the pair of frame images, and generating a pair of first component frame images;
Second component image generating means for extracting any one color component different from the light emission color of the illumination means from the pair of frame images and generating a pair of second component frame images;
First difference image generation means for generating a first difference image from the pair of first component frame images;
Second difference image generation means for generating a second difference image from the pair of second component frame images;
Object extraction means for generating a third difference image from the first difference image and the second difference image, and recognizing the object based on the third difference image;
An image processing apparatus for detecting an object, comprising:
前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込段階と、
前記画像取込段階で受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング段階と、
前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成段階と、
前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成段階と、
前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成段階と、
前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成段階と、
前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出段階と、
を含むことを特徴とする対象物検出用画像処理方法。 An imaging unit that images a landscape including an object at a predetermined frame rate; and an irradiation unit that irradiates the object with light having a wavelength in any one of the three primary colors or an infrared region, the frame of the imaging unit In an object detection image processing method for detecting the object from an image captured by the imaging unit, performed by an image processing apparatus including an irradiation unit that blinks irradiation light in synchronization with a rate.
An image capturing step for receiving a plurality of frame images captured by the imaging unit in time series,
A frame image pairing step for selecting a pair of a frame image captured when the irradiation unit is turned on and a frame image captured when the irradiation unit is turned off from the frame image received in the image capturing step. When,
A first component image generation step of generating a pair of first component frame images by extracting each color component corresponding to the emission color of the illumination means from the pair of frame images;
A second component image generating step of extracting any one color component different from the emission color of the illumination means from the pair of frame images to generate a pair of second component frame images;
A first difference image generation step of generating a first difference image from the pair of first component frame images;
A second difference image generation step of generating a second difference image from the pair of second component frame images;
Generating a third difference image from the first difference image and the second difference image and recognizing the object based on the third difference image; and
An image processing method for detecting an object, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008332208A JP5156617B2 (en) | 2008-12-26 | 2008-12-26 | Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008332208A JP5156617B2 (en) | 2008-12-26 | 2008-12-26 | Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010152791A true JP2010152791A (en) | 2010-07-08 |
JP5156617B2 JP5156617B2 (en) | 2013-03-06 |
Family
ID=42571776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008332208A Expired - Fee Related JP5156617B2 (en) | 2008-12-26 | 2008-12-26 | Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5156617B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185631A (en) * | 2011-03-04 | 2012-09-27 | Nikon Corp | Projection device |
JP2013021389A (en) * | 2011-07-07 | 2013-01-31 | Nikon Corp | Image display device |
KR20140024876A (en) * | 2011-04-25 | 2014-03-03 | 마이크로소프트 코포레이션 | Laser diode modes |
JP2016520946A (en) * | 2014-01-07 | 2016-07-14 | ソフトキネティック ソフトウェア | Human versus computer natural 3D hand gesture based navigation method |
US9864433B2 (en) | 2012-07-13 | 2018-01-09 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
CN109215060A (en) * | 2017-06-30 | 2019-01-15 | 深圳泰山体育科技股份有限公司 | The weights recognition methods of physical-strength-type fitness facility and system |
JP7470069B2 (en) | 2021-02-17 | 2024-04-17 | 株式会社日立製作所 | Pointing object detection device, pointing object detection method, and pointing object detection system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08185503A (en) * | 1994-12-27 | 1996-07-16 | Mitsubishi Electric Corp | Image processor |
JPH10222285A (en) * | 1997-01-31 | 1998-08-21 | Toshiba Corp | Image extracting device |
JP2005050382A (en) * | 2000-09-28 | 2005-02-24 | Hitachi Kokusai Electric Inc | Object detection method, device, and program |
JP2007272596A (en) * | 2006-03-31 | 2007-10-18 | Denso Corp | Operation object extracting device for mobile body |
JP2008027242A (en) * | 2006-07-21 | 2008-02-07 | Toyota Central Res & Dev Lab Inc | Part determination device of object, and sex determination device |
-
2008
- 2008-12-26 JP JP2008332208A patent/JP5156617B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08185503A (en) * | 1994-12-27 | 1996-07-16 | Mitsubishi Electric Corp | Image processor |
JPH10222285A (en) * | 1997-01-31 | 1998-08-21 | Toshiba Corp | Image extracting device |
JP2005050382A (en) * | 2000-09-28 | 2005-02-24 | Hitachi Kokusai Electric Inc | Object detection method, device, and program |
JP2007272596A (en) * | 2006-03-31 | 2007-10-18 | Denso Corp | Operation object extracting device for mobile body |
JP2008027242A (en) * | 2006-07-21 | 2008-02-07 | Toyota Central Res & Dev Lab Inc | Part determination device of object, and sex determination device |
Non-Patent Citations (4)
Title |
---|
CSNG200001222006; 橋本 守 Mamoru Hashimoto: '多地点接続遠隔会議システム「サイバーサークル」における背景分離処理 Background separation in the mul' 電子情報通信学会技術研究報告 Vol.99 No.305 IEICE Technical Report 第99巻, 19990916, p.39-46, 社団法人電子情報通信学会 The Institute of Electro * |
CSNG200600129004; 小西 晋平 Shinpei KONISHI: '近赤外線パルス照明とステレオカメラを用いた運転手の頭部追跡手法 Driver's Head Tracking Technique wit' 電子情報通信学会技術研究報告 Vol.105 No.259 IEICE Technical Report 第105巻, 20050829, p.19-23, 社団法人電子情報通信学会 The Institute of Electro * |
JPN6012059071; 小西 晋平 Shinpei KONISHI: '近赤外線パルス照明とステレオカメラを用いた運転手の頭部追跡手法 Driver's Head Tracking Technique wit' 電子情報通信学会技術研究報告 Vol.105 No.259 IEICE Technical Report 第105巻, 20050829, p.19-23, 社団法人電子情報通信学会 The Institute of Electro * |
JPN6012059074; 橋本 守 Mamoru Hashimoto: '多地点接続遠隔会議システム「サイバーサークル」における背景分離処理 Background separation in the mul' 電子情報通信学会技術研究報告 Vol.99 No.305 IEICE Technical Report 第99巻, 19990916, p.39-46, 社団法人電子情報通信学会 The Institute of Electro * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185631A (en) * | 2011-03-04 | 2012-09-27 | Nikon Corp | Projection device |
KR20140024876A (en) * | 2011-04-25 | 2014-03-03 | 마이크로소프트 코포레이션 | Laser diode modes |
JP2014513357A (en) * | 2011-04-25 | 2014-05-29 | マイクロソフト コーポレーション | Laser diode mode |
KR102007445B1 (en) | 2011-04-25 | 2019-08-05 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Laser diode modes |
JP2013021389A (en) * | 2011-07-07 | 2013-01-31 | Nikon Corp | Image display device |
US9864433B2 (en) | 2012-07-13 | 2018-01-09 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
US11513601B2 (en) | 2012-07-13 | 2022-11-29 | Sony Depthsensing Solutions Sa/Nv | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
JP2016520946A (en) * | 2014-01-07 | 2016-07-14 | ソフトキネティック ソフトウェア | Human versus computer natural 3D hand gesture based navigation method |
US11294470B2 (en) | 2014-01-07 | 2022-04-05 | Sony Depthsensing Solutions Sa/Nv | Human-to-computer natural three-dimensional hand gesture based navigation method |
CN109215060A (en) * | 2017-06-30 | 2019-01-15 | 深圳泰山体育科技股份有限公司 | The weights recognition methods of physical-strength-type fitness facility and system |
CN109215060B (en) * | 2017-06-30 | 2023-03-31 | 深圳泰山体育科技有限公司 | Weight identification method and system for strength type fitness equipment |
JP7470069B2 (en) | 2021-02-17 | 2024-04-17 | 株式会社日立製作所 | Pointing object detection device, pointing object detection method, and pointing object detection system |
Also Published As
Publication number | Publication date |
---|---|
JP5156617B2 (en) | 2013-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5156617B2 (en) | Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program | |
US11190678B2 (en) | Information processing apparatus, information processing method, and program | |
JP6372487B2 (en) | Information processing apparatus, control method, program, and storage medium | |
US9122917B2 (en) | Recognizing gestures captured by video | |
WO2012124730A1 (en) | Detection device, input device, projector, and electronic apparatus | |
US8666115B2 (en) | Computer vision gesture based control of a device | |
US20180211138A1 (en) | Information processing device, information processing method, and storage medium | |
CN107077258B (en) | Projection type image display device and image display method | |
US9129400B1 (en) | Movement prediction for image capture | |
JP4733600B2 (en) | Operation detection device and its program | |
JP2009080539A (en) | Gesture recognition device and method therefor | |
JP2002318652A (en) | Virtual input device and its program | |
KR20150025041A (en) | Method and its apparatus for controlling a mouse cursor using eye recognition | |
JP6465197B2 (en) | Information processing apparatus, information processing method, and program | |
CN108351684B (en) | Operation detection device, operation detection method and image display system | |
US10943109B2 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
JP2000029619A (en) | Computer system | |
JP4436164B2 (en) | Optical signal pointing method, optical signal pointing device, and program | |
JP6260673B2 (en) | Information processing apparatus, information processing method, and program | |
JP5118663B2 (en) | Information terminal equipment | |
JP6032319B2 (en) | Information processing apparatus, information processing method, and program | |
CN106650556B (en) | Image judgment method and the Image sensor apparatus for executing this image judgment method | |
JP2011186537A (en) | Apparatus and method for processing information, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121210 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5156617 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |