JP2010152791A - Image processor for detecting object, method, program, and computer readable medium storing the program - Google Patents

Image processor for detecting object, method, program, and computer readable medium storing the program Download PDF

Info

Publication number
JP2010152791A
JP2010152791A JP2008332208A JP2008332208A JP2010152791A JP 2010152791 A JP2010152791 A JP 2010152791A JP 2008332208 A JP2008332208 A JP 2008332208A JP 2008332208 A JP2008332208 A JP 2008332208A JP 2010152791 A JP2010152791 A JP 2010152791A
Authority
JP
Japan
Prior art keywords
image
frame
component
pair
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008332208A
Other languages
Japanese (ja)
Other versions
JP5156617B2 (en
Inventor
Satoshi Ajika
聡 味香
Takashi Matsushima
崇 松嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Systemware Co Ltd
Original Assignee
Nippon Systemware Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Systemware Co Ltd filed Critical Nippon Systemware Co Ltd
Priority to JP2008332208A priority Critical patent/JP5156617B2/en
Publication of JP2010152791A publication Critical patent/JP2010152791A/en
Application granted granted Critical
Publication of JP5156617B2 publication Critical patent/JP5156617B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for detecting an object which eliminates the need of pretreatment and can detect the position of a moving object by identifying the moving object in a moving image without being affected by a change in a surrounding environment. <P>SOLUTION: The image processor for detecting the object (1000) includes an imaging means (2000) and an irradiating means (3000) for synchronizing with a frame rate of the imaging means to flicker irradiation light to detect the object from an image caught by the imaging means. The image processor includes: an image acquiring means (10); a frame image pairing means (20) for pairing frame images; a first component image generating means (310) for generating a pair of first component frame images; a second component image generating means (320) for generating a pair of second component frame images; a first difference image generating means (410) for generating a first difference image; a second difference image generating means (420) for generating a second difference image; and an object extracting means (50) for recognizing the object. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は画像処理技術に関し、より詳細には、撮像された画像から対象物を認識するための画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体に関する。   The present invention relates to an image processing technique, and more particularly to an image processing apparatus, method, program, and computer readable medium for storing the program for recognizing an object from a captured image.

動画像内の所定の移動物体(対象物)を認識するために様々な画像処理技術が考案されている。これらの技術によって人の手の動きやジェスチャを識別することができ、コンピュータ等のユーザインターフェース装置やテレビ等のリモコン装置に適用することが可能である。   Various image processing techniques have been devised for recognizing a predetermined moving object (object) in a moving image. These techniques can identify human hand movements and gestures, and can be applied to user interface devices such as computers and remote control devices such as televisions.

上記画像処理技術において最も代表的なものとしてテンプレートマッチング技術が挙げられる。テンプレートマッチングは、認識する物体の画像(テンプレート画像)を予め用意し、処理対象の画像上に該テンプレート画像を移動させながら比較して、該物体の有無を識別する手法である。この手法は物体の形状や色の違いまで識別できるため、高い精度で物体を認識することが可能である。しかし、処理量が多く、それゆえ処理に時間がかかり高速に移動する物体をリアルタイムで認識する用途には適していない。また、上述のテンプレート画像を取得する手順は使用者にとっては煩わしい作業になり得る。   A template matching technique is the most representative of the image processing techniques. Template matching is a method in which an image of an object to be recognized (template image) is prepared in advance, and the presence or absence of the object is identified by comparing the template image while moving it over the image to be processed. Since this method can discriminate even the difference in shape and color of an object, it is possible to recognize the object with high accuracy. However, the amount of processing is large, and therefore it is not suitable for an application for recognizing an object that takes a long time to process and moves at high speed. Further, the procedure for obtaining the template image described above can be a troublesome operation for the user.

また、テンプレートマッチングは外乱光などの想定外の光の影響を受けやすく、さらに、対象物がその形状や角度を変化させる場合には正確に認識することができない。   Further, template matching is easily affected by unexpected light such as disturbance light, and cannot be accurately recognized when the object changes its shape or angle.

上述の外乱光による影響を低減させるためには、特許文献1に開示する装置を用いればよい。この装置では、照明装置の光を所定の周期で点滅させ、照明装置が点灯時の画像と消灯時の画像とを撮像装置で取得する。次いで、これら2つの画像から時間差分画像を求め、その時間差分画像を基に対象物を検出する。点灯画像と消灯画像とから時間差分画像を求めることで、外乱光による影響を低減させて好適に移動物体を検出することを可能としている。   In order to reduce the influence of the above-mentioned disturbance light, an apparatus disclosed in Patent Document 1 may be used. In this device, the light of the lighting device is blinked at a predetermined cycle, and an image when the lighting device is turned on and an image when the lighting device is turned off are acquired by the imaging device. Next, a time difference image is obtained from these two images, and an object is detected based on the time difference image. By obtaining a time difference image from the lit image and the unlit image, it is possible to detect the moving object suitably by reducing the influence of disturbance light.

また、特許文献2は、ステレオカメラ(一対のカメラ)を用いることで移動物体を的確に検出する移動物体検出装置を開示している。   Patent Document 2 discloses a moving object detection apparatus that accurately detects a moving object by using a stereo camera (a pair of cameras).

さらに、特許文献3は、物体を検出する技術を備えた対象物検出前処理装置および方法を開示している。この装置および方法は、低コストで、かつ周囲環境に影響されず安定して対象物(人物の顔)を検出することが可能である。
特開2007−272596 特開2008−158640 特開2006−275988
Further, Patent Document 3 discloses an object detection pre-processing apparatus and method having a technique for detecting an object. This apparatus and method can detect an object (a person's face) stably at a low cost and without being affected by the surrounding environment.
JP 2007-272596 A JP2008-158640 JP 2006-275988 A

しかし、上記特許文献1〜3が開示する装置では、以下のような不都合が生じてしまう。   However, the devices disclosed in Patent Documents 1 to 3 have the following disadvantages.

特許文献1の装置が利用する時間差分画像は、元来動きにより生ずる差を識別するために用いるものである。そのため、撮像装置が手振れ等により動く、または、対象物の背後に他の移動物体が存在する場合には、対象物を正確に検出できない恐れがある。そのため、この装置は撮像装置をしっかりと固定し、かつ背景に他の移動物体が存在しない状態で使用しなくてはならない。すなわち、使用条件に制約が生じてしまう。   The time difference image used by the device of Patent Document 1 is used to identify a difference caused by a motion originally. Therefore, there is a possibility that the target cannot be accurately detected when the imaging apparatus moves due to hand shake or the like, or when another moving object exists behind the target. Therefore, this apparatus must be used in a state where the imaging apparatus is firmly fixed and no other moving object exists in the background. That is, the usage conditions are restricted.

特許文献2の装置ではステレオカメラを用いているため、カメラと対象物との間の距離を算出することができる。そのため、対象物の背後にある移動物体に影響されることはない。しかし、2台のカメラを用いるため、装置が大型化し、かつ高価になり得る。さらに、カメラが2台あるため処理する画像の量が多くなり、演算能力の低い処理装置、特に家電機器などに適用することが困難になる。   Since the apparatus of Patent Document 2 uses a stereo camera, the distance between the camera and the object can be calculated. Therefore, it is not affected by the moving object behind the object. However, since two cameras are used, the apparatus can be large and expensive. Furthermore, since there are two cameras, the amount of images to be processed increases, making it difficult to apply to a processing apparatus with low calculation capability, particularly home appliances.

特許文献3の装置では、カメラ等からなる撮像部に特定波長透過フィルタを装備している。このフィルタは装置の光源から放射される近赤外線領域の光のみを透過させる機能を有し、外乱光をカットする役目を果たす。しかし、外乱光光源となる太陽、蛍光灯、白熱灯などから放射される光には近赤外線領域の光も含まれるため、外乱光を十分にカットすることはできない。
また、該当の装置において、光量を制御するためには一定の明るさを有する面積が画像内に一定の割合で存在すること、対象物(顔)の特徴が予め把握していること、が必要である。すなわち、対象物の特徴を事前に装置に把握させる前処理が必要である。
さらに、異なる照射光量(明、暗)で画像を撮像し、その画像のうち良質な方を対象物の認識に用いている。そのため、検出に用いるフレームレートは、撮像部の実フレームレートの1/2に限定されてしまう。
In the apparatus of Patent Document 3, an imaging unit including a camera or the like is equipped with a specific wavelength transmission filter. This filter has a function of transmitting only light in the near-infrared region emitted from the light source of the apparatus, and serves to cut out disturbance light. However, since the light emitted from the sun, the fluorescent lamp, the incandescent lamp, or the like serving as the disturbance light source includes light in the near infrared region, the disturbance light cannot be sufficiently cut.
In addition, in the corresponding device, in order to control the amount of light, it is necessary that an area having a certain brightness exists in the image at a certain ratio and that the characteristics of the object (face) are grasped in advance. It is. That is, pre-processing is required for causing the apparatus to grasp the characteristics of the object in advance.
Furthermore, an image is picked up with different irradiation light amounts (bright and dark), and the higher quality of the images is used for recognition of the object. Therefore, the frame rate used for detection is limited to ½ of the actual frame rate of the imaging unit.

本発明は上記のような事情に鑑みて創案されたものであり、本発明の課題は、前処理が不要で、かつ周囲環境(外乱光の照射、他の移動物体の存在、撮像装置の変位等)に影響されずに動画像内の対象物を認識可能な画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することである。   The present invention has been made in view of the above circumstances, and the problem of the present invention is that no pre-processing is required and the surrounding environment (irradiation of ambient light, presence of other moving objects, displacement of the imaging device). Etc.) to provide an image processing apparatus, a method, a program, and a computer-readable medium for storing the program that can recognize an object in a moving image.

本発明の別の目的は、単一の撮像装置で実現可能で、かつ高度な演算処理が不要な対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することである。   Another object of the present invention is to provide an object detection image processing apparatus, method, program, and computer readable medium storing the program, which can be realized by a single imaging device and does not require advanced arithmetic processing. That is.

前記課題を解決するために創案された請求項1の発明は、所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備え、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理装置であり、当該装置は、
(a1)前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込手段と、
前記画像取込手段が受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング手段と、
(a2)前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成手段と、
(a3)前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成手段と、
(a4)前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成手段と、
(a5)前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成手段と、
(a6)前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出手段と、
を備えることを特徴とする。
The invention of claim 1 devised to solve the above-described problem is an imaging means for imaging a landscape including an object at a predetermined frame rate, and light having a wavelength in any one of the three primary colors or in the infrared region. An irradiating means for irradiating the object, the irradiating means for blinking irradiation light in synchronization with a frame rate of the imaging means, and the object for detecting the object from an image captured by the imaging means An image processing apparatus for detection,
(A1) Image capturing means for receiving a plurality of frame images captured by the imaging means in time series;
From the frame image received by the image capturing unit, a frame image pairing unit that selects and pairs a frame image captured when the irradiation unit is turned on and a frame image captured when the irradiation unit is turned off. When,
(A2) first component image generation means for extracting a color component corresponding to the emission color of the illumination means from the pair of frame images and generating a pair of first component frame images;
(A3) second component image generating means for extracting any one color component different from the light emission color of the illumination means from the pair of frame images and generating a pair of second component frame images;
(A4) first difference image generation means for generating a first difference image from the pair of first component frame images;
(A5) second difference image generation means for generating a second difference image from the pair of second component frame images;
(A6) an object extraction unit that generates a third difference image from the first difference image and the second difference image, and recognizes the object based on the third difference image;
It is characterized by providing.

前記課題を解決するために創案された請求項2の発明は、請求項1に記載の対象物検出用画像処理装置において、前記照射手段が1つまたは複数の発光ダイオードから構成されることを特徴とする。   Invention of Claim 2 created in order to solve the said subject is the image processing apparatus for object detection of Claim 1, Comprising: The said irradiation means is comprised from a 1 or several light emitting diode, It is characterized by the above-mentioned. And

前記課題を解決するために創案された請求項3の発明は、請求項1または2に記載の対象物検出用画像処理装置において、前記フレーム画像ペアリング手段による前記一対のフレーム画像の選択が、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする。   Invention of Claim 3 created in order to solve the said subject WHEREIN: In the image processing apparatus for object detection of Claim 1 or 2, selection of the said pair of frame image by the said frame image pairing means is the following. It is performed based on a frame rate of the imaging unit, a lighting cycle of irradiation light of the irradiation unit, and a behavior of the object.

前記課題を解決するために創案された請求項4の発明は、請求項1ないし3の何れか一項に記載の対象物検出用画像処理装置において、前記撮像手段が単一のカメラから構成されることを特徴とする。   Invention of Claim 4 created in order to solve the said subject is the image processing apparatus for object detection as described in any one of Claim 1 thru | or 3. WHEREIN: The said imaging means is comprised from a single camera. It is characterized by that.

前記課題を解決するために創案された請求項5の発明は、所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備えた画像処理装置によって行われる、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理方法であり、当該方法は、
(b1)前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込段階と、
前記画像取込段階で受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング段階と、
(b2)前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成段階と、
(b3)前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成段階と、
(b4)前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成段階と、
(b5)前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成段階と、
(b6)前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出段階と、
を含むことを特徴とする。
Invention of Claim 5 created in order to solve the said subject is the imaging means which images the scenery containing a target object with a predetermined | prescribed frame rate, and the light of the wavelength of any one area | region of three primary colors, or an infrared region. An irradiation unit that irradiates the object, and an irradiation unit that blinks irradiation light in synchronization with a frame rate of the imaging unit. This is an object detection image processing method for detecting an object.
(B1) an image capturing stage for receiving a plurality of frame images captured by the imaging unit in time series;
A frame image pairing step for selecting a pair of a frame image captured when the irradiation unit is turned on and a frame image captured when the irradiation unit is turned off from the frame image received in the image capturing step. When,
(B2) a first component image generation step of extracting a color component corresponding to the emission color of the illumination unit from the pair of frame images to generate a pair of first component frame images;
(B3) a second component image generation step of extracting any one color component different from the emission color of the illumination unit from the pair of frame images to generate a pair of second component frame images;
(B4) a first difference image generation step of generating a first difference image from the pair of first component frame images;
(B5) a second difference image generation step of generating a second difference image from the pair of second component frame images;
(B6) generating a third difference image from the first difference image and the second difference image, and recognizing the object based on the third difference image;
It is characterized by including.

前記課題を解決するために創案された請求項6の発明は、請求項5に記載の対象物検出用画像処理方法において、前記照射手段が1つまたは複数の発光ダイオードから構成されることを特徴とする。   Invention of Claim 6 created in order to solve the said subject WHEREIN: The image processing method for object detection of Claim 5 WHEREIN: The said irradiation means is comprised from a 1 or several light emitting diode, It is characterized by the above-mentioned. And

前記課題を解決するために創案された請求項7の発明は、請求項5または6に記載の対象物検出用画像処理方法において、前記フレーム画像ペアリング段階における前記一対のフレーム画像の選択が、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする。   Invention of Claim 7 created in order to solve the said subject WHEREIN: In the image processing method for object detection of Claim 5 or 6, selection of the said pair of frame image in the said frame image pairing step is, It is performed based on a frame rate of the imaging unit, a lighting cycle of irradiation light of the irradiation unit, and a behavior of the object.

前記課題を解決するために創案された請求項8の発明は、請求項5ないし7の何れか一項に記載の対象物検出用画像処理方法において、前記撮像手段が単一のカメラから構成されることを特徴とする。   Invention of Claim 8 created in order to solve the said subject is the image processing method for object detection as described in any one of Claim 5 thru | or 7. WHEREIN: The said imaging means is comprised from a single camera. It is characterized by that.

前記課題を解決するために創案された請求項9の発明は、請求項5ないし8の何れか1項に記載の方法をコンピュータに実行させるソフトウェアである。   Invention of Claim 9 created in order to solve the said subject is the software which makes a computer perform the method of any one of Claim 5 thru | or 8.

前記課題を解決するために創案された請求項10の発明は、請求項9に記載のソフトウェアを格納したコンピュータ可読媒体である。   The invention of claim 10 devised to solve the above problem is a computer readable medium storing the software of claim 9.

請求項1の装置および請求項5の方法は、周囲の環境変化に影響を受けずに動画像内の対象物を検出することが可能である。
具体的には、対象物を撮像時に外乱光の照射を受けても対象物の検出に影響を及ぼさない。外乱光の光源は、通常、太陽、白熱球、蛍光灯等が挙げられるが、そのうち太陽および白熱球からの光はほぼ直流の光のため、一対の第1成分フレーム画像(または一対の第2成分フレーム画像)の双方に同一に照射される。そのため、第1差分画像(または第2差分画像)生成時にその影響が削除される。同様に、蛍光灯、特に数100Hz程度で点灯するインバータ蛍光灯の光が照射しても、フレーム画像ペアリング手段が当該蛍光灯の点灯周期と重ならない周期で一対のフレーム画像を選択すれば、第1および第2差分画像生成時にその影響を削除することができる。
また、撮像時に撮像手段が振動、手ぶれ等で変位しても第1および第2成分画像を生成時にその影響が除去される。さらに、対象物の後方に移動物体が存在しても、第3差分画像生成時にその影響が除去される。
The apparatus of claim 1 and the method of claim 5 are capable of detecting an object in a moving image without being affected by changes in the surrounding environment.
Specifically, even if the object is irradiated with disturbance light during imaging, the detection of the object is not affected. The light source of disturbance light is usually the sun, an incandescent bulb, a fluorescent lamp, etc. Among them, the light from the sun and the incandescent bulb is almost direct current light, and thus a pair of first component frame images (or a pair of second images). Both of the component frame images are irradiated equally. Therefore, the influence is deleted when the first difference image (or the second difference image) is generated. Similarly, if a frame image pairing means selects a pair of frame images in a cycle that does not overlap with the lighting cycle of the fluorescent lamp, even if it is irradiated with light of a fluorescent lamp, particularly an inverter fluorescent lamp that lights at about several hundred Hz, The influence can be deleted when the first and second difference images are generated.
In addition, even when the imaging unit is displaced due to vibration, camera shake, or the like during imaging, the influence is removed when the first and second component images are generated. Furthermore, even if there is a moving object behind the target object, the influence is removed when the third differential image is generated.

上記の内容に加え、請求項1の装置および請求項5の方法では、事前に対象物を撮像するなどの前処理を行う必要がない。それゆえ容易に対象物の検出を行うことが可能である。また、対象物がその角度や形状を変化させても、識別が可能である。   In addition to the above contents, the apparatus of claim 1 and the method of claim 5 do not require preprocessing such as imaging an object in advance. Therefore, it is possible to easily detect an object. Further, even if the object changes its angle or shape, it can be identified.

請求項2の装置および請求項6の方法では、照射手段として1つまたは複数のLEDを用いることができる。LEDを用いることで、安価でコンパクトな照射手段を構成することが可能である。加えて、LEDは長い動作寿命を有しているため、照射手段が故障する可能性も低減される。   In the apparatus of claim 2 and the method of claim 6, one or more LEDs can be used as the irradiation means. By using the LED, it is possible to configure an inexpensive and compact irradiation means. In addition, since the LED has a long operating life, the possibility of failure of the irradiation means is also reduced.

請求項3の装置および請求項7の方法では、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて前記フレーム画像ペアリング手段による前記一対のフレーム画像を選択することで、応答性や処理するデータ量などを最適化することができる。   In the apparatus of claim 3 and the method of claim 7, the pair of frames by the frame image pairing unit based on a frame rate of the imaging unit, a lighting cycle of irradiation light of the irradiation unit, and a behavior of the object. By selecting the frame image, it is possible to optimize the responsiveness and the amount of data to be processed.

請求項4の装置および請求項8の方法では、単一のカメラで照明手段を実現するため、照明装置をコンパクトで、かつ軽量にすることが可能となる。また、既存のステレオカメラを用いた装置と比べると処理に用いる画像データの量が1/2になるため、装置の演算機能への負荷が低減される。それゆえ、演算能力の高くない処理装置で当該画像装置を実現することが可能であり、テレビのリモコン装置など、一般家電製品に適用することが可能となる。   In the apparatus of claim 4 and the method of claim 8, since the illumination means is realized by a single camera, the illumination apparatus can be made compact and lightweight. In addition, since the amount of image data used for processing is halved compared to an apparatus using an existing stereo camera, the load on the arithmetic function of the apparatus is reduced. Therefore, the image device can be realized by a processing device that does not have high computing power, and can be applied to general household appliances such as a remote control device for a television.

請求項9のソフトウェアによって、上記の対象物検出用画像処理方法を任意のコンピュータに実行させることが可能となる。   With the software according to the ninth aspect, it is possible to cause an arbitrary computer to execute the object detection image processing method.

請求項10のコンピュータ可読媒体によって、上記の対象物検出用画像処理方法を特定のユーザに好適に提供することが可能となる。   According to the computer readable medium of the tenth aspect, the object detection image processing method can be suitably provided to a specific user.

本発明により、前処理が不要で、かつ周囲環境(外乱光の照射、他の移動物体の存在、撮像装置の変位等)に影響されずに動画像内の対象物を認識可能な画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することが可能となる。さらに、単一の撮像装置で実現可能で、かつ高度な演算処理が不要な対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体も提供することが可能となる。   According to the present invention, an image processing apparatus that does not require preprocessing and can recognize an object in a moving image without being affected by ambient environment (irradiation of ambient light, presence of other moving objects, displacement of an imaging apparatus, etc.) It is possible to provide a method, a program, and a computer-readable medium storing the program. Furthermore, it is possible to provide an object detection image processing apparatus, a method, a program, and a computer-readable medium for storing the program, which can be realized by a single imaging apparatus and do not require advanced arithmetic processing.

添付図面を参照して本発明の一実施形態を説明する。なお、本実施形態において、動画を構成する複数のコマ画像を「フレーム画像」、画像内の被検出物体を「対象物」と称する。
また、本発明の一実施形態において「フレーム差分処理」とは、一対のフレーム画像の画素間の差分を求めることにより、当該フレーム画像間で異なる部分を抽出する処理であり、この処理で得られた画像を「差分画像」と称する。
An embodiment of the present invention will be described with reference to the accompanying drawings. In the present embodiment, a plurality of frame images constituting a moving image are referred to as “frame images”, and detected objects in the images are referred to as “target objects”.
Further, in one embodiment of the present invention, “frame difference processing” is processing for obtaining a difference between pixels of a pair of frame images to extract a different portion between the frame images. This image is referred to as a “difference image”.

図1は、本発明の一実施形態に係る対象物検出用画像処理装置(以下、「画像処理装置」)1000の機能ブロック図である。この画像処理装置1000は、外部機能要素として画像撮像部2000と、対象物照射部3000とを備え、さらに内部機能要素として画像取込部10と、フレーム画像ペアリング部20と、成分画像生成部30と、成分差分画像生成部40と、対象物抽出部50とを備え、画像撮像部2000が撮像した動画像から対象物を識別し、その位置を検出する機能を有する。   FIG. 1 is a functional block diagram of an object detection image processing apparatus (hereinafter, “image processing apparatus”) 1000 according to an embodiment of the present invention. The image processing apparatus 1000 includes an image capturing unit 2000 and an object irradiation unit 3000 as external function elements, and further includes an image capturing unit 10, a frame image pairing unit 20, and a component image generation unit as internal function elements. 30, a component difference image generation unit 40, and a target object extraction unit 50, and has a function of identifying a target object from a moving image captured by the image capturing unit 2000 and detecting its position.

以下に図1に示す画像処理装置1000の各機能要素についての簡単に説明する。
[画像撮像部]
画像撮像部2000は対象物を含む風景を所定のフレームレートで撮像し、その撮像した風景を所定形式のデジタル画像データとして画像取込部10に送る機能を有する。この画像撮像部2000には、既存の動画像を撮像可能なデジタル式カメラ、通称ムービーカメラを用いてよい。
The functional elements of the image processing apparatus 1000 shown in FIG. 1 will be briefly described below.
[Image capture unit]
The image capturing unit 2000 has a function of capturing a landscape including an object at a predetermined frame rate and sending the captured landscape to the image capturing unit 10 as digital image data in a predetermined format. The image capturing unit 2000 may be a digital camera capable of capturing an existing moving image, commonly called a movie camera.

[対象物照射部]
対象物照射部3000は、カメラ用のライトのように対象物に光を照射する機能を有する。ただし、照射光は、通常の白熱光ではなく、光の三原色(R、G、B)の何れかの領域内、あるいは赤外領域内の単一の波長の光成分のみを含む。さらに、詳細は後述するが、照射光は画像撮像部2000の撮像の実施/停止に同期して点滅する。したがって、マイクロ秒オーダの高速な応答性を有する。
対象物照射部3000は、特に限定するものではないが、発光ダイオード(LED)、レーザダイオードと光学部品、白熱球または蛍光灯と光学フィルタとシャッタ機構等で実現することができる。しかし、実現の容易さ、コスト、コンパクト性、信頼性等を考慮するとLEDを用いることが最も好ましい。
[Object irradiation unit]
The object irradiation unit 3000 has a function of irradiating the object with light like a light for a camera. However, the irradiation light is not normal incandescent light but includes only a light component having a single wavelength in one of the three primary colors (R, G, and B) or in the infrared region. Furthermore, although the details will be described later, the irradiation light blinks in synchronization with the execution / stop of the imaging of the image imaging unit 2000. Therefore, it has high-speed response on the order of microseconds.
The object irradiation unit 3000 is not particularly limited, but can be realized by a light emitting diode (LED), a laser diode and an optical component, an incandescent bulb or a fluorescent lamp, an optical filter, a shutter mechanism, and the like. However, it is most preferable to use an LED in consideration of ease of realization, cost, compactness, reliability, and the like.

[画像取込部]
画像取込部10は、画像撮像部2000とケーブル、無線、赤外線等で接続され、画像撮像部2000が撮像したフレーム画像のデータを時系列に受け取る機能を有する。受け取ったフレーム画像のデータは、フレーム画像ペアリング部20に送付する。
[Image capture unit]
The image capturing unit 10 is connected to the image capturing unit 2000 via a cable, wireless, infrared, or the like, and has a function of receiving frame image data captured by the image capturing unit 2000 in time series. The received frame image data is sent to the frame image pairing unit 20.

[フレーム画像ペアリング部]
フレーム画像ペアリング部20は、画像取込部10から受け取った複数のフレーム画像から所定のフレーム画像を抽出し、それらを一対に組み合わせる機能を有する。フレーム画像の抽出条件については後述するが、一対のフレーム画像のうち、一方は対象物に対象物照射部3000の光が照射された状態で画像撮像部2000によって撮像されたフレーム画像であり、他方は対象物に光が照射されない状態で撮像されたフレーム画像である。
[Frame image pairing part]
The frame image pairing unit 20 has a function of extracting a predetermined frame image from a plurality of frame images received from the image capturing unit 10 and combining them together. The extraction condition of the frame image will be described later, but one of the pair of frame images is a frame image captured by the image capturing unit 2000 in a state where the light of the target irradiation unit 3000 is irradiated on the target, and the other Is a frame image taken in a state in which the object is not irradiated with light.

[成分画像生成部]
成分画像生成部30は、R成分生成部310と、G成分生成部320と、B成分生成部330とから構成され、フレーム画像ペアリング部20が組み合わせた一対のフレーム画像からそれぞれR、G、B成分を抽出し、一対のR、G、B成分フレーム画像を生成する機能を有する。
[Component image generator]
The component image generation unit 30 includes an R component generation unit 310, a G component generation unit 320, and a B component generation unit 330, and R, G, and R respectively from a pair of frame images combined by the frame image pairing unit 20. It has a function of extracting a B component and generating a pair of R, G, and B component frame images.

[成分差分画像生成部]
成分差分画像生成部40は、R成分差分画像生成部410と、G成分差分画像生成部420と、B成分差分画像生成部430とから構成され、成分画像生成部30から受け取った一対のR、G、B成分フレーム画像を基に、それぞれR、G、B成分差分画像を生成する機能を有する。
[Component Difference Image Generation Unit]
The component difference image generation unit 40 includes an R component difference image generation unit 410, a G component difference image generation unit 420, and a B component difference image generation unit 430, and receives a pair of R, received from the component image generation unit 30. It has a function of generating R, G, and B component difference images based on the G and B component frame images, respectively.

[対象物抽出部]
対象物抽出部50は、成分差分画像生成部40から受け取ったR、G、B成分差分画像を基に、画像撮像部2000が撮像したフレーム画像内の対象物を識別し、その位置座標を求め、求めた座標を外部に出力する機能を有する。また、当該対象物抽出部50は、差分画像生成部510と、二値化処理部520と、ラベリング処理部530と、領域選定部540とから構成される。以下にそれぞれの機能について説明する。
(差分画像生成部)
差分画像生成部510は、成分差分画像生成部40から受け取ったR、G、B成分差分画像を基に、その差分画像(以降、「最終差分画像」と称する)を生成する機能を有する。
(二値化処理部)
二値化処理部520は、差分画像生成部510が生成した最終差分画像に対して二値化処理を行う機能を有する。この二値化処理には当該技術分野において周知な手法、例えば固定閾値法、Pタイル法、モード法、判別分析2値化法などを用いてよい。
(ラベリング処理部)
ラベリング処理部530は、二値化処理部520が二値化処理を施した最終差分画像にラベリング処理を行う機能を有する。ラベリング処理とは、画像の各画素における色情報を分析し、連結している画素に同一ラベルを付加することで複数の領域をグループとして分類する処理である。また、同時に各領域における重心を求めその位置を測定することが好ましい。これは、異なるフレーム画像間でこれらの領域の形や大きさが変化した場合に柔軟に対応するためである。
(領域選定部)
領域選定部540は、ラベリング処理部530が画定した複数の領域の輝度を求めて、それを比較し、最も輝度の高い領域を検出物と判断してその位置の座標を出力する機能を有する。
[Target Extraction Unit]
The object extraction unit 50 identifies the object in the frame image captured by the image capturing unit 2000 based on the R, G, and B component difference images received from the component difference image generation unit 40, and obtains the position coordinates thereof. The function of outputting the obtained coordinates to the outside is provided. The object extraction unit 50 includes a difference image generation unit 510, a binarization processing unit 520, a labeling processing unit 530, and an area selection unit 540. Each function will be described below.
(Difference image generator)
The difference image generation unit 510 has a function of generating a difference image (hereinafter referred to as “final difference image”) based on the R, G, and B component difference images received from the component difference image generation unit 40.
(Binarization processing part)
The binarization processing unit 520 has a function of performing binarization processing on the final difference image generated by the difference image generation unit 510. For this binarization processing, a method well known in the art, for example, a fixed threshold method, a P tile method, a mode method, a discriminant analysis binarization method, or the like may be used.
(Labeling processing part)
The labeling processing unit 530 has a function of performing a labeling process on the final difference image that has been binarized by the binarization processing unit 520. The labeling process is a process of classifying a plurality of regions as a group by analyzing color information in each pixel of the image and adding the same label to the connected pixels. At the same time, it is preferable to obtain the center of gravity in each region and measure the position. This is to flexibly cope with changes in the shape and size of these areas between different frame images.
(Region selection section)
The region selection unit 540 has a function of obtaining the brightness of a plurality of regions defined by the labeling processing unit 530, comparing them, determining the region with the highest brightness as a detected object, and outputting the coordinates of the position.

次に、図2の処理条件および図3の各種生成画像を参照しながら、図4のフロー図に従って、上述の機能を有する画像処理装置1000が行う画像処理の内容および手順の実施例を詳細に説明する。なお、図2および図3の原画像図を本出願と同時に提出した物件提出書にそれぞれ参考図面1および2として添付したので参照されたい。   Next, referring to the processing conditions of FIG. 2 and various generated images of FIG. 3, according to the flowchart of FIG. 4, the details of image processing contents and procedures performed by the image processing apparatus 1000 having the above-described functions will be described in detail. explain. 2 and 3 are attached as reference drawings 1 and 2 to the property submission file submitted at the same time as the present application, respectively.

図2(a)は本実施例の撮像条件を示している。画像処理装置1000の画像撮像部2000で1人の人物の顔とその右掌、並びにその他の人物の左掌を撮像して動画像を作成し、その動画像から対象物である右掌を識別し、その位置を検出する。ここで、画像撮像部2000と人物の各部位との距離関係は、該画像撮像部2000に近い順に当該1人の人物の右掌、顔、当該その他人物の左掌となる。また、撮像中に人物は動かず、人物の後方に画像撮像部2000から向かって左から右方向に自動車が走行するものとする。   FIG. 2A shows the imaging conditions of this embodiment. The image capturing unit 2000 of the image processing apparatus 1000 captures one person's face and its right palm and the other person's left palm to create a moving image, and identifies the right palm as a target object from the moving image. The position is detected. Here, the distance relationship between the image capturing unit 2000 and each part of the person is the right palm of the one person, the face, and the left palm of the other person in order of proximity to the image capturing unit 2000. In addition, it is assumed that the person does not move during imaging, and the automobile travels from the left to the right from the image capturing unit 2000 behind the person.

最初に、画像処理装置1000の対象物照射部3000の照射光を調整する(図4のステップS10)。まず、対象物照射部3000の照射光の種類の決定であるが、ここでは人物への影響を低減するために赤外光とする。この場合、画像撮像部2000の仕様によるが、一般的には赤外成分の情報はR、G、B成分の何れかの情報に加えられて出力される。本実施形態では、R成分に加えられるものとする。すなわち、画像処理装置1000は、対象物照射部3000がR領域の光を照射する場合と同様の処理を行えばよい。   First, the irradiation light of the object irradiation unit 3000 of the image processing apparatus 1000 is adjusted (step S10 in FIG. 4). First, the type of irradiation light of the object irradiation unit 3000 is determined. Here, in order to reduce the influence on the person, infrared light is used. In this case, depending on the specifications of the image capturing unit 2000, in general, information on infrared components is added to information on any of R, G, and B components and output. In this embodiment, it is added to the R component. That is, the image processing apparatus 1000 may perform the same processing as when the object irradiation unit 3000 irradiates light in the R region.

次いで、対象物である右掌の全体にできる限り均一に光が照射されるよう対象物照射部3000の照射範囲を調整する。本実施例では右掌は移動しないが、移動する場合には移動範囲全域に渡って光が右掌に照射されるよう調整しなくてはならない。対象物照射部3000をLEDで構成している場合には、LEDの数を増減することで照射光の照射範囲を可変すればよい。   Next, the irradiation range of the object irradiation unit 3000 is adjusted so that the entire right palm as the object is irradiated with light as uniformly as possible. In this embodiment, the right palm does not move. However, when moving, adjustment must be made so that light is irradiated to the right palm over the entire moving range. In the case where the object irradiation unit 3000 is configured by LEDs, the irradiation range of the irradiation light may be varied by increasing or decreasing the number of LEDs.

最後に、照射光の点滅のタイミングを調整する。本実施例では図2(b)に示すように、画像撮像部2000が撮像を行う毎に消灯/点灯を繰り返すよう調整する。   Finally, the flashing timing of the irradiation light is adjusted. In this embodiment, as shown in FIG. 2B, adjustment is performed so that the image capturing unit 2000 repeats turning off / on each time the image capturing is performed.

以上で、図4のステップS10の調整は完了する。ステップS10の手順が完了すると、次は画像撮像部2000が対象物を含む風景を撮像する(図4のステップS20)。撮像された動画像を構成する各フレーム画像は、画像撮像部2000から画像取込部10に送られる(図4のステップS30)。このとき送られるフレーム画像の例を図2(c)に示す。撮像された順にフレーム画像を第1〜第4フレーム画像とする。ここで、第1および第3フレーム画像は、対象物(右掌)に対象物照射部3000の光が照射されない状態で撮像されたものであり、第2および第4フレーム画像は、対象物に光が照射された状態で撮像されたものであることに留意されたい。   Thus, the adjustment in step S10 in FIG. 4 is completed. When the procedure of step S10 is completed, the image capturing unit 2000 next captures a landscape including the object (step S20 in FIG. 4). Each frame image constituting the captured moving image is sent from the image capturing unit 2000 to the image capturing unit 10 (step S30 in FIG. 4). An example of the frame image sent at this time is shown in FIG. The frame images are defined as first to fourth frame images in the order of image capturing. Here, the first and third frame images are captured in a state where the object (right palm) is not irradiated with the light of the object irradiation unit 3000, and the second and fourth frame images are captured on the object. It should be noted that the image was taken with light applied.

第1〜4フレーム画像が画像取込部10に送られると、フレーム画像ペアリング部20が第1および第2フレーム画像、並びに、第3および第4フレーム画像をそれぞれ一対に組み合わせる(図4のステップS40)。
なお、これらの一対のフレーム画像は同一の処理が施されるため、以降は第1および第2フレーム画像のペアへの処理についてのみ説明する。
When the first to fourth frame images are sent to the image capturing unit 10, the frame image pairing unit 20 combines the first and second frame images and the third and fourth frame images in pairs (FIG. 4). Step S40).
Since the pair of frame images are subjected to the same processing, only the processing for the pair of the first and second frame images will be described below.

成分画像生成部30は、フレーム画像ペアリング部20から第1および第2フレーム画像(図3(a))を受け取ると、それらを基に第1および第2R成分フレーム画像(図3(b))を生成する(図4のステップS50)。図3(b)に示すように、第2R成分フレーム画像では色の明暗が明瞭になっている。それは、人物の各部位に対象物照射部3000の光が照射されているためである。対象物である右掌は対象物照射部3000と最も近接しているため最も強く照射光を反射する。したがって一番明るい色で表示される。また、顔も右掌ほどではないが照射光を反射するため明るい色となる。一方、左掌および人物の後方を走行する自動車は暗い色となっている。つまり、左掌と自動車には対象物照射部3000の照射光が到達していない。また、図ではわかりにくいが、第1および第2R成分フレーム画像では、人物の後方を走行する自動車の位置が異なっている。   Upon receipt of the first and second frame images (FIG. 3A) from the frame image pairing unit 20, the component image generation unit 30 receives the first and second R component frame images (FIG. 3B) based on them. ) Is generated (step S50 in FIG. 4). As shown in FIG. 3B, the color contrast is clear in the second R component frame image. This is because the light of the object irradiation unit 3000 is applied to each part of the person. The right palm, which is the object, is the closest to the object irradiation unit 3000 and therefore reflects the irradiation light most strongly. Therefore, it is displayed in the brightest color. Also, the face is not as bright as the right palm, but is brighter because it reflects the irradiated light. On the other hand, the car running behind the left palm and the person has a dark color. That is, the irradiation light of the object irradiation unit 3000 does not reach the left palm and the automobile. Moreover, although it is difficult to understand in the figure, the positions of the automobiles traveling behind the person are different in the first and second R component frame images.

第1および第2R成分フレーム画像は、成分画像生成部30から成分差分画像生成部40に送られ、成分差分画像生成部40はこれらの画像の差分画像であるR成分差分画像を生成する(図4のステップS60)。このR成分差分画像を図3(b)の一番右側に示す。この図で、右掌と自動車の前方部分とが黒く塗り潰されているのがわかる。右掌は照射光の反射によって差分を生じており、自動車の前方部分は該自動車の移動によって差分を生じている。すなわち、R成分差分画像は、明暗の差分成分と動きの差分成分とを有する。   The first and second R component frame images are sent from the component image generation unit 30 to the component difference image generation unit 40, and the component difference image generation unit 40 generates an R component difference image that is a difference image of these images (FIG. Step S60 of 4). This R component difference image is shown on the rightmost side of FIG. In this figure, it can be seen that the right palm and the front part of the car are painted black. The right palm has a difference due to the reflection of the irradiation light, and the front portion of the automobile has a difference due to the movement of the automobile. That is, the R component difference image has a light / dark difference component and a motion difference component.

上記ステップS50およびS60の手順と並列して、以下のステップS70とS80の手順が行われる。
ステップS50の手順と同様に、成分画像生成部30は、第1および第2フレーム画像(図3(a))を基に第1および第2G成分フレーム画像(図3(c))を生成する(図4のステップS70)。
The following steps S70 and S80 are performed in parallel with the steps S50 and S60.
Similar to the procedure of step S50, the component image generation unit 30 generates the first and second G component frame images (FIG. 3C) based on the first and second frame images (FIG. 3A). (Step S70 in FIG. 4).

ステップS60の処理と同様に、第1および第2G成分フレーム画像が成分差分画像生成部40に送られると、成分差分画像生成部40は第1および第2G成分フレーム画像の差分画像であるG成分差分画像を生成する(図4のステップS80)。そのG成分差分画像を図3(c)の一番右側に示す。この図において、自動車の前方部分が黒く塗り潰されている。これはR成分差分画像と同様に該自動車の移動によって生じた差分である。一方、対象物照射部3000の照射光はG成分の光を含んでいないため、G成分差分画像にはR成分差分画像とは異なり明暗の差分が生じない。つまり、G成分差分画像は動きの差分成分のみを有する。   Similar to the processing of step S60, when the first and second G component frame images are sent to the component difference image generation unit 40, the component difference image generation unit 40 is a G component that is a difference image of the first and second G component frame images. A difference image is generated (step S80 in FIG. 4). The G component difference image is shown on the rightmost side of FIG. In this figure, the front part of the automobile is painted black. This is the difference caused by the movement of the car as in the R component difference image. On the other hand, since the irradiation light of the object irradiation unit 3000 does not include the G component light, unlike the R component difference image, there is no difference between light and dark in the G component difference image. That is, the G component difference image has only a motion difference component.

成分差分画像生成部40で生成されたRおよびG成分差分画像は対象物抽出部50に送られ、これらの画像の差分画像(最終差分画像(図3(d)の一番右の図を参照))が生成される(図4のステップS90)。図3(d)の最終差分画像では、対象物である右掌のみが黒く塗り潰されている。これは、RおよびG成分差分画像が有していた、自動車の移動により生じた動きの差分が除去され、R成分差分画像のみが有していた右掌の明暗の差分のみが表示されているからである。すなわち、R成分差分画像(明暗差分成分+動き差分成分)−G成分差分画像(動き差分成分)=最終差分画像(明暗差分成分)となる。
以降、この最終差分画像に二値化、ラベリング、領域選定処理を行うことで対象物(右掌)の位置を検出する(図4のステップS100)。
The R and G component difference images generated by the component difference image generation unit 40 are sent to the object extraction unit 50, and a difference image of these images (final difference image (see the rightmost diagram in FIG. 3D). )) Is generated (step S90 in FIG. 4). In the final difference image of FIG. 3D, only the right palm, which is the object, is painted black. This is because the difference in motion caused by the movement of the car, which was included in the R and G component difference images, is removed, and only the difference between the right palm and the light that was included in the R component difference image is displayed. Because. That is, R component difference image (light / dark difference component + motion difference component) −G component difference image (motion difference component) = final difference image (light / dark difference component).
Thereafter, binarization, labeling, and region selection processing are performed on the final difference image to detect the position of the object (right palm) (step S100 in FIG. 4).

以上が本発明の一実施形態に係る画像処理装置1000によって行われる対象物検出用画像処理の内容および手順である。しかし、本発明の対象物検出用画像処理は、これらの内容および手順に限定されるものではない。   The above is the contents and procedure of the object detection image processing performed by the image processing apparatus 1000 according to the embodiment of the present invention. However, the object detection image processing of the present invention is not limited to these contents and procedures.

実施例1では、成分画像生成部30と成分差分画像生成部40は、R成分の画像とG成分の画像を処理しているが、本発明はこれに限定されるものではなく、他の実施例においてG成分の画像の代わりにB成分の画像を取り扱ってよい。対象物照射部3000の照射光が赤外光である限り、G成分の画像とB成分の画像は同一となる。したがって、G成分の画像とB成分の画像の何れの画像を取り扱っても得られる最終結果は同一となる。
また、本実施例では対象物である右掌は静止しているが、移動していても照射光が到達可能な距離内に存在する限り好適にその位置を検出することができる。
In the first embodiment, the component image generation unit 30 and the component difference image generation unit 40 process the R component image and the G component image, but the present invention is not limited to this, and other embodiments are performed. In the example, a B component image may be handled instead of a G component image. As long as the irradiation light of the object irradiation unit 3000 is infrared light, the G component image and the B component image are the same. Therefore, the final result obtained is the same regardless of which of the G component image and the B component image is handled.
In this embodiment, the right palm, which is the object, is stationary, but even if it is moving, its position can be suitably detected as long as the irradiation light is within a reachable distance.

実施例1では、図2(b)に示すように画像撮像部2000の撮像毎に対象物照射部3000の照射光を消灯/点灯させているが、本発明において照射光はこの点滅タイミングに限定されるものではない。さらに、実施例では、フレーム画像ペアリング部20は時間軸上で隣接するフレーム画像同士を一対に組み合わせているが、本発明はこの組み合わせ方法に限定されるものではない。他の実施例において、対象物照射部3000は、画像撮像部2000が2度撮像する毎に照射光を消灯/点灯させてもよい。つまり、図2(c)の第1および第2フレーム画像は照射光が消灯時に撮像され、第3および第4フレーム画像は照射光が点灯時に撮像されることになる。さらに、フレーム画像ペアリング部20は、第1フレーム画像と第3フレーム画像とを一対に組み合わせ、第2および第4フレームには処理を行わないことも可能である。かかる場合、検出の応答性は下がるが、処理するデータ量が1/2に低減するため画像処理装置1000への負荷が軽減される。
したがって、本発明における画像処理装置の照射光の消灯/点灯のタイミングと、フレーム画像ペアリング部20が行うフレーム画像の組み合わせ方法とは、対象物の挙動、画像撮像物のフレームレート、画像処理装置の演算能力などの種々の条件に基づいて選択されることが好ましい。
In the first embodiment, as shown in FIG. 2B, the irradiation light of the object irradiation unit 3000 is turned off / turned on every imaging of the image imaging unit 2000. In the present invention, the irradiation light is limited to this blinking timing. Is not to be done. Furthermore, in the embodiment, the frame image pairing unit 20 combines a pair of adjacent frame images on the time axis, but the present invention is not limited to this combination method. In another embodiment, the object irradiation unit 3000 may turn off / turn on the irradiation light every time the image capturing unit 2000 captures images twice. That is, the first and second frame images in FIG. 2C are captured when the irradiation light is turned off, and the third and fourth frame images are captured when the irradiation light is turned on. Furthermore, the frame image pairing unit 20 can combine the first frame image and the third frame image as a pair and perform no processing on the second and fourth frames. In such a case, although the detection responsiveness is reduced, the load on the image processing apparatus 1000 is reduced because the amount of data to be processed is reduced to ½.
Therefore, the timing of turning off / on the irradiation light of the image processing apparatus according to the present invention and the frame image combination method performed by the frame image pairing unit 20 include the behavior of the object, the frame rate of the image pickup object, and the image processing apparatus. Preferably, the selection is made based on various conditions such as the computing ability of

以上説明した本発明の一実施形態に係る画像処理1000は、従来の画像処理装置に比べて以下に示すような有利点を提供することができる。
[1]周囲環境の変化による影響が少ない。具体的には、外乱光(太陽光、白熱球および蛍光灯の光等)が対象物を照射しても、成分画像生成部30が成分差分画像(図3(b)(c)の一番右の画像)を生成する段階で外乱光による影響が除去される。同様に、画像撮像部2000が撮像中に多少動いても成分差分画像を生成する段階で影響が除去される。さらに、対象物の背後に移動物体が存在しても、対象物抽出部50が最終差分画像(図3の一番右の画像)を生成する段階で移動物体による影響が除去される。
[2]テンプレートマッチング処理等と異なり、前処理が不要である。また、対象物が動いて風景画内の対象物の大きさや角度が変わっても良好に検出することができる。
[3]単一の撮像装置しか用いていないため、ステレオカメラを用いる従来の画像処理装置と比べ、処理する画像の量が少ない。さらに、複雑な演算処理を行っていないため、画像処理装置1000に過大な負荷かからない。
The image processing 1000 according to the embodiment of the present invention described above can provide the following advantages over the conventional image processing apparatus.
[1] Less affected by changes in the surrounding environment. Specifically, even if disturbance light (sunlight, incandescent bulb, fluorescent lamp light, etc.) irradiates the object, the component image generation unit 30 causes the component difference image (the first of FIGS. 3B and 3C). The influence of disturbance light is removed at the stage of generating the right image). Similarly, even if the image capturing unit 2000 moves somewhat during image capturing, the influence is removed at the stage of generating the component difference image. Further, even if there is a moving object behind the target object, the influence of the moving object is removed when the target object extraction unit 50 generates the final difference image (the rightmost image in FIG. 3).
[2] Unlike template matching processing and the like, no preprocessing is required. Further, even if the object moves and the size or angle of the object in the landscape image changes, it can be detected well.
[3] Since only a single imaging device is used, the amount of images to be processed is small compared to a conventional image processing device using a stereo camera. Furthermore, since no complicated arithmetic processing is performed, the image processing apparatus 1000 is not overloaded.

本発明の一実施形態に係る画像認識装置1000は、以上のような有利点を有しているため、様々な用途に好適に適用可能である。例えば、実施例2で後述するコンピュータ用ポインティングデバイス、物体の動きの軌跡を解析するためのモーションキャプチャー、あるいは家電製品のリモコン装置などに適用できる。   Since the image recognition apparatus 1000 according to an embodiment of the present invention has the advantages described above, it can be suitably applied to various applications. For example, the present invention can be applied to a computer pointing device, which will be described later in Embodiment 2, a motion capture for analyzing a movement trajectory of an object, or a remote control device for home appliances.

上述した本発明の一実施形態に係る対象物検出用画像処理方法は、プログラムとして実装されることが好ましい。その場合には、プログラムはメインのサーバから該方法を実行するコンピュータへダウンロードされるか、コンピュータ可読媒体の形態で分配されることが好ましい。コンピュータ可読媒体の例としては、ハードディスク、CD−ROM、磁気テープ、フレキシブルディスク、光学式データ保存装置などが挙げられる。   The above-described image processing method for detecting an object according to an embodiment of the present invention is preferably implemented as a program. In that case, the program is preferably downloaded from the main server to a computer executing the method or distributed in the form of a computer readable medium. Examples of the computer readable medium include a hard disk, a CD-ROM, a magnetic tape, a flexible disk, and an optical data storage device.

実施例2では、上述の本発明の1実施形態に係る対象物検出用画像処理装置をコンピュータ用のユーザインターフェース装置に適用した場合を例示して説明する。
図5は、画像処理装置1000を搭載したユーザインターフェース装置4000を示している。このインターフェース装置4000は、ライト600と、ウェブカメラ700と、コンピュータ800とから構成されている。なお、ライト600およびウェブカメラ700は、画像処理装置1000の対象物照射部3000および画像撮像部2000(図1参照)にそれぞれ該当する。コンピュータ800は汎用コンピュータ等で実装され、画像処理装置1000の内部要素10〜50(図1参照)の機能を搭載している。
In Example 2, a case where the object detection image processing apparatus according to the embodiment of the present invention described above is applied to a computer user interface apparatus will be described as an example.
FIG. 5 shows a user interface device 4000 equipped with the image processing apparatus 1000. The interface device 4000 includes a light 600, a web camera 700, and a computer 800. The light 600 and the web camera 700 correspond to the object irradiation unit 3000 and the image capturing unit 2000 (see FIG. 1) of the image processing apparatus 1000, respectively. The computer 800 is implemented by a general-purpose computer or the like, and has functions of internal elements 10 to 50 (see FIG. 1) of the image processing apparatus 1000.

本実施例のユーザインターフェース装置4000は非接触式であり、ユーザの手のジェスチャに従ってコンピュータ800に種々の動作を実行させる機能を有する。
図5および図6を参照し、かつ図7のフロー図に従ってユーザインターフェース装置4000の動作の手順を以下に説明する。
まず、図5(a)に示すようにユーザはユーザインターフェース装置4000に対峙し、右手をウェブカメラ700の視野内に配置する。なお、このとき右手は他の部位よりもウェブカメラ700およびライト600に接近させることが必要である。この状態でユーザは右手で所定のジェスチャをすることでコンピュータ800に所望の動作を行わせることができる。本実施例では、所定のジェスチャを親指と人差し指の先端を接触、あるいは近接させて輪を作る行為(以下「摘み動作」)とする。
The user interface device 4000 of this embodiment is a non-contact type and has a function of causing the computer 800 to execute various operations according to gestures of the user's hand.
The operation procedure of the user interface device 4000 will be described below with reference to FIGS. 5 and 6 and according to the flowchart of FIG.
First, as shown in FIG. 5A, the user faces the user interface device 4000 and places the right hand in the field of view of the web camera 700. At this time, the right hand needs to be closer to the web camera 700 and the light 600 than to other parts. In this state, the user can cause the computer 800 to perform a desired operation by making a predetermined gesture with the right hand. In the present embodiment, a predetermined gesture is an act of making a ring by bringing the thumb and index finger into contact with or close to each other (hereinafter, “picking operation”).

ユーザインターフェース装置4000はウェブカメラ700が撮像した風景から対象物を常時識別している。ユーザの右手が撮像風景の中に現れるとユーザインターフェース装置4000はその手を対象物として識別し、その位置を検出する(図7のステップS200)。なお、その詳細な検出手順は上述した図4のフロー図の手順ステップS10〜S100に従うものとする。   The user interface device 4000 always identifies an object from the landscape captured by the web camera 700. When the user's right hand appears in the imaged landscape, the user interface device 4000 identifies the hand as an object and detects its position (step S200 in FIG. 7). Note that the detailed detection procedure follows steps S10 to S100 in the flowchart of FIG. 4 described above.

対象物を検出すると、次は図5(b)のように手の重心から手の端までの距離を求める(図7のステップS210)。具体的には、手の重心には図4のステップS100におけるラベリング処理で求めた重心を用い、その重心を中心として所定の角度ステップ(5°等)で所定の角度範囲(360°等)における手の端を求め、その端と重心との間の距離を測定する。そして、最も距離が長い5つの端を指先(a、b、c、d、e)として認識する。   When the object is detected, next, the distance from the center of gravity of the hand to the end of the hand is obtained as shown in FIG. 5B (step S210 in FIG. 7). Specifically, the center of gravity obtained by the labeling process in step S100 in FIG. 4 is used as the center of gravity of the hand, and the center of gravity is set at a predetermined angle step (such as 5 °) within a predetermined angle range (such as 360 °). Find the edge of the hand and measure the distance between that edge and the center of gravity. Then, the five ends with the longest distance are recognized as fingertips (a, b, c, d, e).

指を認識後、その指の形状から指が曲がっているかどうかを判断し、曲がっている場合にはその曲がり方向を特定する(図7のステップS220)。図5(c)の手の形状では、それぞれの指はその指先上部に示す矢印の方向に曲がっていると特定される。人間の手の指は親指のみが他の指と異なる方向に曲がる。したがって、個々の指の曲がり方向が特定できれば、指の中から親指(a)と人差し指(b)を特定することが可能である。   After recognizing the finger, it is determined whether or not the finger is bent from the shape of the finger. If the finger is bent, the bending direction is specified (step S220 in FIG. 7). In the shape of the hand shown in FIG. 5C, each finger is specified to be bent in the direction of the arrow shown at the top of the fingertip. Only the thumb of a human hand bends in a different direction from the other fingers. Therefore, if the bending direction of each finger can be specified, the thumb (a) and the index finger (b) can be specified from the fingers.

次に、手が摘み動作を行っているかどうかを判断する(図7のステップS230)。摘み動作を行っていると判断した場合には(ステップS230で「YES」)、コンピュータ800に所定の動作を実行させる(図7のステップS240)。行っていないと判断した場合には(ステップS230で「NO」)、再度ステップS200から手順を繰り返す。摘み動作を行っているか否かの判断は、図(d)に示すように、親指(図のa)と人差し指(図のb)とが閉ループを形成しているか否かで行う。   Next, it is determined whether or not the hand is picking (step S230 in FIG. 7). If it is determined that the picking operation is being performed (“YES” in step S230), the computer 800 is caused to execute a predetermined operation (step S240 in FIG. 7). If it is determined that it has not been performed (“NO” in step S230), the procedure is repeated from step S200 again. Whether the picking operation is being performed is determined based on whether or not the thumb (a in the figure) and the index finger (b in the figure) form a closed loop, as shown in FIG.

以上が本実施例のユーザインターフェース装置400が行う一連の手順である。従来のジェスチャを識別する非接触式ユーザインターフェースでは、事前に所定のジェスチャを登録し、その登録した画像と撮像した画像とのマッチング処理を行う必要がある。この事前の登録作業はユーザにとっては煩わしいものである。さらに、ジェスチャには識別しやすいようにグー、チョキ、パーなどの形状にした手を登録する必要があったが、これでは長時間作業するとユーザは手に疲労を感じてしまう。また、他人の目が気になりユーザが使用を控える恐れもある。しかし、本実施例のユーザインターフェース装置400では事前登録が不要であり、かつ、摘み動作などのより自然で、控えめなジェスチャを設定することができる。   The above is a series of procedures performed by the user interface device 400 of this embodiment. In a conventional non-contact user interface for identifying a gesture, it is necessary to register a predetermined gesture in advance and perform a matching process between the registered image and the captured image. This prior registration work is troublesome for the user. Furthermore, it is necessary to register a hand shaped like goo, choki, par, etc. so that it can be easily identified as a gesture, but this makes the user feel fatigued when working for a long time. Moreover, there is a possibility that the user may refrain from using it because of the eyes of others. However, the user interface device 400 according to the present embodiment does not require pre-registration and can set a more natural and modest gesture such as a picking operation.

また、本実施例のユーザインターフェース装置400は、指の曲がる角度を基にユーザの親指と人差し指を識別するため、ユーザが右手と左手の何れを用いても、あるいは手の向きを反転させても親指と人差し指を正確に検出することができる。加えて、ユーザの手が上下左右、あるいは回転方向に移動しても、ウェブカメラ700の視野内に存在する限り検出することが可能である。   In addition, since the user interface device 400 according to the present embodiment identifies the user's thumb and index finger based on the angle at which the finger bends, the user can use either the right hand or the left hand, or the direction of the hand can be reversed. The thumb and index finger can be accurately detected. In addition, even if the user's hand moves up and down, left and right, or in the rotation direction, it can be detected as long as it is within the field of view of the webcam 700.

上記の特徴により、図6に示すようなビジュアル機能を提供することができる。この図の(a)〜(c)の右側の円形のオブジェクトは、コンピュータ800の画面に表示されるアイコンである。このアイコンはユーザのジェスチャに依存して形状を適宜変化させる。   With the above features, a visual function as shown in FIG. 6 can be provided. The circular objects on the right side of (a) to (c) in this figure are icons displayed on the screen of the computer 800. This icon changes shape appropriately depending on the user's gesture.

例えば、図6(a)では、ユーザの手は摘み動作を行っていない状態、あるいは行う直前である。このときアイコンは略真円の形状である。図6(b)ではユーザの手が摘み動作を行っている。このときアイコンは潰れた形状となる。当該アイコンは摘み動作と同一の角度に潰れる。さらに、図6(c)ではユーザは摘んだ状態で手を傾けている。このとき図の右側に示すように潰れたアイコンが同様に傾く。   For example, in FIG. 6A, the user's hand is in a state where no picking operation is performed, or just before it is performed. At this time, the icon has a substantially circular shape. In FIG. 6B, the user's hand is picking. At this time, the icon has a collapsed shape. The icon is crushed at the same angle as the picking operation. Furthermore, in FIG.6 (c), the user inclines with the hand picked. At this time, the collapsed icon is similarly tilted as shown on the right side of the figure.

このように、本実施例のユーザインターフェース装置400は、ユーザのジェスチャに連動した視覚的なフィードバックが可能であり、例えば、カーソルの摘みの有無、摘む角度、捻り具合、移動および回転の具合等をビジュアル化することにより、より実体感があり、かつユーザの直感に訴えた操作性を提供することができる。   As described above, the user interface device 400 according to the present embodiment can provide visual feedback linked to the user's gesture. For example, the presence / absence of the cursor picking, the picking angle, the twisting state, the moving and rotating state, etc. By visualizing, it is possible to provide operability that is more substantial and appeals to the user's intuition.

以上、本発明を図面に示した実施形態を用いて説明したが、これらは例示的なものに過ぎず、本技術分野の当業者ならば、本発明の範囲および趣旨から逸脱しない範囲で多様な変更および変形が可能なことは理解できるであろう。したがって、本発明の範囲は、説明された実施形態によって定められず、特許請求の範囲に記載された技術的趣旨により定められねばならない。   As mentioned above, although this invention was demonstrated using embodiment shown in drawing, these are only an illustration and those skilled in this technical field can variously be within the range which does not deviate from the range and the meaning of this invention. It will be understood that modifications and variations are possible. Accordingly, the scope of the invention should not be determined by the described embodiments, but by the technical spirit described in the claims.

本発明の一実施形態に係る対象物検出用画像処理装置の機能を示すブロック図である。It is a block diagram which shows the function of the image processing apparatus for object detection which concerns on one Embodiment of this invention. 本発明の一実施形態に係る対象物検出用画像処理装置の画像処理を説明するための図であり、(a)は撮像条件を示す図であり、(b)は撮像と照射光の点滅とのタイミングを示す図であり、(c)はそのときに撮像されたフレーム画像である。なお、本図面を物件提出書に添付する。It is a figure for demonstrating the image processing of the image processing apparatus for object detection which concerns on one Embodiment of this invention, (a) is a figure which shows imaging conditions, (b) is blinking of imaging and irradiation light, (C) is a frame image captured at that time. This drawing will be attached to the property submission form. 本発明の一実施形態に係る対象物検出用画像処理装置の画像処理を説明するための図であり、(a)は撮像したフレーム画像であり、(b)はR成分のフレーム画像および差分画像であり、(c)はG成分のフレーム画像および差分画像であり、(d)はRおよびG成分差分画像と最終差分画像である。なお、本図面を物件提出書に添付する。It is a figure for demonstrating the image processing of the image processing apparatus for target object detection concerning one Embodiment of this invention, (a) is the imaged frame image, (b) is a frame image and difference image of R component (C) is a G component frame image and a difference image, and (d) is an R and G component difference image and a final difference image. This drawing will be attached to the property submission form. 本発明の一実施形態に係る対象物検出用画像処理装置が行う画像処理のフロー図である。It is a flowchart of the image processing which the image processing apparatus for object detection which concerns on one Embodiment of this invention performs. 本発明の一実施形態に係る対象物検出用画像処理装置を搭載したユーザインターフェース装置の態様を説明する図であり、(a)は当該ユーザインターフェース装置であり、(b)ないし(d)は対象物である掌の検出方法を説明するための図である。It is a figure explaining the aspect of the user interface apparatus carrying the image processing apparatus for target object detection concerning one Embodiment of this invention, (a) is the said user interface apparatus, (b) thru | or (d) are object. It is a figure for demonstrating the detection method of the palm which is a thing. 本発明の一実施形態に係る対象物検出用画像処理装置を搭載したユーザインターフェース装置のカーソルの態様を説明するための図である。It is a figure for demonstrating the aspect of the cursor of the user interface apparatus carrying the image processing apparatus for target object detection concerning one Embodiment of this invention. 本発明の一実施形態に係る対象物検出用画像処理装置の動作手順のフロー図である。It is a flowchart of the operation | movement procedure of the image processing apparatus for object detection which concerns on one Embodiment of this invention.

符号の説明Explanation of symbols

10 画像取込部
20 フレーム画像ペアリング部
30 成分画像生成部
40 成分差分画像生成部
50 対象物抽出部
310 R成分生成部
320 G成分生成部
330 B成分生成部
410 R成分差分画像生成部
420 G成分差分画像生成部
430 B成分差分画像生成部
510 差分画像生成部
520 二値化処理部
530 ラベリング処理部
540 領域選定部
1000 対象物検出用画像処理装置
2000 画像撮像部
3000 対象物照射部
DESCRIPTION OF SYMBOLS 10 Image capture part 20 Frame image pairing part 30 Component image generation part 40 Component difference image generation part 50 Object extraction part 310 R component generation part 320 G component generation part 330 B component generation part 410 R component difference image generation part 420 G component difference image generation unit 430 B component difference image generation unit 510 Difference image generation unit 520 Binarization processing unit 530 Labeling processing unit 540 Area selection unit 1000 Image processing device for object detection 2000 Image imaging unit 3000 Object irradiation unit

Claims (10)

所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備え、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理装置において、
前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込手段と、
前記画像取込手段が受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング手段と、
前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成手段と、
前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成手段と、
前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成手段と、
前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成手段と、
前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出手段と、
を備えることを特徴とする対象物検出用画像処理装置。
An imaging unit that images a landscape including an object at a predetermined frame rate; and an irradiation unit that irradiates the object with light having a wavelength in any one of the three primary colors or an infrared region, the frame of the imaging unit In an object processing image processing apparatus for detecting an object from an image captured by the image capturing unit, the irradiation unit flashing irradiation light in synchronization with a rate,
Image capturing means for receiving a plurality of frame images captured by the imaging means in time series;
From the frame image received by the image capturing unit, a frame image pairing unit that selects and pairs a frame image captured when the irradiation unit is turned on and a frame image captured when the irradiation unit is turned off. When,
First component image generation means for extracting a color component corresponding to the emission color of the illumination means from the pair of frame images, and generating a pair of first component frame images;
Second component image generating means for extracting any one color component different from the light emission color of the illumination means from the pair of frame images and generating a pair of second component frame images;
First difference image generation means for generating a first difference image from the pair of first component frame images;
Second difference image generation means for generating a second difference image from the pair of second component frame images;
Object extraction means for generating a third difference image from the first difference image and the second difference image, and recognizing the object based on the third difference image;
An image processing apparatus for detecting an object, comprising:
前記照射手段は、1つまたは複数の発光ダイオードから構成されることを特徴とする請求項1に記載の対象物検出用画像処理装置。   The object processing image processing apparatus according to claim 1, wherein the irradiation unit includes one or a plurality of light emitting diodes. 前記フレーム画像ペアリング手段による前記一対のフレーム画像の選択は、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする請求項1または2に記載の対象物検出用画像処理装置。   The selection of the pair of frame images by the frame image pairing unit is performed based on a frame rate of the imaging unit, a lighting cycle of irradiation light of the irradiation unit, and a behavior of the object. The image processing apparatus for detecting an object according to claim 1 or 2. 前記撮像手段は、単一のカメラから構成されることを特徴とする請求項1ないし3の何れか一項に記載の対象物検出用画像処理装置。   4. The object detection image processing apparatus according to claim 1, wherein the imaging unit includes a single camera. 5. 所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備えた画像処理装置によって行われる、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理方法において、
前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込段階と、
前記画像取込段階で受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング段階と、
前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成段階と、
前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成段階と、
前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成段階と、
前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成段階と、
前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出段階と、
を含むことを特徴とする対象物検出用画像処理方法。
An imaging unit that images a landscape including an object at a predetermined frame rate; and an irradiation unit that irradiates the object with light having a wavelength in any one of the three primary colors or an infrared region, the frame of the imaging unit In an object detection image processing method for detecting the object from an image captured by the imaging unit, performed by an image processing apparatus including an irradiation unit that blinks irradiation light in synchronization with a rate.
An image capturing step for receiving a plurality of frame images captured by the imaging unit in time series,
A frame image pairing step for selecting a pair of a frame image captured when the irradiation unit is turned on and a frame image captured when the irradiation unit is turned off from the frame image received in the image capturing step. When,
A first component image generation step of generating a pair of first component frame images by extracting each color component corresponding to the emission color of the illumination means from the pair of frame images;
A second component image generating step of extracting any one color component different from the emission color of the illumination means from the pair of frame images to generate a pair of second component frame images;
A first difference image generation step of generating a first difference image from the pair of first component frame images;
A second difference image generation step of generating a second difference image from the pair of second component frame images;
Generating a third difference image from the first difference image and the second difference image and recognizing the object based on the third difference image; and
An image processing method for detecting an object, comprising:
前記照射手段は、1つまたは複数の発光ダイオードから構成されることを特徴とする請求項5に記載の対象物検出用画像処理方法。   The object processing image processing method according to claim 5, wherein the irradiation unit includes one or a plurality of light emitting diodes. 前記フレーム画像ペアリング段階における前記一対のフレーム画像の選択は、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする請求項5または6に記載の対象物検出用画像処理方法。   The selection of the pair of frame images in the frame image pairing stage is performed based on a frame rate of the imaging unit, a lighting cycle of irradiation light of the irradiation unit, and a behavior of the object. The image processing method for detecting an object according to claim 5 or 6. 前記撮像手段は、単一のカメラから構成されることを特徴とする請求項5ないし7の何れか一項に記載の対象物検出用画像処理方法。   The image processing method for detecting an object according to any one of claims 5 to 7, wherein the imaging unit is configured by a single camera. 請求項5ないし8の何れか1項に記載の方法をコンピュータに実行させるソフトウェア。   Software for causing a computer to execute the method according to any one of claims 5 to 8. 請求項9に記載のソフトウェアを格納したコンピュータ可読媒体。   A computer-readable medium storing the software according to claim 9.
JP2008332208A 2008-12-26 2008-12-26 Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program Expired - Fee Related JP5156617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008332208A JP5156617B2 (en) 2008-12-26 2008-12-26 Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008332208A JP5156617B2 (en) 2008-12-26 2008-12-26 Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program

Publications (2)

Publication Number Publication Date
JP2010152791A true JP2010152791A (en) 2010-07-08
JP5156617B2 JP5156617B2 (en) 2013-03-06

Family

ID=42571776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008332208A Expired - Fee Related JP5156617B2 (en) 2008-12-26 2008-12-26 Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program

Country Status (1)

Country Link
JP (1) JP5156617B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185631A (en) * 2011-03-04 2012-09-27 Nikon Corp Projection device
JP2013021389A (en) * 2011-07-07 2013-01-31 Nikon Corp Image display device
KR20140024876A (en) * 2011-04-25 2014-03-03 마이크로소프트 코포레이션 Laser diode modes
JP2016520946A (en) * 2014-01-07 2016-07-14 ソフトキネティック ソフトウェア Human versus computer natural 3D hand gesture based navigation method
US9864433B2 (en) 2012-07-13 2018-01-09 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
CN109215060A (en) * 2017-06-30 2019-01-15 深圳泰山体育科技股份有限公司 The weights recognition methods of physical-strength-type fitness facility and system
JP7470069B2 (en) 2021-02-17 2024-04-17 株式会社日立製作所 Pointing object detection device, pointing object detection method, and pointing object detection system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08185503A (en) * 1994-12-27 1996-07-16 Mitsubishi Electric Corp Image processor
JPH10222285A (en) * 1997-01-31 1998-08-21 Toshiba Corp Image extracting device
JP2005050382A (en) * 2000-09-28 2005-02-24 Hitachi Kokusai Electric Inc Object detection method, device, and program
JP2007272596A (en) * 2006-03-31 2007-10-18 Denso Corp Operation object extracting device for mobile body
JP2008027242A (en) * 2006-07-21 2008-02-07 Toyota Central Res & Dev Lab Inc Part determination device of object, and sex determination device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08185503A (en) * 1994-12-27 1996-07-16 Mitsubishi Electric Corp Image processor
JPH10222285A (en) * 1997-01-31 1998-08-21 Toshiba Corp Image extracting device
JP2005050382A (en) * 2000-09-28 2005-02-24 Hitachi Kokusai Electric Inc Object detection method, device, and program
JP2007272596A (en) * 2006-03-31 2007-10-18 Denso Corp Operation object extracting device for mobile body
JP2008027242A (en) * 2006-07-21 2008-02-07 Toyota Central Res & Dev Lab Inc Part determination device of object, and sex determination device

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200001222006; 橋本 守 Mamoru Hashimoto: '多地点接続遠隔会議システム「サイバーサークル」における背景分離処理 Background separation in the mul' 電子情報通信学会技術研究報告 Vol.99 No.305 IEICE Technical Report 第99巻, 19990916, p.39-46, 社団法人電子情報通信学会 The Institute of Electro *
CSNG200600129004; 小西 晋平 Shinpei KONISHI: '近赤外線パルス照明とステレオカメラを用いた運転手の頭部追跡手法 Driver's Head Tracking Technique wit' 電子情報通信学会技術研究報告 Vol.105 No.259 IEICE Technical Report 第105巻, 20050829, p.19-23, 社団法人電子情報通信学会 The Institute of Electro *
JPN6012059071; 小西 晋平 Shinpei KONISHI: '近赤外線パルス照明とステレオカメラを用いた運転手の頭部追跡手法 Driver's Head Tracking Technique wit' 電子情報通信学会技術研究報告 Vol.105 No.259 IEICE Technical Report 第105巻, 20050829, p.19-23, 社団法人電子情報通信学会 The Institute of Electro *
JPN6012059074; 橋本 守 Mamoru Hashimoto: '多地点接続遠隔会議システム「サイバーサークル」における背景分離処理 Background separation in the mul' 電子情報通信学会技術研究報告 Vol.99 No.305 IEICE Technical Report 第99巻, 19990916, p.39-46, 社団法人電子情報通信学会 The Institute of Electro *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185631A (en) * 2011-03-04 2012-09-27 Nikon Corp Projection device
KR20140024876A (en) * 2011-04-25 2014-03-03 마이크로소프트 코포레이션 Laser diode modes
JP2014513357A (en) * 2011-04-25 2014-05-29 マイクロソフト コーポレーション Laser diode mode
KR102007445B1 (en) 2011-04-25 2019-08-05 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Laser diode modes
JP2013021389A (en) * 2011-07-07 2013-01-31 Nikon Corp Image display device
US9864433B2 (en) 2012-07-13 2018-01-09 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
US11513601B2 (en) 2012-07-13 2022-11-29 Sony Depthsensing Solutions Sa/Nv Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand
JP2016520946A (en) * 2014-01-07 2016-07-14 ソフトキネティック ソフトウェア Human versus computer natural 3D hand gesture based navigation method
US11294470B2 (en) 2014-01-07 2022-04-05 Sony Depthsensing Solutions Sa/Nv Human-to-computer natural three-dimensional hand gesture based navigation method
CN109215060A (en) * 2017-06-30 2019-01-15 深圳泰山体育科技股份有限公司 The weights recognition methods of physical-strength-type fitness facility and system
CN109215060B (en) * 2017-06-30 2023-03-31 深圳泰山体育科技有限公司 Weight identification method and system for strength type fitness equipment
JP7470069B2 (en) 2021-02-17 2024-04-17 株式会社日立製作所 Pointing object detection device, pointing object detection method, and pointing object detection system

Also Published As

Publication number Publication date
JP5156617B2 (en) 2013-03-06

Similar Documents

Publication Publication Date Title
JP5156617B2 (en) Image processing apparatus for detecting an object, method, program, and computer-readable medium storing the program
US11190678B2 (en) Information processing apparatus, information processing method, and program
JP6372487B2 (en) Information processing apparatus, control method, program, and storage medium
US9122917B2 (en) Recognizing gestures captured by video
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
US8666115B2 (en) Computer vision gesture based control of a device
US20180211138A1 (en) Information processing device, information processing method, and storage medium
CN107077258B (en) Projection type image display device and image display method
US9129400B1 (en) Movement prediction for image capture
JP4733600B2 (en) Operation detection device and its program
JP2009080539A (en) Gesture recognition device and method therefor
JP2002318652A (en) Virtual input device and its program
KR20150025041A (en) Method and its apparatus for controlling a mouse cursor using eye recognition
JP6465197B2 (en) Information processing apparatus, information processing method, and program
CN108351684B (en) Operation detection device, operation detection method and image display system
US10943109B2 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
JP2000029619A (en) Computer system
JP4436164B2 (en) Optical signal pointing method, optical signal pointing device, and program
JP6260673B2 (en) Information processing apparatus, information processing method, and program
JP5118663B2 (en) Information terminal equipment
JP6032319B2 (en) Information processing apparatus, information processing method, and program
CN106650556B (en) Image judgment method and the Image sensor apparatus for executing this image judgment method
JP2011186537A (en) Apparatus and method for processing information, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5156617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees