JP5156617B2 - 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体 - Google Patents

対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体 Download PDF

Info

Publication number
JP5156617B2
JP5156617B2 JP2008332208A JP2008332208A JP5156617B2 JP 5156617 B2 JP5156617 B2 JP 5156617B2 JP 2008332208 A JP2008332208 A JP 2008332208A JP 2008332208 A JP2008332208 A JP 2008332208A JP 5156617 B2 JP5156617 B2 JP 5156617B2
Authority
JP
Japan
Prior art keywords
image
frame
component
unit
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008332208A
Other languages
English (en)
Other versions
JP2010152791A (ja
Inventor
聡 味香
崇 松嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Systemware Co Ltd
Original Assignee
Nippon Systemware Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Systemware Co Ltd filed Critical Nippon Systemware Co Ltd
Priority to JP2008332208A priority Critical patent/JP5156617B2/ja
Publication of JP2010152791A publication Critical patent/JP2010152791A/ja
Application granted granted Critical
Publication of JP5156617B2 publication Critical patent/JP5156617B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像処理技術に関し、より詳細には、撮像された画像から対象物を認識するための画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体に関する。
動画像内の所定の移動物体(対象物)を認識するために様々な画像処理技術が考案されている。これらの技術によって人の手の動きやジェスチャを識別することができ、コンピュータ等のユーザインターフェース装置やテレビ等のリモコン装置に適用することが可能である。
上記画像処理技術において最も代表的なものとしてテンプレートマッチング技術が挙げられる。テンプレートマッチングは、認識する物体の画像(テンプレート画像)を予め用意し、処理対象の画像上に該テンプレート画像を移動させながら比較して、該物体の有無を識別する手法である。この手法は物体の形状や色の違いまで識別できるため、高い精度で物体を認識することが可能である。しかし、処理量が多く、それゆえ処理に時間がかかり高速に移動する物体をリアルタイムで認識する用途には適していない。また、上述のテンプレート画像を取得する手順は使用者にとっては煩わしい作業になり得る。
また、テンプレートマッチングは外乱光などの想定外の光の影響を受けやすく、さらに、対象物がその形状や角度を変化させる場合には正確に認識することができない。
上述の外乱光による影響を低減させるためには、特許文献1に開示する装置を用いればよい。この装置では、照明装置の光を所定の周期で点滅させ、照明装置が点灯時の画像と消灯時の画像とを撮像装置で取得する。次いで、これら2つの画像から時間差分画像を求め、その時間差分画像を基に対象物を検出する。点灯画像と消灯画像とから時間差分画像を求めることで、外乱光による影響を低減させて好適に移動物体を検出することを可能としている。
また、特許文献2は、ステレオカメラ(一対のカメラ)を用いることで移動物体を的確に検出する移動物体検出装置を開示している。
さらに、特許文献3は、物体を検出する技術を備えた対象物検出前処理装置および方法を開示している。この装置および方法は、低コストで、かつ周囲環境に影響されず安定して対象物(人物の顔)を検出することが可能である。
特開2007−272596 特開2008−158640 特開2006−275988
しかし、上記特許文献1〜3が開示する装置では、以下のような不都合が生じてしまう。
特許文献1の装置が利用する時間差分画像は、元来動きにより生ずる差を識別するために用いるものである。そのため、撮像装置が手振れ等により動く、または、対象物の背後に他の移動物体が存在する場合には、対象物を正確に検出できない恐れがある。そのため、この装置は撮像装置をしっかりと固定し、かつ背景に他の移動物体が存在しない状態で使用しなくてはならない。すなわち、使用条件に制約が生じてしまう。
特許文献2の装置ではステレオカメラを用いているため、カメラと対象物との間の距離を算出することができる。そのため、対象物の背後にある移動物体に影響されることはない。しかし、2台のカメラを用いるため、装置が大型化し、かつ高価になり得る。さらに、カメラが2台あるため処理する画像の量が多くなり、演算能力の低い処理装置、特に家電機器などに適用することが困難になる。
特許文献3の装置では、カメラ等からなる撮像部に特定波長透過フィルタを装備している。このフィルタは装置の光源から放射される近赤外線領域の光のみを透過させる機能を有し、外乱光をカットする役目を果たす。しかし、外乱光光源となる太陽、蛍光灯、白熱灯などから放射される光には近赤外線領域の光も含まれるため、外乱光を十分にカットすることはできない。
また、該当の装置において、光量を制御するためには一定の明るさを有する面積が画像内に一定の割合で存在すること、対象物(顔)の特徴が予め把握していること、が必要である。すなわち、対象物の特徴を事前に装置に把握させる前処理が必要である。
さらに、異なる照射光量(明、暗)で画像を撮像し、その画像のうち良質な方を対象物の認識に用いている。そのため、検出に用いるフレームレートは、撮像部の実フレームレートの1/2に限定されてしまう。
本発明は上記のような事情に鑑みて創案されたものであり、本発明の課題は、前処理が不要で、かつ周囲環境(外乱光の照射、他の移動物体の存在、撮像装置の変位等)に影響されずに動画像内の対象物を認識可能な画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することである。
本発明の別の目的は、単一の撮像装置で実現可能で、かつ高度な演算処理が不要な対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することである。
前記課題を解決するために創案された請求項1の発明は、所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備え、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理装置であり、当該装置は、
(a1)前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込手段と、
前記画像取込手段が受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング手段と、
(a2)前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成手段と、
(a3)前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成手段と、
(a4)前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成手段と、
(a5)前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成手段と、
(a6)前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出手段と、
を備えることを特徴とする。
前記課題を解決するために創案された請求項2の発明は、請求項1に記載の対象物検出用画像処理装置において、前記照射手段が1つまたは複数の発光ダイオードから構成されることを特徴とする。
前記課題を解決するために創案された請求項3の発明は、請求項1または2に記載の対象物検出用画像処理装置において、前記フレーム画像ペアリング手段による前記一対のフレーム画像の選択が、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする。
前記課題を解決するために創案された請求項4の発明は、請求項1ないし3の何れか一項に記載の対象物検出用画像処理装置において、前記撮像手段が単一のカメラから構成されることを特徴とする。
前記課題を解決するために創案された請求項5の発明は、所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備えた画像処理装置によって行われる、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理方法であり、当該方法は、
(b1)前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込段階と、
前記画像取込段階で受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング段階と、
(b2)前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成段階と、
(b3)前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成段階と、
(b4)前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成段階と、
(b5)前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成段階と、
(b6)前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出段階と、
を含むことを特徴とする。
前記課題を解決するために創案された請求項6の発明は、請求項5に記載の対象物検出用画像処理方法において、前記照射手段が1つまたは複数の発光ダイオードから構成されることを特徴とする。
前記課題を解決するために創案された請求項7の発明は、請求項5または6に記載の対象物検出用画像処理方法において、前記フレーム画像ペアリング段階における前記一対のフレーム画像の選択が、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする。
前記課題を解決するために創案された請求項8の発明は、請求項5ないし7の何れか一項に記載の対象物検出用画像処理方法において、前記撮像手段が単一のカメラから構成されることを特徴とする。
前記課題を解決するために創案された請求項9の発明は、請求項5ないし8の何れか1項に記載の方法をコンピュータに実行させるソフトウェアである。
前記課題を解決するために創案された請求項10の発明は、請求項9に記載のソフトウェアを格納したコンピュータ可読媒体である。
請求項1の装置および請求項5の方法は、周囲の環境変化に影響を受けずに動画像内の対象物を検出することが可能である。
具体的には、対象物を撮像時に外乱光の照射を受けても対象物の検出に影響を及ぼさない。外乱光の光源は、通常、太陽、白熱球、蛍光灯等が挙げられるが、そのうち太陽および白熱球からの光はほぼ直流の光のため、一対の第1成分フレーム画像(または一対の第2成分フレーム画像)の双方に同一に照射される。そのため、第1差分画像(または第2差分画像)生成時にその影響が削除される。同様に、蛍光灯、特に数100Hz程度で点灯するインバータ蛍光灯の光が照射しても、フレーム画像ペアリング手段が当該蛍光灯の点灯周期と重ならない周期で一対のフレーム画像を選択すれば、第1および第2差分画像生成時にその影響を削除することができる。
また、撮像時に撮像手段が振動、手ぶれ等で変位しても第1および第2成分画像を生成時にその影響が除去される。さらに、対象物の後方に移動物体が存在しても、第3差分画像生成時にその影響が除去される。
上記の内容に加え、請求項1の装置および請求項5の方法では、事前に対象物を撮像するなどの前処理を行う必要がない。それゆえ容易に対象物の検出を行うことが可能である。また、対象物がその角度や形状を変化させても、識別が可能である。
請求項2の装置および請求項6の方法では、照射手段として1つまたは複数のLEDを用いることができる。LEDを用いることで、安価でコンパクトな照射手段を構成することが可能である。加えて、LEDは長い動作寿命を有しているため、照射手段が故障する可能性も低減される。
請求項3の装置および請求項7の方法では、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて前記フレーム画像ペアリング手段による前記一対のフレーム画像を選択することで、応答性や処理するデータ量などを最適化することができる。
請求項4の装置および請求項8の方法では、単一のカメラで照明手段を実現するため、照明装置をコンパクトで、かつ軽量にすることが可能となる。また、既存のステレオカメラを用いた装置と比べると処理に用いる画像データの量が1/2になるため、装置の演算機能への負荷が低減される。それゆえ、演算能力の高くない処理装置で当該画像装置を実現することが可能であり、テレビのリモコン装置など、一般家電製品に適用することが可能となる。
請求項9のソフトウェアによって、上記の対象物検出用画像処理方法を任意のコンピュータに実行させることが可能となる。
請求項10のコンピュータ可読媒体によって、上記の対象物検出用画像処理方法を特定のユーザに好適に提供することが可能となる。
本発明により、前処理が不要で、かつ周囲環境(外乱光の照射、他の移動物体の存在、撮像装置の変位等)に影響されずに動画像内の対象物を認識可能な画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体を提供することが可能となる。さらに、単一の撮像装置で実現可能で、かつ高度な演算処理が不要な対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体も提供することが可能となる。
添付図面を参照して本発明の一実施形態を説明する。なお、本実施形態において、動画を構成する複数のコマ画像を「フレーム画像」、画像内の被検出物体を「対象物」と称する。
また、本発明の一実施形態において「フレーム差分処理」とは、一対のフレーム画像の画素間の差分を求めることにより、当該フレーム画像間で異なる部分を抽出する処理であり、この処理で得られた画像を「差分画像」と称する。
図1は、本発明の一実施形態に係る対象物検出用画像処理装置(以下、「画像処理装置」)1000の機能ブロック図である。この画像処理装置1000は、外部機能要素として画像撮像部2000と、対象物照射部3000とを備え、さらに内部機能要素として画像取込部10と、フレーム画像ペアリング部20と、成分画像生成部30と、成分差分画像生成部40と、対象物抽出部50とを備え、画像撮像部2000が撮像した動画像から対象物を識別し、その位置を検出する機能を有する。
以下に図1に示す画像処理装置1000の各機能要素についての簡単に説明する。
[画像撮像部]
画像撮像部2000は対象物を含む風景を所定のフレームレートで撮像し、その撮像した風景を所定形式のデジタル画像データとして画像取込部10に送る機能を有する。この画像撮像部2000には、既存の動画像を撮像可能なデジタル式カメラ、通称ムービーカメラを用いてよい。
[対象物照射部]
対象物照射部3000は、カメラ用のライトのように対象物に光を照射する機能を有する。ただし、照射光は、通常の白熱光ではなく、光の三原色(R、G、B)の何れかの領域内、あるいは赤外領域内の単一の波長の光成分のみを含む。さらに、詳細は後述するが、照射光は画像撮像部2000の撮像の実施/停止に同期して点滅する。したがって、マイクロ秒オーダの高速な応答性を有する。
対象物照射部3000は、特に限定するものではないが、発光ダイオード(LED)、レーザダイオードと光学部品、白熱球または蛍光灯と光学フィルタとシャッタ機構等で実現することができる。しかし、実現の容易さ、コスト、コンパクト性、信頼性等を考慮するとLEDを用いることが最も好ましい。
[画像取込部]
画像取込部10は、画像撮像部2000とケーブル、無線、赤外線等で接続され、画像撮像部2000が撮像したフレーム画像のデータを時系列に受け取る機能を有する。受け取ったフレーム画像のデータは、フレーム画像ペアリング部20に送付する。
[フレーム画像ペアリング部]
フレーム画像ペアリング部20は、画像取込部10から受け取った複数のフレーム画像から所定のフレーム画像を抽出し、それらを一対に組み合わせる機能を有する。フレーム画像の抽出条件については後述するが、一対のフレーム画像のうち、一方は対象物に対象物照射部3000の光が照射された状態で画像撮像部2000によって撮像されたフレーム画像であり、他方は対象物に光が照射されない状態で撮像されたフレーム画像である。
[成分画像生成部]
成分画像生成部30は、R成分生成部310と、G成分生成部320と、B成分生成部330とから構成され、フレーム画像ペアリング部20が組み合わせた一対のフレーム画像からそれぞれR、G、B成分を抽出し、一対のR、G、B成分フレーム画像を生成する機能を有する。
[成分差分画像生成部]
成分差分画像生成部40は、R成分差分画像生成部410と、G成分差分画像生成部420と、B成分差分画像生成部430とから構成され、成分画像生成部30から受け取った一対のR、G、B成分フレーム画像を基に、それぞれR、G、B成分差分画像を生成する機能を有する。
[対象物抽出部]
対象物抽出部50は、成分差分画像生成部40から受け取ったR、G、B成分差分画像を基に、画像撮像部2000が撮像したフレーム画像内の対象物を識別し、その位置座標を求め、求めた座標を外部に出力する機能を有する。また、当該対象物抽出部50は、差分画像生成部510と、二値化処理部520と、ラベリング処理部530と、領域選定部540とから構成される。以下にそれぞれの機能について説明する。
(差分画像生成部)
差分画像生成部510は、成分差分画像生成部40から受け取ったR、G、B成分差分画像を基に、その差分画像(以降、「最終差分画像」と称する)を生成する機能を有する。
(二値化処理部)
二値化処理部520は、差分画像生成部510が生成した最終差分画像に対して二値化処理を行う機能を有する。この二値化処理には当該技術分野において周知な手法、例えば固定閾値法、Pタイル法、モード法、判別分析2値化法などを用いてよい。
(ラベリング処理部)
ラベリング処理部530は、二値化処理部520が二値化処理を施した最終差分画像にラベリング処理を行う機能を有する。ラベリング処理とは、画像の各画素における色情報を分析し、連結している画素に同一ラベルを付加することで複数の領域をグループとして分類する処理である。また、同時に各領域における重心を求めその位置を測定することが好ましい。これは、異なるフレーム画像間でこれらの領域の形や大きさが変化した場合に柔軟に対応するためである。
(領域選定部)
領域選定部540は、ラベリング処理部530が画定した複数の領域の輝度を求めて、それを比較し、最も輝度の高い領域を検出物と判断してその位置の座標を出力する機能を有する。
次に、図2の処理条件および図3の各種生成画像を参照しながら、図4のフロー図に従って、上述の機能を有する画像処理装置1000が行う画像処理の内容および手順の実施例を詳細に説明する。なお、図2および図3の原画像図を本出願と同時に提出した物件提出書にそれぞれ参考図面1および2として添付したので参照されたい。
図2(a)は本実施例の撮像条件を示している。画像処理装置1000の画像撮像部2000で1人の人物の顔とその右掌、並びにその他の人物の左掌を撮像して動画像を作成し、その動画像から対象物である右掌を識別し、その位置を検出する。ここで、画像撮像部2000と人物の各部位との距離関係は、該画像撮像部2000に近い順に当該1人の人物の右掌、顔、当該その他人物の左掌となる。また、撮像中に人物は動かず、人物の後方に画像撮像部2000から向かって左から右方向に自動車が走行するものとする。
最初に、画像処理装置1000の対象物照射部3000の照射光を調整する(図4のステップS10)。まず、対象物照射部3000の照射光の種類の決定であるが、ここでは人物への影響を低減するために赤外光とする。この場合、画像撮像部2000の仕様によるが、一般的には赤外成分の情報はR、G、B成分の何れかの情報に加えられて出力される。本実施形態では、R成分に加えられるものとする。すなわち、画像処理装置1000は、対象物照射部3000がR領域の光を照射する場合と同様の処理を行えばよい。
次いで、対象物である右掌の全体にできる限り均一に光が照射されるよう対象物照射部3000の照射範囲を調整する。本実施例では右掌は移動しないが、移動する場合には移動範囲全域に渡って光が右掌に照射されるよう調整しなくてはならない。対象物照射部3000をLEDで構成している場合には、LEDの数を増減することで照射光の照射範囲を可変すればよい。
最後に、照射光の点滅のタイミングを調整する。本実施例では図2(b)に示すように、画像撮像部2000が撮像を行う毎に消灯/点灯を繰り返すよう調整する。
以上で、図4のステップS10の調整は完了する。ステップS10の手順が完了すると、次は画像撮像部2000が対象物を含む風景を撮像する(図4のステップS20)。撮像された動画像を構成する各フレーム画像は、画像撮像部2000から画像取込部10に送られる(図4のステップS30)。このとき送られるフレーム画像の例を図2(c)に示す。撮像された順にフレーム画像を第1〜第4フレーム画像とする。ここで、第1および第3フレーム画像は、対象物(右掌)に対象物照射部3000の光が照射されない状態で撮像されたものであり、第2および第4フレーム画像は、対象物に光が照射された状態で撮像されたものであることに留意されたい。
第1〜4フレーム画像が画像取込部10に送られると、フレーム画像ペアリング部20が第1および第2フレーム画像、並びに、第3および第4フレーム画像をそれぞれ一対に組み合わせる(図4のステップS40)。
なお、これらの一対のフレーム画像は同一の処理が施されるため、以降は第1および第2フレーム画像のペアへの処理についてのみ説明する。
成分画像生成部30は、フレーム画像ペアリング部20から第1および第2フレーム画像(図3(a))を受け取ると、それらを基に第1および第2R成分フレーム画像(図3(b))を生成する(図4のステップS50)。図3(b)に示すように、第2R成分フレーム画像では色の明暗が明瞭になっている。それは、人物の各部位に対象物照射部3000の光が照射されているためである。対象物である右掌は対象物照射部3000と最も近接しているため最も強く照射光を反射する。したがって一番明るい色で表示される。また、顔も右掌ほどではないが照射光を反射するため明るい色となる。一方、左掌および人物の後方を走行する自動車は暗い色となっている。つまり、左掌と自動車には対象物照射部3000の照射光が到達していない。また、図ではわかりにくいが、第1および第2R成分フレーム画像では、人物の後方を走行する自動車の位置が異なっている。
第1および第2R成分フレーム画像は、成分画像生成部30から成分差分画像生成部40に送られ、成分差分画像生成部40はこれらの画像の差分画像であるR成分差分画像を生成する(図4のステップS60)。このR成分差分画像を図3(b)の一番右側に示す。この図で、右掌と自動車の前方部分とが黒く塗り潰されているのがわかる。右掌は照射光の反射によって差分を生じており、自動車の前方部分は該自動車の移動によって差分を生じている。すなわち、R成分差分画像は、明暗の差分成分と動きの差分成分とを有する。
上記ステップS50およびS60の手順と並列して、以下のステップS70とS80の手順が行われる。
ステップS50の手順と同様に、成分画像生成部30は、第1および第2フレーム画像(図3(a))を基に第1および第2G成分フレーム画像(図3(c))を生成する(図4のステップS70)。
ステップS60の処理と同様に、第1および第2G成分フレーム画像が成分差分画像生成部40に送られると、成分差分画像生成部40は第1および第2G成分フレーム画像の差分画像であるG成分差分画像を生成する(図4のステップS80)。そのG成分差分画像を図3(c)の一番右側に示す。この図において、自動車の前方部分が黒く塗り潰されている。これはR成分差分画像と同様に該自動車の移動によって生じた差分である。一方、対象物照射部3000の照射光はG成分の光を含んでいないため、G成分差分画像にはR成分差分画像とは異なり明暗の差分が生じない。つまり、G成分差分画像は動きの差分成分のみを有する。
成分差分画像生成部40で生成されたRおよびG成分差分画像は対象物抽出部50に送られ、これらの画像の差分画像(最終差分画像(図3(d)の一番右の図を参照))が生成される(図4のステップS90)。図3(d)の最終差分画像では、対象物である右掌のみが黒く塗り潰されている。これは、RおよびG成分差分画像が有していた、自動車の移動により生じた動きの差分が除去され、R成分差分画像のみが有していた右掌の明暗の差分のみが表示されているからである。すなわち、R成分差分画像(明暗差分成分+動き差分成分)−G成分差分画像(動き差分成分)=最終差分画像(明暗差分成分)となる。
以降、この最終差分画像に二値化、ラベリング、領域選定処理を行うことで対象物(右掌)の位置を検出する(図4のステップS100)。
以上が本発明の一実施形態に係る画像処理装置1000によって行われる対象物検出用画像処理の内容および手順である。しかし、本発明の対象物検出用画像処理は、これらの内容および手順に限定されるものではない。
実施例1では、成分画像生成部30と成分差分画像生成部40は、R成分の画像とG成分の画像を処理しているが、本発明はこれに限定されるものではなく、他の実施例においてG成分の画像の代わりにB成分の画像を取り扱ってよい。対象物照射部3000の照射光が赤外光である限り、G成分の画像とB成分の画像は同一となる。したがって、G成分の画像とB成分の画像の何れの画像を取り扱っても得られる最終結果は同一となる。
また、本実施例では対象物である右掌は静止しているが、移動していても照射光が到達可能な距離内に存在する限り好適にその位置を検出することができる。
実施例1では、図2(b)に示すように画像撮像部2000の撮像毎に対象物照射部3000の照射光を消灯/点灯させているが、本発明において照射光はこの点滅タイミングに限定されるものではない。さらに、実施例では、フレーム画像ペアリング部20は時間軸上で隣接するフレーム画像同士を一対に組み合わせているが、本発明はこの組み合わせ方法に限定されるものではない。他の実施例において、対象物照射部3000は、画像撮像部2000が2度撮像する毎に照射光を消灯/点灯させてもよい。つまり、図2(c)の第1および第2フレーム画像は照射光が消灯時に撮像され、第3および第4フレーム画像は照射光が点灯時に撮像されることになる。さらに、フレーム画像ペアリング部20は、第1フレーム画像と第3フレーム画像とを一対に組み合わせ、第2および第4フレームには処理を行わないことも可能である。かかる場合、検出の応答性は下がるが、処理するデータ量が1/2に低減するため画像処理装置1000への負荷が軽減される。
したがって、本発明における画像処理装置の照射光の消灯/点灯のタイミングと、フレーム画像ペアリング部20が行うフレーム画像の組み合わせ方法とは、対象物の挙動、画像撮像物のフレームレート、画像処理装置の演算能力などの種々の条件に基づいて選択されることが好ましい。
以上説明した本発明の一実施形態に係る画像処理1000は、従来の画像処理装置に比べて以下に示すような有利点を提供することができる。
[1]周囲環境の変化による影響が少ない。具体的には、外乱光(太陽光、白熱球および蛍光灯の光等)が対象物を照射しても、成分画像生成部30が成分差分画像(図3(b)(c)の一番右の画像)を生成する段階で外乱光による影響が除去される。同様に、画像撮像部2000が撮像中に多少動いても成分差分画像を生成する段階で影響が除去される。さらに、対象物の背後に移動物体が存在しても、対象物抽出部50が最終差分画像(図3の一番右の画像)を生成する段階で移動物体による影響が除去される。
[2]テンプレートマッチング処理等と異なり、前処理が不要である。また、対象物が動いて風景画内の対象物の大きさや角度が変わっても良好に検出することができる。
[3]単一の撮像装置しか用いていないため、ステレオカメラを用いる従来の画像処理装置と比べ、処理する画像の量が少ない。さらに、複雑な演算処理を行っていないため、画像処理装置1000に過大な負荷かからない。
本発明の一実施形態に係る画像認識装置1000は、以上のような有利点を有しているため、様々な用途に好適に適用可能である。例えば、実施例2で後述するコンピュータ用ポインティングデバイス、物体の動きの軌跡を解析するためのモーションキャプチャー、あるいは家電製品のリモコン装置などに適用できる。
上述した本発明の一実施形態に係る対象物検出用画像処理方法は、プログラムとして実装されることが好ましい。その場合には、プログラムはメインのサーバから該方法を実行するコンピュータへダウンロードされるか、コンピュータ可読媒体の形態で分配されることが好ましい。コンピュータ可読媒体の例としては、ハードディスク、CD−ROM、磁気テープ、フレキシブルディスク、光学式データ保存装置などが挙げられる。
実施例2では、上述の本発明の1実施形態に係る対象物検出用画像処理装置をコンピュータ用のユーザインターフェース装置に適用した場合を例示して説明する。
図5は、画像処理装置1000を搭載したユーザインターフェース装置4000を示している。このインターフェース装置4000は、ライト600と、ウェブカメラ700と、コンピュータ800とから構成されている。なお、ライト600およびウェブカメラ700は、画像処理装置1000の対象物照射部3000および画像撮像部2000(図1参照)にそれぞれ該当する。コンピュータ800は汎用コンピュータ等で実装され、画像処理装置1000の内部要素10〜50(図1参照)の機能を搭載している。
本実施例のユーザインターフェース装置4000は非接触式であり、ユーザの手のジェスチャに従ってコンピュータ800に種々の動作を実行させる機能を有する。
図5および図6を参照し、かつ図7のフロー図に従ってユーザインターフェース装置4000の動作の手順を以下に説明する。
まず、図5(a)に示すようにユーザはユーザインターフェース装置4000に対峙し、右手をウェブカメラ700の視野内に配置する。なお、このとき右手は他の部位よりもウェブカメラ700およびライト600に接近させることが必要である。この状態でユーザは右手で所定のジェスチャをすることでコンピュータ800に所望の動作を行わせることができる。本実施例では、所定のジェスチャを親指と人差し指の先端を接触、あるいは近接させて輪を作る行為(以下「摘み動作」)とする。
ユーザインターフェース装置4000はウェブカメラ700が撮像した風景から対象物を常時識別している。ユーザの右手が撮像風景の中に現れるとユーザインターフェース装置4000はその手を対象物として識別し、その位置を検出する(図7のステップS200)。なお、その詳細な検出手順は上述した図4のフロー図の手順ステップS10〜S100に従うものとする。
対象物を検出すると、次は図5(b)のように手の重心から手の端までの距離を求める(図7のステップS210)。具体的には、手の重心には図4のステップS100におけるラベリング処理で求めた重心を用い、その重心を中心として所定の角度ステップ(5°等)で所定の角度範囲(360°等)における手の端を求め、その端と重心との間の距離を測定する。そして、最も距離が長い5つの端を指先(a、b、c、d、e)として認識する。
指を認識後、その指の形状から指が曲がっているかどうかを判断し、曲がっている場合にはその曲がり方向を特定する(図7のステップS220)。図5(c)の手の形状では、それぞれの指はその指先上部に示す矢印の方向に曲がっていると特定される。人間の手の指は親指のみが他の指と異なる方向に曲がる。したがって、個々の指の曲がり方向が特定できれば、指の中から親指(a)と人差し指(b)を特定することが可能である。
次に、手が摘み動作を行っているかどうかを判断する(図7のステップS230)。摘み動作を行っていると判断した場合には(ステップS230で「YES」)、コンピュータ800に所定の動作を実行させる(図7のステップS240)。行っていないと判断した場合には(ステップS230で「NO」)、再度ステップS200から手順を繰り返す。摘み動作を行っているか否かの判断は、図(d)に示すように、親指(図のa)と人差し指(図のb)とが閉ループを形成しているか否かで行う。
以上が本実施例のユーザインターフェース装置400が行う一連の手順である。従来のジェスチャを識別する非接触式ユーザインターフェースでは、事前に所定のジェスチャを登録し、その登録した画像と撮像した画像とのマッチング処理を行う必要がある。この事前の登録作業はユーザにとっては煩わしいものである。さらに、ジェスチャには識別しやすいようにグー、チョキ、パーなどの形状にした手を登録する必要があったが、これでは長時間作業するとユーザは手に疲労を感じてしまう。また、他人の目が気になりユーザが使用を控える恐れもある。しかし、本実施例のユーザインターフェース装置400では事前登録が不要であり、かつ、摘み動作などのより自然で、控えめなジェスチャを設定することができる。
また、本実施例のユーザインターフェース装置400は、指の曲がる角度を基にユーザの親指と人差し指を識別するため、ユーザが右手と左手の何れを用いても、あるいは手の向きを反転させても親指と人差し指を正確に検出することができる。加えて、ユーザの手が上下左右、あるいは回転方向に移動しても、ウェブカメラ700の視野内に存在する限り検出することが可能である。
上記の特徴により、図6に示すようなビジュアル機能を提供することができる。この図の(a)〜(c)の右側の円形のオブジェクトは、コンピュータ800の画面に表示されるアイコンである。このアイコンはユーザのジェスチャに依存して形状を適宜変化させる。
例えば、図6(a)では、ユーザの手は摘み動作を行っていない状態、あるいは行う直前である。このときアイコンは略真円の形状である。図6(b)ではユーザの手が摘み動作を行っている。このときアイコンは潰れた形状となる。当該アイコンは摘み動作と同一の角度に潰れる。さらに、図6(c)ではユーザは摘んだ状態で手を傾けている。このとき図の右側に示すように潰れたアイコンが同様に傾く。
このように、本実施例のユーザインターフェース装置400は、ユーザのジェスチャに連動した視覚的なフィードバックが可能であり、例えば、カーソルの摘みの有無、摘む角度、捻り具合、移動および回転の具合等をビジュアル化することにより、より実体感があり、かつユーザの直感に訴えた操作性を提供することができる。
以上、本発明を図面に示した実施形態を用いて説明したが、これらは例示的なものに過ぎず、本技術分野の当業者ならば、本発明の範囲および趣旨から逸脱しない範囲で多様な変更および変形が可能なことは理解できるであろう。したがって、本発明の範囲は、説明された実施形態によって定められず、特許請求の範囲に記載された技術的趣旨により定められねばならない。
本発明の一実施形態に係る対象物検出用画像処理装置の機能を示すブロック図である。 本発明の一実施形態に係る対象物検出用画像処理装置の画像処理を説明するための図であり、(a)は撮像条件を示す図であり、(b)は撮像と照射光の点滅とのタイミングを示す図であり、(c)はそのときに撮像されたフレーム画像である。なお、本図面を物件提出書に添付する。 本発明の一実施形態に係る対象物検出用画像処理装置の画像処理を説明するための図であり、(a)は撮像したフレーム画像であり、(b)はR成分のフレーム画像および差分画像であり、(c)はG成分のフレーム画像および差分画像であり、(d)はRおよびG成分差分画像と最終差分画像である。なお、本図面を物件提出書に添付する。 本発明の一実施形態に係る対象物検出用画像処理装置が行う画像処理のフロー図である。 本発明の一実施形態に係る対象物検出用画像処理装置を搭載したユーザインターフェース装置の態様を説明する図であり、(a)は当該ユーザインターフェース装置であり、(b)ないし(d)は対象物である掌の検出方法を説明するための図である。 本発明の一実施形態に係る対象物検出用画像処理装置を搭載したユーザインターフェース装置のカーソルの態様を説明するための図である。 本発明の一実施形態に係る対象物検出用画像処理装置の動作手順のフロー図である。
符号の説明
10 画像取込部
20 フレーム画像ペアリング部
30 成分画像生成部
40 成分差分画像生成部
50 対象物抽出部
310 R成分生成部
320 G成分生成部
330 B成分生成部
410 R成分差分画像生成部
420 G成分差分画像生成部
430 B成分差分画像生成部
510 差分画像生成部
520 二値化処理部
530 ラベリング処理部
540 領域選定部
1000 対象物検出用画像処理装置
2000 画像撮像部
3000 対象物照射部

Claims (10)

  1. 所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備え、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理装置において、
    前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込手段と、
    前記画像取込手段が受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング手段と、
    前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成手段と、
    前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成手段と、
    前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成手段と、
    前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成手段と、
    前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出手段と、
    を備えることを特徴とする対象物検出用画像処理装置。
  2. 前記照射手段は、1つまたは複数の発光ダイオードから構成されることを特徴とする請求項1に記載の対象物検出用画像処理装置。
  3. 前記フレーム画像ペアリング手段による前記一対のフレーム画像の選択は、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする請求項1または2に記載の対象物検出用画像処理装置。
  4. 前記撮像手段は、単一のカメラから構成されることを特徴とする請求項1ないし3の何れか一項に記載の対象物検出用画像処理装置。
  5. 所定のフレームレートで対象物を含む風景を撮像する撮像手段と、三原色の何れか1つの領域または赤外領域の波長の光で前記対象物を照射する照射手段であって、前記撮像手段のフレームレートに同期して照射光を点滅させる照射手段と、を備えた画像処理装置によって行われる、前記撮像手段が撮像した画像から前記対象物を検出する対象物検出用画像処理方法において、
    前記撮像手段が撮像した複数のフレーム画像を時系列に受け取る画像取込段階と、
    前記画像取込段階で受け取ったフレーム画像から、前記照射手段が点灯時に撮像されたフレーム画像と、前記照射手段が消灯時に撮像されたフレーム画像と、を選択して一対にするフレーム画像ペアリング段階と、
    前記一対になったフレーム画像から前記照明手段の発光色に相当する色成分をそれぞれ抽出して、一対の第1成分フレーム画像を生成する第1成分画像生成段階と、
    前記一対になったフレーム画像から前記照明手段の発光色とは異なる任意の1つの色成分をそれぞれ抽出して、一対の第2成分フレーム画像を生成する第2成分画像生成段階と、
    前記一対の第1成分フレーム画像から第1差分画像を生成する第1差分画像生成段階と、
    前記一対の第2成分フレーム画像から第2差分画像を生成する第2差分画像生成段階と、
    前記第1差分画像と前記第2差分画像とから第3差分画像を生成し、その第3差分画像を基に前記対象物を認識する対象物抽出段階と、
    を含むことを特徴とする対象物検出用画像処理方法。
  6. 前記照射手段は、1つまたは複数の発光ダイオードから構成されることを特徴とする請求項5に記載の対象物検出用画像処理方法。
  7. 前記フレーム画像ペアリング段階における前記一対のフレーム画像の選択は、前記撮像手段のフレームレートと、前記照射手段の照射光の点灯周期と、前記対象物の挙動とに基づいて行われることを特徴とする請求項5または6に記載の対象物検出用画像処理方法。
  8. 前記撮像手段は、単一のカメラから構成されることを特徴とする請求項5ないし7の何れか一項に記載の対象物検出用画像処理方法。
  9. 請求項5ないし8の何れか1項に記載の方法をコンピュータに実行させるソフトウェア。
  10. 請求項9に記載のソフトウェアを格納したコンピュータ可読媒体。
JP2008332208A 2008-12-26 2008-12-26 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体 Expired - Fee Related JP5156617B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008332208A JP5156617B2 (ja) 2008-12-26 2008-12-26 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008332208A JP5156617B2 (ja) 2008-12-26 2008-12-26 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体

Publications (2)

Publication Number Publication Date
JP2010152791A JP2010152791A (ja) 2010-07-08
JP5156617B2 true JP5156617B2 (ja) 2013-03-06

Family

ID=42571776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008332208A Expired - Fee Related JP5156617B2 (ja) 2008-12-26 2008-12-26 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体

Country Status (1)

Country Link
JP (1) JP5156617B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5212521B2 (ja) * 2011-07-07 2013-06-19 株式会社ニコン 画像表示装置
JP5817149B2 (ja) * 2011-03-04 2015-11-18 株式会社ニコン 投影装置
US8620113B2 (en) * 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
EP2872967B1 (en) 2012-07-13 2018-11-21 Sony Depthsensing Solutions SA/NV Method and system for detecting hand-related parameters for human-to-computer gesture-based interaction
EP2891950B1 (en) * 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
CN109215060B (zh) * 2017-06-30 2023-03-31 深圳泰山体育科技有限公司 力量型健身器材的配重砝码识别方法及系统
JP7470069B2 (ja) 2021-02-17 2024-04-17 株式会社日立製作所 指示物体検出装置、指示物体検出方法及び指示物体検出システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364816B2 (ja) * 1994-12-27 2003-01-08 三菱電機株式会社 画像処理装置
JP3410919B2 (ja) * 1997-01-31 2003-05-26 株式会社東芝 画像抽出装置
JP4291251B2 (ja) * 2000-09-28 2009-07-08 株式会社日立国際電気 物体検出方法及び物体検出装置並びに物体検出プログラム
JP4797752B2 (ja) * 2006-03-31 2011-10-19 株式会社デンソー 移動体用操作物体抽出装置
JP4819606B2 (ja) * 2006-07-21 2011-11-24 株式会社豊田中央研究所 対象物の部位判別装置及び性別判定装置

Also Published As

Publication number Publication date
JP2010152791A (ja) 2010-07-08

Similar Documents

Publication Publication Date Title
JP5156617B2 (ja) 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体
US11190678B2 (en) Information processing apparatus, information processing method, and program
US10997465B2 (en) Information processing device, information processing method, and storage medium
JP6372487B2 (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
US8666115B2 (en) Computer vision gesture based control of a device
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US20180113598A1 (en) Augmented interface authoring
JP6282758B2 (ja) 投射型映像表示装置および映像表示方法
US9129400B1 (en) Movement prediction for image capture
JP4733600B2 (ja) 操作検出装置とそのプログラム
JP2009080539A (ja) ジェスチャ認識装置及びその方法
CN104049792A (zh) 操作检测装置和操作检测方法
JP2002318652A (ja) 仮想入力装置およびプログラム
KR20150025041A (ko) 안구 인식을 이용한 마우스 커서 제어 방법 및 그 전자 장치
JP2011188023A (ja) 情報処理装置、情報処理方法およびプログラム
JP2000029619A (ja) コンピュータ装置
CN108351684B (zh) 操作检测装置、操作检测方法以及影像显示系统
US10943109B2 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
JP6465197B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4436164B2 (ja) 光信号ポインティング方法、光信号ポインティング装置、および、プログラム
JP6260673B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5118663B2 (ja) 情報端末装置
JP6032319B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN106650556B (zh) 影像判断方法以及执行此影像判断方法的影像感测装置
JP2011186537A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5156617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees