JP2007034525A - 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム - Google Patents

情報処理装置、および情報処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2007034525A
JP2007034525A JP2005214909A JP2005214909A JP2007034525A JP 2007034525 A JP2007034525 A JP 2007034525A JP 2005214909 A JP2005214909 A JP 2005214909A JP 2005214909 A JP2005214909 A JP 2005214909A JP 2007034525 A JP2007034525 A JP 2007034525A
Authority
JP
Japan
Prior art keywords
motion
recognition
target object
recognition target
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005214909A
Other languages
English (en)
Inventor
Alejandro Jaimes
ハイメス アレハンドロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005214909A priority Critical patent/JP2007034525A/ja
Publication of JP2007034525A publication Critical patent/JP2007034525A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 ユーザの手の動きなどに基づくコマンド入力を実現する装置および方法を提供する。
【解決手段】 例えば人の手などを認識対象オブジェクトとして、カメラ撮影領域に設定された認識領域内における認識対象オブジェクトの動きを検出し、この動きに基づく動きカテゴリを決定して、決定した動きカテゴリに対応付けたコマンドを選択してPCなどの情報処理装置に入力してコマンド対応のデータ処理を実行させる。ユーザの手をカメラによる撮影領域内に設定された認識領域において移動させることで、様々なコマンド入力が実現され、マウス、キーボードなどの物理的な入力手段を用いることなく、コマンド入力を実行してデータ処理を行なうことができる。
【選択図】 図6

Description

本発明は、画像データに基づいて被写体の動きの識別処理を実行する情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。さらに、詳細には、例えばカメラによる撮影画像から人の一部、例えば手の動きを検出し、手の動き方向などを解析して、解析情報に基づくコマンド入力などのデータ処理を実行する情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。
PCなどの情報処理装置に対するデータ入力には、多くの場合、マウスやキーボードが利用される。一方、このような物理的なデバイスを使わずにコンピュータにコマンドを入力する手法の一つとして、ユーザの身振りや手振りなどのジェスチャーを利用する方法が提案されている。例えば、非特許文献1〜3は、このようなユーザの身振りや手振りなどのジェスチャーを識別して、コマンド入力を行なう手法を開示している。
この方法では、まず、ビデオカメラで人物や人物の一部、例えば手を撮影し、画像処理によって背景から身体領域を切り出す。その後、その身体領域の部分が身体のどの部分に相当するかを特定する。これには身体モデルとのマッチングが必要となる。
次に、身体形状の連続的な変化にもとづいて身振り(ジェスチャー)の意味を推定する。この推定は、身体形状の時系列的な変化とその意味を対応付けた辞書(身振り辞書)にもとづいて行なわれる。
さらに、画像に基づく動作識別処理を開示した従来技術としては、例えば、特許文献1に記載の技術がある。特許文献1には、被写体を複数のカメラで異なる方向から撮影し、これらの複数の画像の解析を行うことで、被写体の3次元の動きを解析する手法が示されている。また、特許文献2には、人物の頭部の撮影画像に基づいて頭部の動きと、視線方向を検出して、人物のうなずき動作を高精度に検出する構成が示されている。
特開平10−334270号公報 特開2000−163196号公報 S.Marcel,"Gestures for multi−modal interfaces:A review",Technical Report IDIAP−RR02−34,2002. V.I.Pavlovic,R.Sharma&T.S.Huang,"Visual interpretation of hand gestures for human−computer interaction:a review",IEEE Trans,on PAMI,19(7),677−695,1997. M.Turk,"Gesture recognition",In K.Stanney(Ed.),Handbook of Virtual Environment Technology.
しかし、上述した、従来技術に示されているジェスチャーに基づくデータ処理において適用する画像データ解析処理は、撮影画像データに基づく極めて複雑なアルゴリズムによる解析を必要とするものであり、効率的な処理とは言えず、専用のシステムの構築の必要性、コスト高、処理負荷が大きいといった問題を有している。すなわち、計算量が膨大であり、しかも認識精度が低いという欠点がある。また、ビデオ画像から人物や人物の一部を切り出して追尾させるためには、従来の方法では、機械学習による学習を必要としており、この学習に手間がかかるという問題がある。
本発明は、これらの問題点に鑑みて行なわれたもので、その目的は、物理的なデバイスを一切装着することなく、また多大な機械学習によるチューニングなしに、ジェスチャーによるコマンド入力を精度良く行なうことを可能とした情報処理装置、および情報処理方法、並びにコンピュータ・プログラムを提供することである。
本発明の第1の側面は、カメラによる撮影領域内に設定された認識領域における認識対象オブジェクトの動きを検出する動き検出部と、前記動き検出部において検出された検出情報に基づいて前記認識対象オブジェクトの動きカテゴリを決定する動きカテゴリ分類部と、前記動きカテゴリ分類部において決定された動きカテゴリに対応するコマンドを選択するコマンド選択部と、前記コマンド選択部において選択されたコマンドを入力するコマンド入力部とを有することを特徴とする情報処理装置にある。
本構成によれば、例えばユーザの手をカメラによる撮影領域内に設定された認識領域において移動させることで、様々なコマンド入力を実行することが可能となり、マウス、キーボードなどの物理的な入力手段を用いることなく、コマンド入力を実行してデータ処理を行なうことが可能となる。
さらに、本発明の情報処理装置の一実施態様において、前記動き検出部は、カメラによる撮影領域内に設定された複数の認識領域における認識対象オブジェクトの動きを、各認識領域個別に検出する処理を実行し、前記動きカテゴリ分類部は、前記複数の認識領域における認識対象オブジェクトの動きの組み合わせに基づいて、前記認識対象オブジェクトの動きカテゴリを決定する処理を実行する構成であることを特徴とする。
本構成によれば、例えば、ユーザの手を複数の認識領域間において様々な移動を行なうことで、複数の認識領域における認識対象オブジェクトの動きの組み合わせに対応した多数の異なるコマンドを入力することが可能となる。
さらに、本発明の情報処理装置の一実施態様において、前記動き検出部は、認識領域における認識対象オブジェクトの移動方向を検出する処理を実行する構成であり、前記動きカテゴリ分類部は、前記動き検出部において検出された認識対象オブジェクトの移動方向に基づいて動きカテゴリを決定する処理を実行する構成であることを特徴とする。
本構成によれば、例えば、ユーザの手を認識領域内に様々な方向に移動させることで、移動方向に対応した多数の異なるコマンドを入力することが可能となる。
さらに、本発明の情報処理装置の一実施態様において、前記動き検出部は、認識対象オブジェクトの認識領域に対する入力位置、出力位置、移動方向、移動速度、および占有面積の少なくとも1つ以上のオブジェクト関連情報を検出する処理を実行する構成であり、前記動きカテゴリ分類部は、前記動き検出部において検出された認識対象オブジェクトについての前記1つ以上のオブジェクト関連情報に基づいて動きカテゴリを決定する処理を実行する構成であることを特徴とする。
本構成によれば、認識領域における入力位置、出力位置、移動方向、移動速度、および占有面積など、様々な情報を取得して、取得した情報に基づくカテゴリ分類を行なうことで、カテゴリに対応した多数の異なるコマンドを入力することが可能となる。
さらに、本発明の情報処理装置の一実施態様において、前記動き検出部は、a)認識対象オブジェクトが特定の認識領域内に停滞した停滞時間、b)認識対象オブジェクトが特定の認識領域内において検出された回数、の少なくとも1つ以上のオブジェクト関連情報を検出する処理を実行する構成であり、前記動きカテゴリ分類部は、前記動き検出部において検出された認識対象オブジェクトについての前記a),b)の少なくとも1つ以上のオブジェクト関連情報に基づいて動きカテゴリを決定する処理を実行する構成であることを特徴とする。
本構成によれば、a)認識対象オブジェクトが特定の認識領域内に停滞した停滞時間、b)認識対象オブジェクトが特定の認識領域内において検出された回数などについて、取得情報に基づくカテゴリ分類を行なうことで、カテゴリに対応した多数の異なるコマンドを入力することが可能となる。
さらに、本発明の情報処理装置の一実施態様において、前記動き検出部は、認識対象オブジェクトが異なる複数の認識領域で検出された時間差情報を検出する処理を実行する構成であり、前記動きカテゴリ分類部は、前記動き検出部において検出された前記時間差情報に基づいて動きカテゴリを決定する処理を実行する構成であることを特徴とする。
本構成によれば、認識対象オブジェクトが異なる複数の認識領域で検出された時間差情報について解析し、時間差に基づくカテゴリ分類を行なうことで、カテゴリに対応した多数の異なるコマンドを入力することが可能となる。
さらに、本発明の情報処理装置の一実施態様において、前記動き検出部は、認識領域における認識対象オブジェクトの重心を算出し、該重心位置の移動情報に基づいて、認識対象オブジェクトの動きを検出する処理を実行する構成であることを特徴とする。
本構成によれば、認識領域における認識対象オブジェクトの移動情報を効率的に算出することが可能となる。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、さらに、カメラによる撮影領域および、該撮影領域内に設定された認識領域情報を表示する出力手段を有する構成であることを特徴とする。
本構成によれば、ユーザは、ディスプレイに表示された認識領域の位置を確認して的確にコマンド入力を行なうことが可能となる。
さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、さらに、前記認識領域の設定処理を実行する認識領域設定部を有することを特徴とする。
本構成によれば、ユーザは、例えば自分の手を動かしやすい位置に任意に認識領域を設定することが可能となり、操作性を向上させることができる。
さらに、本発明の第2の側面は、カメラによる撮影領域内に設定された認識領域における認識対象オブジェクトの動きを検出する動き検出ステップと、前記動き検出ステップにおいて検出された検出情報に基づいて前記認識対象オブジェクトの動きカテゴリを決定する動きカテゴリ分類ステップと、前記動きカテゴリ分類ステップにおいて決定された動きカテゴリに対応するコマンドを選択するコマンド選択ステップと、前記コマンド選択ステップにおいて選択されたコマンドを入力するコマンド入力ステップとを有することを特徴とする情報処理方法にある。
本構成によれば、例えばユーザの手をカメラによる撮影領域内に設定された認識領域において移動させることで、様々なコマンド入力を実行することが可能となり、マウス、キーボードなどの物理的な入力手段を用いることなく、コマンド入力を実行してデータ処理を行なうことが可能となる。
さらに、本発明の第3の側面は、コマンド入力処理を情報処理装置において実行させるコンピュータ・プログラムであり、カメラによる撮影領域内に設定された認識領域における認識対象オブジェクトの動きを検出する動き検出ステップと、前記動き検出ステップにおいて検出された検出情報に基づいて前記認識対象オブジェクトの動きカテゴリを決定する動きカテゴリ分類ステップと、前記動きカテゴリ分類ステップにおいて決定された動きカテゴリに対応するコマンドを選択するコマンド選択ステップと、前記コマンド選択ステップにおいて選択されたコマンドを入力するコマンド入力ステップと有することを特徴とするコンピュータ・プログラムにある。
本構成によれば、例えばユーザの手をカメラによる撮影領域内に設定された認識領域において移動させることで、様々なコマンド入力を実行することが可能となり、マウス、キーボードなどの物理的な入力手段を用いることなく、コマンド入力を実行してデータ処理を行なうコンピュータ・プログラムが実現される。
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能なコンピュータシステムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記録媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータシステム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の構成によれば、例えば人の手などを認識対象オブジェクトとして、カメラ撮影領域に設定された認識領域内における認識対象オブジェクトの動きを検出し、この動きに基づく動きカテゴリを決定して、決定した動きカテゴリに対応付けたコマンドを選択してPCなどの情報処理装置に入力してコマンド対応のデータ処理を実行させることが可能となり、例えばユーザの手をカメラによる撮影領域内に設定された認識領域において移動させることで、様々なコマンド入力が実現され、マウス、キーボードなどの物理的な入力手段を用いることなく、コマンド入力を実行してデータ処理を行なうことができる。
以下、図面を参照しながら本発明の情報処理装置、および情報処理方法、並びにコンピュータ・プログラムの詳細について説明する。
まず、図1以下を参照して、本発明の情報処理装置の実行する処理の概要について説明する。図1に示すように、ビデオカメラ120をPCのディスプレイ110の上部に設置し、カメラ120の撮影した映像は、ディスプレイ110に表示される。表示画面は、図2を参照して後段で説明する。
カメラ120によって撮影される領域は、図1に示す点線サークルによって示す撮影領域130である。この撮影領域130において、ユーザ100は、人体の一部、例えば手を移動させる。撮影領域130には、認識領域(Hotspot)とされる特定領域が1つ以上、設定される。認識対象オブジェクトとしてのユーザ100の手が、撮影領域中の認識対象エリア(Hotspot)を移動すると、移動情報が検出され、その移動態様に基づいて、コマンドが選択されて、PC等の情報処理装置に入力され、コマンドに応じたデータ処理が実行される。
図2に、ディスプレイに表示されるカメラ120の撮影した映像データの例を示す。表示領域140は、ユーザによって実行されているメインのアプリケーションプログラムに対応したデータ表示領域である。表示領域150は、図1に示すカメラ120によって撮影されている画像データの表示領域である。撮影領域130に相当する撮影画像が、表示されるとともに、前述した特定領域としての認識領域(Hotspot)161,162が表示される。この例では、2つの認識領域が設定された例を示している。この認識領域161,162を、認識対象オブジェクトとしてのユーザの手が横切るなどの動作が発生すると、カメラによってその動作が撮影され、画像処理の結果、移動方向などの解析処理が行われる。
さらに、この解析結果に基づいて、PCなどの情報処理装置に入力される特定のコマンドが選択され、選択コマンドが情報処理装置に入力され、入力コマンドに応じた処理が実行される。たとえば、メインのアプリケーションプログラムに対応したデータ表示領域140に表示されたデータに対するデータ処理が実行される。ユーザは、ディスプレイに表示された認識領域の位置を確認して的確にコマンド入力を行なうことが可能となる。
図3、図4を参照して、具体的なデータ処理例について説明する。図3は、メインのアプリケーションプログラムに対応したデータ表示領域140に表示された文書のページめくりのコマンドを、ユーザの手の移動によって実現した例である。
図に示す撮影領域300には、2つの認識領域(Hotspot)301,302が設定されている。一方の認識領域(Hotspot)301は、メインアプリケーションプログラムにおいてディスプレイに表示されたページ321を前のページに戻すページバックコマンド(Back)に対応付けられ、他方の認識領域(Hotspot)302は、ページ321を次のページに進ませるページフォワードコマンド(Fwd)に対応付けられている。
認識領域(Hotspot)301を、認識対象オブジェクト(手)が通過したことが、カメラによって撮影された画像の解析によって識別されると、ページバックコマンド(Back)が選択されて実行され、ディスプレイに表示されたページ321を前のページに戻す処理が行なわれる。
一方、認識領域(Hotspot)302を、認識対象オブジェクト(手)が通過したことが、カメラによって撮影された画像の解析によって識別されると、ページフォワードコマンド(Fwd)が選択されて実行され、ディスプレイに表示されたページ321を次ページに進ませる処理が行なわれる。
図3に示す例は、2つの認識領域(Hotspot)301、302の各々に異なるコマンドを対応付けた例であるが、図4は、複数の認識領域(Hotspot)351、352,353を組み合わせ、かつ、それぞれの認識領域における認識対象オブジェクトの移動方向の組み合わせに基づいて、ある特定のコマンドを選択する例である。
図4に示す撮影領域350には、3つの認識領域(Hotspot)351、352,353が設定されている。ユーザは、これらの複数の認識領域を、ある方向から通過させる。図に示す例では、
認識領域(Hotspot)351:下から上(Up)
認識領域(Hotspot)352:左から右(Right)
認識領域(Hotspot)353:上から下(Down)
このような組み合わせに対応する動作を行なった例を示している。
カメラによって撮影された画像データに基づいて、認識領域(Hotspot)351、352,353の各々についての認識対象オブジェクト(手)の移動方向を検出し、複数の認識領域における移動方向の組み合わせに基づいて、ある特定のコマンドを選択する。
各認識領域において検出可能な移動方向を、下から上(Up)、左から右(Right)、上から下(Down)、右から左(Left)の4種類として設定した場合、図に示すように、3つの認識領域(Hotspot)を設定すると、
4×4×4=64
64通りの識別が可能であり、64通りのコマンドを選択して入力することが可能となる。
図5に示すように、認識領域(Hotspot)351、352,353の各々についての認識対象オブジェクト(手)の移動方向に基づいて決定される認識パターン(動きカテゴリ)に対応するコマンドをコマンドA,B,C・・・として設定したテーブルを保持し、画像解析によって得られた結果に基づいて、テーブルを参照してコマンドを選択して入力することで、多数のコマンド入力が可能となる。
なお、コマンドの種類は、様々なコマンドを対応付けることが可能である。先に図3を参照して説明したページめくりの他、例えば、認識対象オブジェクトとしての手や指が認識領域(Hotspot)を右方向に横切った場合、ディスプレイに表示された文書ウインドウの表示位置を特定距離だけ右方向に移動するというコマンドなどを選択して入力させることができる。
次に、図6以下を参照して、本発明の情報処理装置の構成、および処理の詳細について説明する。
図6は本発明の情報処理装置の構成を示すブロック図である。本発明の情報処理装置は、カメラ401の撮影画像を入力し、撮影画像に基づいて、撮影領域に設定された認識領域(Hot Spot)における認識対象オブジェクトの動き検出を実行し、検出された動きに対応するコマンドを選択して、選択コマンドをPC等の情報処理装置に入力する処理を実行する。
本発明の情報処理装置は、図6に示すように、テーブルやデスク上などにおいて、認識対象オブジェクト(例えば人の手)の動きが観察される領域の動画像を撮影するためのカメラ401と、カメラ401によって撮影された領域を表示するためのディスプレイ(表示手段)402と、カメラ401によって撮影された領域のなかの特定領域を、認識領域(ホットスポット)として設定するための認識領域設定部403と、認識領域設定部403によって設定された認識領域内に、認識対象オブジェクト(例えば人の手)が入った場合、それを検出するための認識対象オブジェクト検出部404と、認識対象オブジェクト検出部404によって検出された認識対象オブジェクトの動きの特徴を解析する動き検出部405と、動き検出部405によって解析された認識対象オブジェクトの動きの特徴に基づいて、対応する動きカテゴリを決定するための動きカテゴリ分類部406と、動きカテゴリ分類部406において決定された認識対象オブジェクト(手)の動きカテゴリに対応付けられた特定のコマンドを、コマンド格納部408に格納されたデータ(例えば図5に示すテーブルデータ)に基づいて選択するコマンド選択部407と、コマンド選択部407によって選択されたコマンドをPC等の情報処理装置に入力するためのコマンド入力部409とを備える。
認識領域設定部403は、先に、図3、図4などを参照して説明した認識領域(Hot Spot)を設定する処理を実行する。認識領域設定部403は、ディスプレイ402に表示された撮影領域内に、2次元座標を規定し、認識領域となる2次元図形(通常、矩形)を生成するためのx,y座標値を入力するための入力手段を備える。
認識領域(Hot Spot)は、例えば、矩形(長方形)であり、これは、対角関係にある2つの座標値(x1,y1;x2,y2)を入力することで設定される。なお、認識領域(Hot Spot)の形状は、矩形に限らず、様々な形状として設定可能である。
認識領域設定部403による認識領域の設定処理は、例えば、ディスプレイ402に表示された撮影領域に対して、あらかじめ用意された認識領域(Hot Spot)の形状に対応する図形群(矩形、円形、楕円形など)をグラフィカルパレット上に配置し、マウスでそれを選択・移動してディスプレイ402に表示された撮影領域に配置するとともに、これらを拡大・縮小・変形するなどの処理によって、所定形状の認識領域(Hot Spot)を設定する。なお、認識領域(Hot Spot)は、複数設定可能である。
さらに、認識領域(Hot Spot)の設定は、カメラ401によって撮影された領域のなかに映し出された任意のオブジェクト領域を、認識領域として規定する処理として実行することもできる。例えば撮影画像上にあるマウスパッドの領域を認識領域とするなどの処理である。この場合、認識領域設定部403は、撮影画像から特定のオブジェクトを切り出すためのオブジェクト切り出し手段を具備し、オブジェクト切り出し手段によって、撮影画像上の特定領域を指定して、指定領域を認識領域(Hot Spot)として設定する。
認識対象オブジェクト検出部404は、カメラ401の撮影画像フレームから画像特徴、例えば特徴を持つ特定領域の抽出を実行する。例えば目的とする認識対象オブジェクトである人の手のスキン(皮膚)領域を認識対象オブジェクトとして抽出する。なお、何を認識対象オブジェクトとして抽出するかは、目的に応じて設定することが可能である。ここでは、一例として、人の手のスキン領域を認識対象オブジェクトとして抽出する処理例について説明する。
人の手のスキン領域を認識対象オブジェクトとして抽出する場合、例えばカラーフィルタリングを適用する。スキン検出アルゴリズムとしては、例えば文献、[A. Jaimes. Conceptual Structures and Computational Methods for Indexing and Organization of Visual Information, Ph.D. Thesis, Department of Electrical Engineering, Columbia University, February 2003]に記述されたアルゴリズムをベースとすることが可能である。
スキン領域抽出アルゴリズムについて説明する。まず、入力する各画像フレーム[f]の画素値データをHSVカラー空間座標へ展開する。HSVカラー空間座標は、色相(H)、彩度(S)、輝度(V)の3次元座標である。このHSV空間において、特定の領域がスキン(皮膚)のカラー領域に対応する。
各フレーム[f]の画素値データ中、HSVカラー空間座標におけるスキン(皮膚)のカラー領域に対応する画素をスキン画像領域として判定し、HSVカラー空間座標におけるスキン(皮膚)のカラー領域以外に属する画素データは、スキン領域以外であると判定する。
上述のカラーフィルタリングによるスキン領域の抽出は、カメラ401から入力する各フレーム[f]各々に対して実行される。ただし、このカラーフィルタリング処理によっても、人のスキン(皮膚)と類似する画素値を持つ例えば壁やテーブルなどスキン(皮膚)領域以外の領域がスキン(皮膚)領域と判断される場合がある。
そこで、認識対象オブジェクト検出部404は、さらに、以下の処理を実行する。まず、上述のカラーフィルタリングによって抽出されたスキン領域をグルーピングする。スキン領域として判定された隣接する画素の集合をグループとして設定し、その境界を設定した境界領域としてのバウンディングボックスSbbを検出する。なお、一定の大きさより小さい領域は排除する。
次に、バウンディングボックスSbbと同一の中心を設定したバウンディングボックスSbbの近接領域を含むアクティブバウンディングボックスAbbを設定し、このアクティブバウンディングボックスAbb内においてフレーム間で動きが検出されているか否かを判定する。動きの有無は、現フレームと過去に数フレーム遡ったフレーム間の差分情報に基づいて判定可能である。また、動き検出部405の処理結果に基づいても得ることができる。動きのない領域はスキン領域から排除する。この処理によって動きのある領域がスキン領域、すなわち認識対象オブジェクトであると判定する。
次に、動き検出部405と、動きカテゴリ分類部406の処理について説明する。動き検出部405は、カメラ401の撮影フレームから選択されたサンプルフレーム画像データに基づいて、撮影領域に設定された認識領域(Hot Spot)内における認識対象オブジェクトの動きを検出する。
認識領域(Hot Spot)の形状を、図3、図4に示すような矩形(長方形)とした場合、動き検出部405は、例えば、矩形の認識領域(Hot Spot)内の認識対象オブジェクト(手)の動きを検出する。動きカテゴリ分類部406は、動き検出部の検出した認識領域(Hot Spot)内の認識対象オブジェクト(手)の動きを分類する処理を実行する。例えば、動きカテゴリ分類部406は、認識対象オブジェクト(手)が、認識領域(Hot Spot)内を「右から左に」、「左から右に」、「上から下に」、「下から上に」横切った場合、これらの4通りの動きを異なるカテゴリとして分類する。
なお、動き検出部405による認識領域(Hot Spot)内の認識対象オブジェクト(手)の動き検出処理態様や、動きカテゴリ分類部406におけるカテゴリ分類処理の態様としては、様々な設定が可能である。例えば、最も簡易な設定としては、動き検出部405が、認識領域(Hot Spot)内に認識対象オブジェクト(手)が入ったか否かのみを検出して、動きカテゴリ分類部406は、認識領域(Hot Spot)内に認識対象オブジェクト(手)が入った(ON)か否か(OFF)のみのカテゴリ分類を行なう設定がある。
さらに、動き検出部405が、認識領域(Hot Spot)内に認識対象オブジェクト(手)が入った位置(入力位置)と、出た位置(出力位置)を検出して、認識領域における認識対象オブジェクトの移動方向を検出し、動きカテゴリ分類部406が、認識領域(Hot Spot)内の認識対象オブジェクト(手)の移動方向に応じて、カテゴリ分類を行なう設定もある。
動き検出部405による認識領域(Hot Spot)内の認識対象オブジェクト(手)の動き検出処理は、上述した様々な設定により検出態様が異なる。すなわち、
(1)認識領域(Hot Spot)内に認識対象オブジェクト(手)が入ったか否かのみを検出する構成、
(2)認識対象オブジェクト(手)の移動方向を検出する構成、
(3)認識領域(Hot Spot)内における認識対象オブジェクト(手)の移動速度を検出する構成、
(4)認識領域(Hot Spot)内における認識対象オブジェクト(手)の占有面積、サイズ(ピクセル数)を検出する構成などである。
動きカテゴリ分類部406は、動き検出部405による検出情報に基づいて実行可能なカテゴリ分類を行なう。例えば、
(1)認識領域(Hot Spot)内に認識対象オブジェクト(手)が入ったか否かのみのカテゴリ分類、
(2)認識対象オブジェクト(手)の移動方向に基づくカテゴリ分類、
(3)認識領域(Hot Spot)内における認識対象オブジェクト(手)の移動速度に基づくカテゴリ分類、
(4)認識領域(Hot Spot)内における認識対象オブジェクト(手)のサイズ(ピクセル数)に基づくカテゴリ分類、
コマンド選択部407では、動きカテゴリ分類部406が実行したカテゴリ分類によって、分類されたカテゴリに応じた異なるコマンドを、コマンド格納部408から選択する。コマンド選択部407において選択されたコマンドは、コマンド入力部409を介して、PCなどの情報処理装置に入力される。例えば先に図3を参照して説明したページめくりコマンドなどである。
動き検出部405による認識領域(Hot Spot)内の認識対象オブジェクト(手)の動き検出処理と、動きカテゴリ分類部406におけるカテゴリ分類処理の一例について、図7、図8を参照して説明する。図7には、時間(t1)〜(t6)における認識領域(Hot Spot)内の認識対象オブジェクト(手)の動きを示している。
手の動き方向の検出は、まず、一定時間間隔のサンプルフレームごとに皮膚の色を手がかりにしてそれを切り出し、その重心を算定する。図に示す点線矩形が認識領域(Hot Spot)であり、黒丸印が重心である。
動き検出部405は、次に、重心の時系列的な変化(軌跡)を算定する。図8(1)に各時間(t1)〜(t6)の重心の位置のみを取り出したデータを示す。動き検出部405は、次に、図8(2)に示すように、サンプルフレームとしての第1フレームの重心座標と最終フレームの重心座標を結んだ直線にもとづいて、認識領域(Hot Spot)内の認識対象オブジェクト(手)の動きベクトルを求め認識対象オブジェクトの移動方向を決定する。図8(3)に示す認識対象オブジェクトの移動方向に従った動きベクトルが取得される。
この認識対象オブジェクトの移動方向に対応する動きベクトル情報が、動きカテゴリ分類部406に入力され、動きカテゴリ分類部406は、予め設定された分類情報に従って、動き検出部405から入力した認識対象オブジェクトの動き情報に基づいて、その動きのカテゴリを決定する。図8に示す例では、動きカテゴリ分類部406は、図8(4)に示すように、認識対象オブジェクトの移動方向を以下の4種類、
(a)「上から下に移動」、
(b)「下から上に移動」、
(c)「左から右に移動」、
(d)「右から左に移動」、
これらの4種類のカテゴリ分類を行なう。
このカテゴリ分類処理の場合、動き検出部405から入力した認識対象オブジェクトの動きに対応する動きベクトルの向きは、
(c)「左から右に移動」、
に最も近い情報であるので、動きカテゴリ分類部406は、認識領域(Hot Spot)内の認識対象オブジェクト(手)の動きが、
(c)「左から右に移動」、
に相当する動きカテゴリに対応するものと決定する。
この動きカテゴリ情報がコマンド選択部407に入力される。コマンド選択部407では、動きカテゴリ分類部406が決定したカテゴリに基づいて、コマンド格納部408からコマンドを選択し、選択コマンドが、コマンド入力部409を介して、PCなどの情報処理装置に入力される。なお、コマンド選択部407では、コマンド格納部408に格納されたテーブル、例えば図9に示すような、動きカテゴリとコマンドを対応付けたテーブルを参照して、動きカテゴリ分類部406が決定したカテゴリに基づいて、コマンドを選択する。
なお、前述したように、認識領域(Hot Spot)内の認識対象オブジェクト(手)の動きの検出およびカテゴリ分類処理の態様としては、様々な設定が可能である。例えば以下のような設定例がある。
(a)認識領域(Hot Spot)内の認識対象オブジェクト(手)の動き方向を、「左から右」、「右から左」、「上から下」、「下から上」の4カテゴリに分類したうえで、いずれの方向かを認識する方法。
(b)認識領域(Hot Spot)内の認識対象オブジェクト(手)の動き方向を、「左から右」、「右から左」、「上から下」、「下から上」の4カテゴリに分類したうえで、これらのうちの1方向のみを認識し、それ以外の方向については認識しない方法。
(c)認識領域(Hot Spot)内の認識対象オブジェクト(手)の動き方向を、「左から右」、「右から左」、「上から下」、「下から上」の4カテゴリに分類したうえで、これらのうちの2方向のみを認識し、それ以外の方向については認識しない方法。
(d)認識領域(Hot Spot)内の認識対象オブジェクト(手)の動き方向を、「左から右」、「右から左」、「上から下」、「下から上」の4カテゴリに分類したうえで、これらのうちの3方向のみを認識し、それ以外の方向については認識しない方法。
これらの方法について、図10、図11を参照して説明する。(a)〜(d)は、いずれも、カテゴリ分類としては、図10に示すように「左から右」、「右から左」、「上から下」、「下から上」の4カテゴリに分類する。
(a)の手法は、これら4つのカテゴリに応じて4つの異なるコマンドを対応付ける。(b)の手法は、これら4つのカテゴリ中、1つ、例えば、「左から右」の動きが検出された場合にのみ、コマンドを対応付け、その他の動きの場合は、コマンドを発生させない設定である。(c)の手法は、4つのカテゴリ中、2つ、例えば、「左から右」と、「右から左」の動きが検出された場合に、各動きに対応するコマンドを設定し、その他の動きの場合は、コマンドを発生させない設定である。(d)の手法は、4つのカテゴリ中、3つ、例えば、「左から右」と、「右から左」、「上から下」の動きが検出された場合に、各動きに対応するコマンドを設定し、その他の動きの場合は、コマンドを発生させない設定である。
なお、図10を参照して説明したコマンドの対応付けでは、動きカテゴリ分類としてカテゴリ分類された方向情報に基づいて異なるコマンドを発行する例を示したが、方向ごとに異なるコマンドを発生するのではなく、一定のコマンドを発行する設定としてもよい。たとえば、図11に示すような設定である。
(a)は、認識対象オブジェクト(手)の動き方向を、「左から右」、「右から左」、「上から下」、「下から上」の4カテゴリのいずれの場合も1つのコマンドAを発行させる。(b)は、これら4つのカテゴリ中、1つ、例えば、「左から右」の動きが検出された場合にのみ、コマンドAを対応付け、その他の動きの場合は、コマンドを発生させない設定である。(c)の手法は、4つのカテゴリ中、2つ、例えば、「左から右」と、「右から左」の動きが検出された場合に、コマンドAを発行し、その他の動きの場合は、コマンドAを発生させない設定である。(d)は、4つのカテゴリ中、3つ、例えば、「左から右」と、「右から左」、「上から下」の動きが検出された場合に、コマンドAを発行し、その他の動きの場合は、コマンドを発生させない設定である。
このような設定は、認識領域における認識対象オブジェクトの動き方向が、「認識領域」に割り当てられた方向性と一致していたなら、「認識領域」をアクティベート(ON)させ、それ以外の場合にはアクティベートさせない(OFF)という設定である。
上記(a)〜(d)の構成は、認識対象オブジェクト(手)の動き方向として、「左から右」、「右から左」、「上から下」、「下から上」の4カテゴリを適用した構成であったが、さらに、多くのカテゴリを適用する構成も可能である。図12を参照して、16カテゴリを設定した例を説明する。
図12には、
(e)認識領域(Hot Spot)内の認識対象オブジェクト(手)の動き方向を、
「左から右」、「左から上」、「左から下」、「左から左」、
「右から右」、「右から上」、「右から下」、「右から左」、
「上から右」、「上から上」、「上から下」、「上から左」、
「下から右」、「下から上」、「下から下」、「下から左」、
の16カテゴリに分類した上で、いずれの方向かを認識する設定を示している。
動き検出部405が検出した認識対象オブジェクトの動き情報に基づいて、動きカテゴリ分類部406は、認識対象オブジェクトの動きが、図12に示す16種類のいずれかに対応するかを判定して、認識対象オブジェクトの動きカテゴリを決定する。
この動きカテゴリ情報がコマンド選択部407に入力されて、コマンド選択部407において、動きカテゴリ分類部406が決定したカテゴリに基づいて、コマンド格納部408からコマンドを選択し、選択コマンドをコマンド入力部409からPCなどの情報処理装置に入力される。
なお、図10〜図12を参照して説明した処理例は、1つの認識領域(Hot Spot)内の認識対象オブジェクト(手)の動きを検出した場合の処理例であるが、先に、図4、図5を参照して説明したように、複数の認識領域(Hot Spot)内の認識対象オブジェクト(手)の動きの組み合わせに基づいて、動きカテゴリを決定して、決定カテゴリに対応するコマンドを発生させる設定としてもよい。このような設定とすることで、さらに、多数のカテゴリを設定でき、多数のコマンドを対応付けることが可能となる。
また、上述した説明では、動き検出部405は、認識対象オブジェクトの認識領域に対する入力位置、出力位置、移動方向、移動速度、および占有面積の少なくとも1つ以上のオブジェクト関連情報を検出する処理を実行し、動きカテゴリ分類部406は、動き検出部405において検出された認識対象オブジェクトについての認識領域に対する入力位置、出力位置、移動方向、移動速度、および占有面積の少なくともいずれか1つ以上のオブジェクト関連情報に基づいて動きカテゴリを決定する処理を実行する構成として説明したが、動き検出部405と、動きカテゴリ分類部406の処理は、これらに限らず、例えば以下の処理構成としてもよい。
例えば、動き検出部405は、
a)認識対象オブジェクトが特定の認識領域内に停滞した停滞時間、
b)認識対象オブジェクトが特定の認識領域内において検出された回数、
の少なくとも1つ以上のオブジェクト関連情報を検出する処理を実行する構成とし、
動きカテゴリ分類部406は、動き検出部405において検出された認識対象オブジェクトについての前記a),b)の少なくとも1つ以上のオブジェクト関連情報に基づいて動きカテゴリを決定する。
あるいは、動き検出部405は、認識対象オブジェクトが異なる複数の認識領域で検出された時間差情報を検出する処理を実行する構成とし、動きカテゴリ分類部406は、動き検出部405において検出された時間差情報に基づいて動きカテゴリを決定する処理を実行する。このような構成としてもよい。動き検出部405は、認識対象オブジェクトの認識領域に関連する上述した様々な情報の少なくともいずれか1つ以上のオブジェクト関連情報を取得して、動きカテゴリ分類部406は、動き検出部405において検出されたこれらのいずれかの情報に基づいて動きカテゴリを決定する。
次に、本発明の情報処理装置における処理シーケンスについて、図13に示すフローチャートを参照して説明する。
まず、ステップS101において、認識領域(Hot Spot)の設定処理を行う。これは、図6に示す認識領域設定部403の処理であり、先に、図3、図4などを参照して説明した認識領域(Hot Spot)を設定する処理を実行する。例えば、認識領域設定部403は、ディスプレイ402に表示された撮影領域内に、2次元座標を規定し、認識対象エリアとなる2次元図形(通常、矩形)を生成するためのx,y座標値を入力する。その他、予め設定された形状のパターンを利用する構成や、撮影画像から特定オブジェクトや領域を切り出す処理によって認識領域の設定処理を行う。なお、あらかじめ、デフォルトの認識領域を設定しておく構成としてもよく、この場合は、このステップS101の処理は省略できる。
認識領域の設定がなされた後、ステップS102以下において、実際の認識対象オブジェクトの動き検出によるコマンド入力が開始される。まず、ステップS102において、認識対象オブジェクトの検出が行なわれる。この処理は、図6に示す認識対象オブジェクト検出部404の処理として実行される。カメラ401の撮影画像フレームから画像特徴、例えば特徴を持つ特定領域の抽出を実行する。例えば目的とする認識対象オブジェクトである人の手のスキン(皮膚)領域を認識対象オブジェクトとして抽出する。なお、何を認識対象オブジェクトとして抽出するかは、目的に応じて設定することが可能である。
次に、ステップS103において、認識対象オブジェクトの動き検出処理が行なわれる。この処理は、図6に示す動き検出部405の処理である。動き検出部405は、カメラ401の撮影フレームから選択されたサンプルフレーム画像データに基づいて、撮影領域に設定された認識領域(Hot Spot)内における認識対象オブジェクトの動きを検出する。この処理は、先に、図7、図8を参照して説明したように、例えば、認識領域(Hot Spot)内における認識対象オブジェクトの重心の移動軌跡の検出によって実行される。
次に、ステップS104において、認識対象オブジェクトの動きカテゴリの決定処理を行なう。この処理は、図6に示す動きカテゴリ分類部406の処理である。動きカテゴリ分類部406は、動き検出部の検出した認識領域(Hot Spot)内の認識対象オブジェクト(例えば手)の動きを分類する処理を実行する。例えば、動きカテゴリ分類部406は、認識対象オブジェクトが、認識領域(Hot Spot)内を「右から左に」、「左から右に」、「上から下に」、「下から上に」横切った場合、これらの4通りの動きを異なるカテゴリとして分類する。
次に、ステップS105において、動きカテゴリに対応するコマンドを選択する処理が実行される。この処理は、図6に示すコマンド選択部407の処理である。コマンド選択部407では、動きカテゴリ分類部406が決定したカテゴリに基づいて、コマンド格納部408からコマンドを選択する。たとえば、図5、あるいは図9に示すテーブルがコマンド格納部408に格納され、コマンド選択部407は、動きカテゴリ分類部406が決定したカテゴリ情報に対応してテーブルに記録されたコマンドを選択する。
次に、ステップS106において、コマンドの入力処理が実行される。この処理は、図6に示すコマンド入力部409の処理であり、コマンド選択部において選択された選択コマンドが、コマンド入力部409を介して、PCなどの情報処理装置に入力される。以上の処理によって、認識領域(Hot Spot)内の認識対象オブジェクト(例えば手)の動きに基づくコマンド入力が行なわれることになる。
最後に、図14を参照して、認識領域(Hot Spot)内の認識対象オブジェクト(例えば手)の動きに基づくコマンド入力を実行する情報処理装置のハードウェア構成例について説明する。
CPU(Central Processing Unit)501は、OS(Operating System)、上述の実施例において説明した認識領域設定処理、認識対象オブジェクト識別処理、認識領域内の認識対象オブジェクトの動き検出、動きカテゴリ分類処理、更にコマンド選択処理などの各処理の実行シーケンスを記述したコンピュータ・プログラムに従った処理を実行する制御部である。
ROM(Read Only Memory)502は、CPU501が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)503は、CPU501の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバスなどから構成されるホストバス504により相互に接続されている。
ホストバス504は、ブリッジ505を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス506に接続されている。
キーボード508、ポインティングデバイス509は、ユーザにより操作される入力デバイスである。ディスプレイ510は、液晶表示装置またはCRT(Cathode Ray Tube)などから成り、各種情報をテキストやイメージで表示する。
HDD(Hard Disk Drive)511は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU501によって実行するプログラムや情報を記録または再生させる。ハードディスクは、例えば、図5、図9を参照して説明した動きカテゴリとコマンドを対応付けたテーブル、および各種コマンドの格納部としての役割、さらに各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納領域として利用される。
ドライブ512は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体521に記録されているデータまたはプログラムを読み出して、そのデータまたはプログラムを、インタフェース507、外部バス506、ブリッジ505、およびホストバス504を介して接続されているRAM503に供給する。
接続ポート514は、外部接続機器522を接続するポートであり、USB,IEEE1394等の接続部を持つ。接続ポート514は、インタフェース507、および外部バス506、ブリッジ505、ホストバス504等を介してCPU501等に接続されている。通信部515は、ネットワークに接続され、CPU501、またはHDD511等からの供給データの送信、データ受信を実行する。
なお、図14に示す情報処理装置のハードウェア構成例は、PCを適用して構成した装置の一例であり、本発明の情報処理装置は、図14に示す構成に限らず、上述した実施例において説明した処理を実行可能な構成であればよい。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本発明の構成によれば、例えば人の手などを認識対象オブジェクトとして、カメラ撮影領域に設定された認識領域内における認識対象オブジェクトの動きを検出し、この動きに基づく動きカテゴリを決定して、決定した動きカテゴリに対応付けたコマンドを選択してPCなどの情報処理装置に入力してコマンド対応のデータ処理を実行させることが可能となり、例えばユーザの手をカメラによる撮影領域内に設定された認識領域において移動させることで、様々なコマンド入力が実現され、マウス、キーボードなどの物理的な入力手段を用いることなく、コマンド入力を実行してデータ処理を行なうことができる。
本発明の情報処理装置の処理の概要について説明する図である。 本発明の情報処理装置の処理によってディスプレイに表示されるデータ例を示す図である。 本発明の情報処理装置の処理としての動き検出およびコマンド入力処理の一例について説明する図である。 本発明の情報処理装置の処理としての動き検出およびコマンド入力処理の一例について説明する図である。 本発明の情報処理装置の記憶部としてのコマンド格納部に格納される動きカテゴリとコマンドの対応テーブルの例を示す図である。 本発明の情報処理装置の構成例を示すブロック図である。 本発明の情報処理装置の動き検出部の実行する動き検出処理例について説明する図である。 本発明の情報処理装置の動き検出部および動きカテゴリ分類部の実行する動き処理例について説明する図である。 本発明の情報処理装置の記憶部としてのコマンド格納部に格納される動きカテゴリとコマンドの対応テーブルの例を示す図である。 本発明の情報処理装置の動き検出部および動きカテゴリ分類部の検出する認識対象オブジェクトの動きカテゴリと対応コマンドの例について説明する図である。 本発明の情報処理装置の動き検出部および動きカテゴリ分類部の検出する認識対象オブジェクトの動きカテゴリと対応コマンドの例について説明する図である。 本発明の情報処理装置の動き検出部および動きカテゴリ分類部の検出する認識対象オブジェクトの動きカテゴリについて説明する図である。 本発明の情報処理装置の実行する処理シーケンスについ手説明するフローチャートを示す図である。 本発明の情報処理装置のハードウェア構成例を示す図である。
符号の説明
100 ユーザ
110 ディスプレイ
120 カメラ
130 撮影領域
140 表示領域
150 表示領域
161,162 認識領域
300 撮影領域
301,302 認識領域
321 ページ
350 撮影領域
351,352,353 認識領域
401 カメラ
402 ディスプレイ
403 認識領域設定部
404 認識対象オブジェクト検出部
405 動き検出部
406 動きカテゴリ分類部
407 コマンド選択部
408 コマンド格納部
409 コマンド入力部
501 CPU(Central processing Unit)
502 ROM(Read-Only-Memory)
503 RAM(Random Access Memory)
504 ホストバス
505 ブリッジ
506 外部バス
507 インタフェース
508 キーボード
509 ポインティングデバイス
510 ディスプレイ
511 HDD(Hard Disk Drive)
512 ドライブ
514 接続ポート
515 通信部
521 リムーバブル記録媒体
522 外部接続機器

Claims (12)

  1. カメラによる撮影領域内に設定された認識領域における認識対象オブジェクトの動きを検出する動き検出部と、
    前記動き検出部において検出された検出情報に基づいて前記認識対象オブジェクトの動きカテゴリを決定する動きカテゴリ分類部と、
    前記動きカテゴリ分類部において決定された動きカテゴリに対応するコマンドを選択するコマンド選択部と、
    前記コマンド選択部において選択されたコマンドを入力するコマンド入力部と、
    を有することを特徴とする情報処理装置。
  2. 前記動き検出部は、
    カメラによる撮影領域内に設定された複数の認識領域における認識対象オブジェクトの動きを、各認識領域個別に検出する処理を実行し、
    前記動きカテゴリ分類部は、
    前記複数の認識領域における認識対象オブジェクトの動きの組み合わせに基づいて、前記認識対象オブジェクトの動きカテゴリを決定する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記動き検出部は、
    認識領域における認識対象オブジェクトの移動方向を検出する処理を実行する構成であり、
    前記動きカテゴリ分類部は、
    前記動き検出部において検出された認識対象オブジェクトの移動方向に基づいて動きカテゴリを決定する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
  4. 前記動き検出部は、
    認識対象オブジェクトの認識領域に対する入力位置、出力位置、移動方向、移動速度、および占有面積の少なくとも1つ以上のオブジェクト関連情報を検出する処理を実行する構成であり、
    前記動きカテゴリ分類部は、
    前記動き検出部において検出された認識対象オブジェクトについての前記1つ以上のオブジェクト関連情報に基づいて動きカテゴリを決定する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
  5. 前記動き検出部は、
    a)認識対象オブジェクトが特定の認識領域内に停滞した停滞時間、
    b)認識対象オブジェクトが特定の認識領域内において検出された回数、
    の少なくとも1つ以上のオブジェクト関連情報を検出する処理を実行する構成であり、
    前記動きカテゴリ分類部は、
    前記動き検出部において検出された認識対象オブジェクトについての前記a),b)の少なくとも1つ以上のオブジェクト関連情報に基づいて動きカテゴリを決定する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
  6. 前記動き検出部は、
    認識対象オブジェクトが異なる複数の認識領域で検出された時間差情報を検出する処理を実行する構成であり、
    前記動きカテゴリ分類部は、
    前記動き検出部において検出された前記時間差情報に基づいて動きカテゴリを決定する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
  7. 前記動き検出部は、
    認識領域における認識対象オブジェクトの重心を算出し、該重心位置の移動情報に基づいて、認識対象オブジェクトの動きを検出する処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
  8. 前記情報処理装置は、さらに、
    カメラによる撮影領域および、該撮影領域内に設定された認識領域情報を表示する出力手段を有する構成であることを特徴とする請求項1乃至7いずれかに記載の情報処理装置。
  9. 前記情報処理装置は、さらに、
    前記認識領域の設定処理を実行する認識領域設定部を有することを特徴とする請求項1乃至8いずれかに記載の情報処理装置。
  10. カメラによる撮影領域内に設定された認識領域における認識対象オブジェクトの動きを検出する動き検出ステップと、
    前記動き検出ステップにおいて検出された検出情報に基づいて前記認識対象オブジェクトの動きカテゴリを決定する動きカテゴリ分類ステップと、
    前記動きカテゴリ分類ステップにおいて決定された動きカテゴリに対応するコマンドを選択するコマンド選択ステップと、
    前記コマンド選択ステップにおいて選択されたコマンドを入力するコマンド入力ステップと、
    を有することを特徴とする情報処理方法。
  11. 前記動き検出ステップは、
    カメラによる撮影領域内に設定された複数の認識領域における認識対象オブジェクトの動きを、各認識領域個別に検出する処理を実行するステップであり、
    前記動きカテゴリ分類ステップは、
    前記複数の認識領域における認識対象オブジェクトの動きの組み合わせに基づいて、前記認識対象オブジェクトの動きカテゴリを決定する処理を実行するステップであることを特徴とする請求項10に記載の情報処理方法。
  12. コマンド入力処理を情報処理装置において実行させるコンピュータ・プログラムであり、
    カメラによる撮影領域内に設定された認識領域における認識対象オブジェクトの動きを検出する動き検出ステップと、
    前記動き検出ステップにおいて検出された検出情報に基づいて前記認識対象オブジェクトの動きカテゴリを決定する動きカテゴリ分類ステップと、
    前記動きカテゴリ分類ステップにおいて決定された動きカテゴリに対応するコマンドを選択するコマンド選択ステップと、
    前記コマンド選択ステップにおいて選択されたコマンドを入力するコマンド入力ステップと、
    を有することを特徴とするコンピュータ・プログラム。
JP2005214909A 2005-07-25 2005-07-25 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム Pending JP2007034525A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005214909A JP2007034525A (ja) 2005-07-25 2005-07-25 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005214909A JP2007034525A (ja) 2005-07-25 2005-07-25 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Publications (1)

Publication Number Publication Date
JP2007034525A true JP2007034525A (ja) 2007-02-08

Family

ID=37793738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005214909A Pending JP2007034525A (ja) 2005-07-25 2005-07-25 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP2007034525A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100947502B1 (ko) * 2007-02-22 2010-03-17 엠텍비젼 주식회사 피사체 움직임 감지 장치 및 방법
JP2010134912A (ja) * 2008-10-31 2010-06-17 Sony Corp 入力装置および方法、並びにプログラム
JP2010237765A (ja) * 2009-03-30 2010-10-21 Toshiba Corp 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム
WO2013022224A1 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus using motion recognition and method for controlling electronic apparatus thereof
JP2013089238A (ja) * 2011-10-20 2013-05-13 Fuji Xerox Co Ltd ジェスチャ処理プログラム
WO2014027659A1 (ja) 2012-08-17 2014-02-20 Necシステムテクノロジー株式会社 入力装置、機器、入力方法および記録媒体
JP2014096804A (ja) * 2013-12-02 2014-05-22 Hitachi Consumer Electronics Co Ltd 操作制御装置及び操作表示方法
JP2014164373A (ja) * 2013-02-22 2014-09-08 Nikon Corp 認証装置及び認証方法
JP2015056179A (ja) * 2013-09-13 2015-03-23 現代自動車株式会社 注文型インターフェースシステムおよびその操作方法
US9002714B2 (en) 2011-08-05 2015-04-07 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP2016148898A (ja) * 2015-02-10 2016-08-18 範宏 青柳 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100947502B1 (ko) * 2007-02-22 2010-03-17 엠텍비젼 주식회사 피사체 움직임 감지 장치 및 방법
JP2010134912A (ja) * 2008-10-31 2010-06-17 Sony Corp 入力装置および方法、並びにプログラム
US8648798B2 (en) 2008-10-31 2014-02-11 Sony Corporation Input device and method and program
US10474250B2 (en) 2008-10-31 2019-11-12 Sony Corporation Input device and method and program
US9990056B2 (en) 2008-10-31 2018-06-05 Sony Corporation Input device and method and program
JP2010237765A (ja) * 2009-03-30 2010-10-21 Toshiba Corp 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム
US9002714B2 (en) 2011-08-05 2015-04-07 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2013022224A1 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus using motion recognition and method for controlling electronic apparatus thereof
US9733895B2 (en) 2011-08-05 2017-08-15 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP2013089238A (ja) * 2011-10-20 2013-05-13 Fuji Xerox Co Ltd ジェスチャ処理プログラム
US9965041B2 (en) 2012-08-17 2018-05-08 Nec Solution Innovators, Ltd. Input device, apparatus, input method, and recording medium
WO2014027659A1 (ja) 2012-08-17 2014-02-20 Necシステムテクノロジー株式会社 入力装置、機器、入力方法および記録媒体
JP2014164373A (ja) * 2013-02-22 2014-09-08 Nikon Corp 認証装置及び認証方法
JP2015056179A (ja) * 2013-09-13 2015-03-23 現代自動車株式会社 注文型インターフェースシステムおよびその操作方法
JP2014096804A (ja) * 2013-12-02 2014-05-22 Hitachi Consumer Electronics Co Ltd 操作制御装置及び操作表示方法
JP2016148898A (ja) * 2015-02-10 2016-08-18 範宏 青柳 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法

Similar Documents

Publication Publication Date Title
JP2007034525A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20230367399A1 (en) Cursor mode switching
JP6323040B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5845002B2 (ja) 画像処理装置および方法、並びにプログラム
KR101514169B1 (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
JP5709227B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20180211138A1 (en) Information processing device, information processing method, and storage medium
JP6571108B2 (ja) モバイル機器用三次元ジェスチャのリアルタイム認識及び追跡システム
US20110273474A1 (en) Image display apparatus and image display method
JP5703194B2 (ja) ジェスチャ認識装置、その方法、及び、そのプログラム
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
US20140340524A1 (en) Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
JP5887264B2 (ja) 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
CN112088348A (zh) 经由头部姿态远程控制显示设备的方法、系统和计算机程序
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2014029656A (ja) 画像処理装置および画像処理方法
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
Hartanto et al. Real time hand gesture movements tracking and recognizing system
KR101758693B1 (ko) 물체-행동 관계 모델에 기반한 행동 인식 방법 및 그 장치
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
Siam et al. Human computer interaction using marker based hand gesture recognition
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
US10235776B2 (en) Information processing device, information processing method, and information processing program
JP6805375B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム