JP2004246856A - インタフェース装置 - Google Patents

インタフェース装置 Download PDF

Info

Publication number
JP2004246856A
JP2004246856A JP2003166659A JP2003166659A JP2004246856A JP 2004246856 A JP2004246856 A JP 2004246856A JP 2003166659 A JP2003166659 A JP 2003166659A JP 2003166659 A JP2003166659 A JP 2003166659A JP 2004246856 A JP2004246856 A JP 2004246856A
Authority
JP
Japan
Prior art keywords
arm
pointing
interface device
gravity
arm pointing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003166659A
Other languages
English (en)
Other versions
JP4035610B2 (ja
Inventor
Ikushi Yoda
育士 依田
Katsuhiko Sakagami
勝彦 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2003166659A priority Critical patent/JP4035610B2/ja
Priority to PCT/JP2003/016171 priority patent/WO2004055726A1/ja
Priority to AU2003289395A priority patent/AU2003289395A1/en
Priority to US10/540,127 priority patent/US7821531B2/en
Publication of JP2004246856A publication Critical patent/JP2004246856A/ja
Application granted granted Critical
Publication of JP4035610B2 publication Critical patent/JP4035610B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

【課題】室内空間における複数のユーザの腕指しによる非接触非拘束の指示動作の実現、ならびに立位、座位、伏位などの一般的な全ての姿勢での腕指しと、その腕指しによる指示動作によって室内空間の室内機器の操作を容易になし得るインタフェース装置を提供する。
【解決手段】インタフェース装置において、室内空間5において複数のステレオカメラ1−1から1−nにより室内を撮像し、各ステレオカメラ単位で視野内の撮像画像と室内空間5の座標系に基づいた距離画像を生成する画像処理手段と、前記各ステレオカメラ1−1〜1−nからの距離情報に基づきユーザ4の体勢と腕指しを抽出する手段と、前記腕指しが識別された場合に、腕が指し示している方向、その動きから、意図して出されたサインであるかどうかを識別する手段とを具備する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、インタフェース装置に係り、特に、ユーザの腕指しによる指示動作を判定して、対応する機能を持つ、身振りによる室内空間におけるインタフェース装置に関するものである。
【0002】
【従来の技術】
これまでに、図28に示すようなカメラ81−1,81−2付きのディスプレイ82の前にユーザ84が位置し、そのユーザ84の指さし等によりマウスなどを操作するシステムは存在するが、それらは2、3台の少ないカメラ画像から、そのユーザ84の位置を測定し、マウスなどを操作させている。
【0003】
それゆえ、認識対象領域83はディスプレイ82前の特定の空間程度であり、非常に狭い場所でしか使えず、かつ一度に1人しか使えないといった問題点がある。
【0004】
さらに、図29に示すようなハンドサインの認識システムも、カメラ91の前の固定的な環境でユーザ94の手のみの画像を取得して認識することで、インタフェース装置として使われているため、同様の問題点を有する。なお、この図において、92はディスプレイ、93は認識対象領域である。
【0005】
【特許文献1】
特開平11−327753号公報 第5−10頁 図1
【特許文献2】
特開2000−216号公報 第4−5頁 図1
【特許文献3】
特開2002−251235号公報 第4−7頁 図1
【0006】
【発明が解決しようとする課題】
上述したように、かかる従来の装置では、特定の狭い固定的な環境のみでしかインタフェース装置が動作しないといった問題点がある。
【0007】
本発明は、上記状況に鑑みて、室内空間における複数のユーザの腕指しによる非接触非拘束の指示動作の実現、ならびに立位、座位、伏位などの一般的な全ての姿勢での腕指しと、その腕指しによる指示動作によって室内空間の室内機器の操作を容易になし得るインタフェース装置を提供することを目的としている。
【0008】
【課題を解決するための手段】
本発明は、上記目的を達成するために、
〔1〕インタフェース装置において、室内空間において複数のステレオカメラにより該室内を撮像し、前記各ステレオカメラ単位で視野内の撮像画像と室内の座標系に基づいた距離画像を生成する画像処理手段と、前記各ステレオカメラからの距離情報に基づき、ユーザの位置姿勢と腕指しを抽出する位置姿勢・腕指し認識手段と、前記ユーザの腕指しが識別された場合に、該腕が指し示している方向、その動きから、指示動作であるかどうかを認識する指示動作認識手段と、
を具備することを特徴とする。
【0009】
〔2〕上記〔1〕記載のインタフェース装置において、前記指示動作認識手段の動作に基づき、予め登録された室内機器を操作するコマンドを送出し、その結果を受信する操作コマンド送受信装置を具備することを特徴とする。
【0010】
〔3〕上記〔1〕又は〔2〕記載のインタフェース装置において、前記位置姿勢・腕指し認識手段は、集められた3次元情報から前記距離データを室内空間座標系に沿って、段違い引き出し法により取り出し、データを2次元平面に投影することで複数のユーザの姿勢認識処理をする位置姿勢認識部と、該得られた複数のユーザの2次元投影図から腕指しの方向を識別する腕指し認識部とを有することを特徴とする。
【0011】
〔4〕上記〔1〕又は〔2〕記載のインタフェース装置において、前記指示動作認識手段は、前記得られた腕指しの方向の時系列データからその指示動作を認識する指示動作認識部を有し、更に、腕指し操作の対象となる操作対象機器の情報や操作方法を保存する操作機器データベースと、前記操作対象機器の基本情報、位置、操作方法を記憶する操作機器登録部とを具備することを特徴とする。
【0012】
〔5〕上記〔1〕記載のインタフェース装置において、前記腕指しを抽出する位置姿勢・腕指し認識手段は、各ステレオカメラから得られた3次元距離情報を、室内座標系に基づいて、20cmごとに階層的に区切って情報を切り出す段違い引き出し法により、各引き出し内に入った点列を2次元平面に投影した後、二値化して、2次元の二値画像となし、各階層単位でラベリングを行った後で各クラスタの全体重心を求め、2次元平面において求めた重心をラベリングされた対象単位で再び階層的に積み上げて、3次元点列として利用し、Z軸に沿って各階層ごとの重心をプロットして、最上部(頭部)より8階層分(上半身)までをXY平面上にプロットし、全体重心と比較して大きな外れ値があった場合を腕指し動作が行われたとするとともに、最上部より8階層分までの二値画像と等価の矩形形状である画像モーメントを求めて得られた8組のデータのうち面積が一定の範囲にあり、かつ画像モーメントの長辺と短辺の差が最も大きい階層の長辺の垂直方向を体の向きとし、前記した腕指し動作が認識された場合、最も全体重心からプレート重心が離れた階層の二値画像の重心と全体重心との間に垂直二等分線をひき、人の体に相当する領域にある二値画像を消し去り、腕部分のみを残し、その腕部分のみの二値画像に対して画像モーメントを計算し、その長辺、重心、腕先端位置、全体重心を計算することで腕指しのXY平面上での向きを決定し、身長、目の高さ、腕長係数から腕指しのZ方向の向きを決定して腕指しの方向を求め、指示動作を認識することを特徴とする。
【0013】
〔6〕上記〔5〕記載のインタフェース装置において、頭の高さ及び座高に相当する高さから腕指し判定の下限を設定して、該下限より下にある疑似腕指しの場合は、腕指しではないと判定することを特徴とする。
【0014】
〔7〕上記〔6〕記載のインタフェース装置において、前記下限より下にある疑似腕指しの場合が脚を投げ出した場合である。
【0015】
〔8〕上記〔5〕記載のインタフェース装置において、前記画像モーメントの長辺と身長との比が一定に達していない場合は、腕指しでないと判定することを特徴とする。
【0016】
〔9〕上記〔5〕記載のインタフェース装置において、平均重心から腕指し先端までの距離をr1、前記平均重心から腕指し末端までの距離をr2とすると、r1/r2が身長から設定された値以下である場合は、腕指しでないと判定することを特徴とする。
【0017】
〔10〕上記〔8〕又は〔9〕記載のインタフェース装置において、該当する場合が、小さい腕指しであることを特徴とする。
【0018】
〔11〕上記〔5〕記載のインタフェース装置において、前記画像モーメントの長辺L、短辺Lより面積Sを求め、この面積Sに上限を、前記画像モーメントの長辺Lに下限を設定し、この限度から外れる場合は、腕指しでないと判定することを特徴とする。
【0019】
〔12〕上記〔5〕記載のインタフェース装置において、腕指し先端と平均重心間距離と、腕指し末端と平均重心間距離の比が設定値以上の場合は、腕指しでないと判定することを特徴とする。
【0020】
〔13〕上記〔11〕又は〔12〕記載のインタフェース装置において、前記限度から外れる場合は、両手を広げた場合であることを特徴とする。
【0021】
〔14〕上記〔5〕記載のインタフェース装置において、ユーザの腕指し先端を中心に、所定の半径内に相手の平均重心を発見した場合は、腕指しでないと判定することを特徴とする。
【0022】
〔15〕上記〔1〕又は〔2〕記載のインタフェース装置において、前記室内空間のうち特定エリアを予め登録しておき、その特定エリアにユーザがいる場合にそのユーザの腕指しを識別することを特徴とする。
【0023】
〔16〕上記〔15〕記載のインタフェース装置において、前記特定エリアを介護ベッドの頭部サイドとし、その特定エリア内にユーザがいる場合は、その特定エリア用の腕指し識別を行うことを特徴とする。
【0024】
〔17〕上記〔16〕記載のインタフェース装置において、前記特定エリアを介護ベッドの頭部サイドとし、その特定エリア内にユーザがいない場合は、ユーザが立位、座位又は伏位かどうか判定し、それぞれの姿勢での腕指しを識別することを特徴とする。
【0025】
本発明によれば、室内空間にいる各ユーザの姿勢をカメラからの距離情報によって識別しながら各ユーザの室内の位置を特定する。また、予め登録された室内機器を直接腕で指し示す指示動作(腕指し)を行うことで、その室内機器を操作するコマンドを送出する。
【0026】
更に、本発明では、指示動作(腕指し)によって操作する室内機器とその操作内容を登録する手段を提供する。及び、同時に室内機器に対応したコマンドを登録する手段を与える。
【0027】
また、腕指しを的確に検出するととともに、一見、腕指しのように見える挙動(疑似腕指し)を腕指しから確実に除外して、正確な腕指しの判定を行うことができる。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態について詳細に説明する。
【0029】
図1及び図2は本発明の一実施形態のシステム構成を示す図であり、図3は図1及び図2に示した情報統合認識装置のブロック図である。
【0030】
図1において、複数のステレオカメラ1−1から1−nによって死角がないように室内空間5が撮影され、ユーザ4−1,4−2,…,4−nは室内空間5の中を自由に移動する。各ステレオカメラ1は2台以上のカメラの撮像素子が平行に固定されていて、ステレオカメラ1−1から1−nの撮像出力は画像処理装置2に与えられる。ステレオカメラ1自体は既に公知のものであり、たとえばポイントグレイ社のデジクロップスやサーノフ研究所のアケーディアのようなものが用いられる。
【0031】
画像処理装置2は各ステレオカメラ1からの映像を入力として毎秒10枚〜30枚程度の画像を処理し、そこから得られた距離画像とカラー画像の結果を情報統合認識装置3に与える。なお、6は操作対象機器であり、ここではエアコン6−Aやテレビジョン6−Bが示されている。8は表示装置である。
【0032】
図1には室内空間を全て認識対象領域(操作可能空間)5としてカバーする例を示しているが、図2では説明を簡単にするために、ステレオカメラ1の1台のみを下向きに設置し、その下の室内空間のみを認識対象領域(操作可能空間)5として示した。この図2の操作可能空間5では、一人のユーザ4のみが対象として示されているが、基本的な仕組みは全て図1に示されているものと同様である。
【0033】
図3に示すように、情報統合認識装置3は、位置姿勢認識部31、腕指し認識部32、指示動作認識部33、操作機器データベース34、操作機器登録部35とを含む。位置姿勢認識部31は画像処理装置2によって集められた3次元情報からその距離データを室内空間座標系(図1、図2のX,Y,Z軸)に沿って、図5に示す段違い引き出し法により取り出し、データを2次元平面に投影することで複数のユーザの姿勢認識処理をする。腕指し認識部32はその得られた複数のユーザの2次元投影図から腕指しの方向を識別する。指示動作認識部33は、得られた腕指しの方向の時系列データからその指示動作を認識する。操作機器データベース34には腕指し操作の対象となる操作対象機器6の情報や操作方法を保存する。操作機器登録部35には操作対象機器6の基本情報、位置、操作方法を保存する。
【0034】
図1、図2及び図3に示すように、操作コマンド送受信装置9は、情報統合認識装置3で決定された操作対象機器6に操作コマンドを送信し、操作対象機器6でこれを受信して、操作対象機器6を操作する。同時に操作コマンド送受信装置9は操作対象機器6から必要情報を受信する。操作コマンドの送受信方法としては、指向性を持たない微弱電波による通信方法であるブルートゥース(Bluetooth)やエコネット(ECHONET)などを用いる。
【0035】
図1と図2は室内におけるこのインタフェース装置の実施形態であるが、本発明はこの実施形態に限定されるものではなく、例えば室内空間を工場や公共の空間などに置き換えて、指示動作を利用するあらゆる場面にも適用できる。
【0036】
図4は本発明の一実施形態の動作を説明するためのフローチャートであり、図3を部分的に詳細化したものである。
【0037】
図1の室内空間5に出入りする全てのユーザ4−1から4−nはステレオカメラ1−1から1−nによって撮影され、この撮像出力は画像処理装置2に与えられる。すなわちこの室内空間5に出入りする人は、図4の流れに従って、この室内に入ってから出るまでの全てを撮影され、その行動が監視される。
【0038】
画像処理装置2は、各カメラ単位でその視野内のカラー画像と室内の座標系に基づいた距離情報を生成して情報統合認識装置3に与える。各ステレオカメラ1−1から1−n間の共通する座標系X、Y、Z(図1,図2)は予め設定しておく。
【0039】
こうして、各ステレオカメラ1−1から1−nにより、室内空間5の3次元距離情報が獲得される(ステップS41)。
【0040】
このステップS41おいて各ステレオカメラ1−1から1−nにより得られた3次元距離情報(X、Y、Z)は、全体として扱うのではなく、室内座標系に基づいて、図5に示すように、20cmごとに階層的に区切って3次元距離の点列を切り出して使う。境界面において失ってしまう情報をなくすために、切り出しを10cmずらして再度行うことによって情報を失わず連続的に3次元距離の点列を切り出す(ステップS42)。
【0041】
次に、図6に示すように、各引き出し(図5における0〜15)内に入った点列を2次元平面に投影した後、二値化する。これにより、各引き出し内の情報は2次元の二値画像となる。そしてこの各階層単位でラベリングを行った後で(図6では2人のユーザをA、Bとラベリング)、各クラスタの全体重心(図6におけるTotal中の☆)を求める(ステップ43)。このように、最初にラベリングすることで複数人物に対応する。
【0042】
次いで、図7に示すように、2次元平面において求めた重心をラベリングされた対象単位で再び階層的に積み上げ、3次元点列として利用する(ステップS44)。
【0043】
さらに、図8(a)に示すようにZ軸(高さ方向)に沿って各階層ごとの重心をプロットして、最上部(頭部)より8階層分(上半身に相当)までをXY平面上にプロットし、大きな外れ値があった場合を腕指し動作が起こったときとする。このとき同時に体の向きを計測するため、図8(b)に示すように、最上部より8階層分〔図8(b)では6階層分のみ記載〕までの二値画像の画像モーメントを計算する。画像モーメントとは、図9に示すような2値画像と等価の矩形のことを指し、画素を(x,y)、画素の値をI(x,y)とすると、式(1)によって、その矩形の重心(x,y)、傾きθ、長辺L、短辺Lが求められる。
【0044】
【数1】
Figure 2004246856
【0045】
そこで得られた8組のデータのうち面積が一定の範囲にあり、かつ長辺Lと短辺Lの差が最も大きい階層の、長辺Lの垂直方向を体の向きとする(ステップS45)。
【0046】
腕指し動作が認識された場合(ステップS46におけるYESの場合)は、最も全体重心からプレート重心が離れた階層の二値画像〔図8(c)〕を用いてその腕指しの方向を決定する。具体的には、後述するが、全体重心と腕指し相当階層の重心との間に垂直二等分線をひき、人の体に相当する領域にある二値画像を消し去り〔図8(d)〕、腕部分の画像のみを残す。そして、その腕部分のみの二値画像に対して画像モーメントを計算し、その長辺L、短辺L、重心(x,y)、傾きθを計算し、そのXY平面上での向きを決定する。
【0047】
高さ方向を示すZ方向は、3次元距離情報から得られる腕の角度αは水平面に射影されたものであり、垂直方向の情報は含まれていない。そこで、腕の垂直方向の角度αを、身長h,目の高さheye ,腕の高さharm ,腕長係数lより式(2)を用いて求める。
【0048】
【数2】
Figure 2004246856
【0049】
ここで方向の基点を肩の付け根の高さではなく目の高さheye とした。これは図10に示すように、実際の観察の結果、人が何かに向かって腕指しをする場合、腕そのものの方向104で対象物を指すのではなく、目と指先を結んだ線の方向で指し示すことがより多く観察されたからである。目の高さheye 102は得られた頭の高さ(身長h)103から10cmを減じた値とした。腕長係数lとして日本人成人の平均である0.4を利用した。なお、図10において、101は肩の高さ、105は腕指しの方向を示している。
【0050】
そして、腕指し水平方向も目の位置と腕先の位置関係に基づいた上で求める。図11に示すように、人の平均重心111位置(x,y)をg、腕重心112位置(x,y)をc、腕先端113位置(x,y)をp、腕水平方向115をα、図8(d)で得られた画像モーメント(腕本体)114の長辺をLとする。このとき、腕指し水平方向α115は式(3)に基づき求められる。
【0051】
【数3】
Figure 2004246856
【0052】
なお、図11において、116は腕指しの方向を示している。
【0053】
この方法により、腕指しの3次元方向が確定され、指示動作が認識される(ステップS47)。腕指しの方向を決定する手法については、左右の腕に対して別モデルを用意するのではなく、共通に使えるアルゴリズムとする。
【0054】
腕指し認識においては、意図した腕指しを正確に認識すること以上に、利用者が腕指しを意図していない腕指し(疑似腕指し)の誤認識を抑制することが重要になる。
【0055】
その手法として次の3つを設定する。
【0056】
a.腕指し判定を行う高さの制限
b.画像モーメントの大きさによる判定
c.人物の動作の履歴からの判定
ここでは利用者が腕指しを意図していない(疑似腕指し)にも関わらずシステムが腕指しであると判定し易い主な状況を例に、その対応手法について述べる。
【0057】
(i)脚を投げ出した場合(疑似腕指し)
図12は脚を投げ出した場合の模式図であり、121は椅子、122は前方に投げ出された脚、123は腕指し認識下限、124は頭の高さ、125は座高を示している。
【0058】
図12に示すように、椅子121に座っていて前方に脚122を投げ出したとき、その投げ出された脚122の3次元点列が腕指し時のものと似たものになり、システムによる腕指し検出が行われることが考えられる。これを防ぐために人体形状による拘束を利用する。立位、座位に関わらず、腕指し時の腕部が腰の高さよりも高く位置することは明らかである。そこで頭の高さhhead124及び座高125に相当する高さhsit から腕指し判定の下限hmin 123を下記式(4)によって求め、それ以下の高さでの腕指し検出を無視する。
【0059】
【数4】
Figure 2004246856
【0060】
(ii)小さな腕指しの場合(疑似腕指し)
図13は小さな腕指しの場合の模式図であり、図13(a)はその上面図、図13(b)はその正面図である。ここで、131は小さな腕指し、132は画像モーメント、133は画像モーメント132の長辺L、134は長辺Lの下限である。
【0061】
図13に示すような小さな腕指し131の場合は、画像モーメント132の長辺Lと身長との比が一定に達していない場合は腕指しでないと判定する。
【0062】
また、図14に示すように、平均重心141から腕指し先端144までの距離をr1、平均重心141から腕指し末端142までの距離をr2とする。このときのr1/r2が身長から設定された値以下である場合は同様に腕指しでないと判定する。なお、143は腕重心を示している。
【0063】
(iii)両腕を広げた場合(疑似腕指し)
図15は両腕を広げた場合の模式図(その1)であり、図15(a)はその斜視図、図15(b)はその上面図である。ここで、151は広げた両腕、152は両腕を拡げた場合の画像モーメントを示している。
【0064】
図15に示すように両腕を拡げた場合は、両腕を広げた部分の画像モーメント152の長辺L、短辺Lより面積Sを下記式(5)から求め、面積Sに上限を、また、長辺Lに下限を設定し、その面積Sが上限を越えた場合、または長辺Lが下限を下回った場合は、腕指しではないとして無視する。
【0065】
【数5】
Figure 2004246856
【0066】
図16は両腕を広げた場合の模式図(その2)であり、161は平均重心、162は腕指し末端、163は腕指し先端、164はその画像モーメントを示している。
【0067】
図16に示すように、画像モーメント164より、腕指し先端163から平均重心161の距離r3と腕指し末端162から平均重心161の距離r4の比が設定された値以上である疑似腕指しの場合、小さな腕指し同様に腕指しでないと判定する。
【0068】
(iv)握手など相手が側にいた場合(疑似腕指し)
図17は握手など相手が側にいた場合の模式図であり、図17(a)はその上面図、図17(b)はその斜視図であり、171は握手相手の小さな腕指し、172は腕指しの方向、173は腕指し先端、174は握手相手の平均重心である。
【0069】
図17に示すように、握手をしているなど、すぐ側に相手がいる場合は、腕指し先端173を中心に所定半径r内に相手の平均重心174を発見した場合、腕指しでないと判定する。
【0070】
(v)深いお辞儀をした場合(疑似腕指し)
上記式(5)の面積Sの上限設定を利用して腕でないと判定するとともに、腕指し動作検出時の頭の高さの変化から頭を下げたことを判定する。
【0071】
さらに利用者の意図しない誤操作を避けるために、操作前に予備動作(トリガ動作)を設定する。トリガ動作は操作対象に対し一定時間腕を差し伸べる動作とし、この動作によって操作対象を決定してから、以降の腕指しジェスチャを利用してこの操作対象の制御を行う。腕指し対象を決定するとき、トリガ動作中の時間を利用して腕指しの方向の判定を行うことで精度向上を図る。ただし腕が操作対象を指す前に判定が行われると精度損失を招く。よってこれを考慮し、腕指し検出から数フレームの間は判定を行わない。その後、腕指しが継続している間、毎フレームごとに腕重心と腕方向から腕指し先を特定して腕指し先の対象物の判定を行う。上記に適合し、設定した閾値sに達したものを操作対象とする。この閾値sはトリガとして認めるまでの時間T、腕指し移行時間Ttrans 、システムのフレームレートfおよび実際のシステムのターンアラウンドタイムTtat から下記式(6)によって求める。
【0072】
【数6】
Figure 2004246856
【0073】
本発明では、室内空間5のうちの予め特定されたエリア内でユーザ4が腕指し動作を行うことにより、その特定エリア用の腕指し認識を行い、特定の機器操作を行うことができる。例えば、介護ベッドの位置の頭部サイドを特定エリアとし、そこでの動作を室内空間の他のエリアでの動作と区別することができる。
【0074】
図18はそのような動作の区別を説明するためのフローチャートである。
【0075】
まず、室内空間5のうち特定エリアを予め登録しておく(ステップS91)。そして、ユーザ4がその特定エリア内にいるかどうかをチェックする(ステップS92)。図5〜図8で示した手順で、再3次元化されたユーザ4の一連の時系列情報から、そのユーザ4が予め特定されたエリア内にいる場合(ステップS92におけるYESの場合)は、その特定エリア用の腕指し認識をステップS97において行う。また、特定エリア外にいる場合(ステップS92におけるNOの場合)は、そのスライスの高さ方向の情報を判断(判定)して、ユーザ4が立位かもしくは座位であるかをチェックする(ステップS93)。立位・座位の場合(ステップS93におけるYESの場合)は、ステップS96において立位・座位の一般的な腕指し認識を行う。立位でも座位でもない場合(ステップS93におけるNOの場合)は、ステップS94で伏位かどうか判定する。距離画像の連なりからステップS94で伏位と判定された場合(ステップS94におけるYESの場合)は、ステップS95において、伏位の腕指し認識を行う。ここでのステップS95〜97は腕指し認識部32に相当する。特定エリア外で、かつ姿勢が、立位・座位、伏位どちらとも判定されない場合(ステップS94におけるNOの場合)は、ステップS93に戻り姿勢認識を継続する。
【0076】
図19は伏位での腕指し認識部32の動作の一部を詳細化したフローチャートである。
【0077】
ステップS101において、頭部の位置の時系列情報から、ユーザ4の姿勢が伏位になったときに、その頭部位置情報を取得する。そして、その頭部位置情報を基準点として、ステップS102において、手が出せる範囲のプレートを切り出し、その各プレートの重心位置を取得する。その後、ステップS103において、基準点と各プレート重心の距離を測定し、基準点からの最遠点を手先位置と仮定する。ステップS104において、その手先位置とそのプレートの高さから腕の位置を算出し、基準点から手先位置までの距離が長い場合は腕指しがあり、短い場合は腕指しがないと判断(判定)する(ステップS105)。その後ステップS105で、腕指しがある場合(YES)のみ指示動作認識を行う(ステップS106)。
【0078】
図20は特定エリアでの腕指し認識部32の動作の一部を詳細化したフローチャートである。ここでの対象は、介護ベッド(リクライニングベッド)とし、ベッド上において、一般的な姿勢での座位や伏位時に、リクライニング機能の使用の有無の影響を受けずに、腕指し認識を可能にする。
【0079】
特定エリアを介護ベッドの位置とする場合は、ステップS1101で予めその室内空間5におけるベッド位置や、ベッドの大きさ、高さ、折れ線位置を操作機器データベース34に登録しておく。次に、ステップS1102で、ベッド底辺のスライス画像から、ベッドの起き上げ角度を計算する。ベッドの起き上げ角度は、図21に示すように、ベッドの底辺の画像を見ることで、ベッドの大きさとその稼動部分(写真では白っぽく表示される部分)の大きさから求めることが出来る。
【0080】
次に、ステップS1103において、ステップS1102で得られた起き上げ角度から判断(判定)して、角度が小さい場合は、伏位の腕指し認識をステップS1104において行った後、ステップS1114の指示動作認識を行う。
【0081】
起き上げ角度が大きい場合は、介護ベッド特有の腕指し認識を継続する。まず、ステップS1105において、背もたれ部分を除いたベッド面上の距離画像全体から、ユーザ4の仮重心を取得する。次に、ステップS1106において、ユーザ4の仮重心が、図21に示すようなベッド折り曲げ位置より頭部サイドにある場合は、ベッドによりかかっている(ステップS1107)と判定する。
【0082】
一方、逆に仮重心が脚部サイドに近い場合はベッドの背もたれから離れている(ステップS1108)と判定し、ステップS1113で、普通に座っている場合と同様に、立位・座位での腕指し認識を行う。
【0083】
背もたれに寄りかかっている場合(ステップS1107)は、ステップS1109において、ユーザ4の仮重心周りの背もたれ部分を除いた一定領域を切り出し、その各プレート単位での重心とそれらの平均重心を求める。そして、ステップS1110において、各プレート重心と平均重心との距離が最も離れているプレートを決定する。ステップS1111において、その平均重心と最遠点との距離が大きい場合は、腕指しが行われていると判定し、ステップS1112において、そのプレートから腕指しの3次元方向を特定する。ステップS1111において、平均重心と最遠点との距離が小さい場合は腕指しが行われていないと判定し、ステップS1105に戻り介護ベッドでの腕指し判定を継続する。
【0084】
次に、図23に指示動作の3つの基本様式を示した。位置姿勢認識、腕指し認識によって、腕指しをしている状態が正確に把握できている場合は、図23に示す指示動作者41が一定時間操作対象機器6に腕指しを続けると、その腕指しの先にある操作対象機器6にターゲットロックされる。ターゲットロック後の指示動作は十字操作〔図23(a)〕、パネルタッチ操作〔図23(b)〕、パネルジェスチャ操作〔図23(c)〕の3手法を提供する。
【0085】
図24には十字操作のフローチャートを示した。図24のステップS151において、指示動作者41がターゲットロックを行った際の腕の3次元方向を取得し、それを十字操作の原点とする。続けて、ターゲットロック後も腕指し動作が続いているかをステップS152で判断(判定)した後、腕指しが継続している場合(YES)は、ステップS153で腕指し3次元方向を取得し、その腕指しの方向が十字の指示動作範囲内にあるかどうかをステップS154で判断(判定)し、範囲内にある場合(YES)は、ステップS155において、その方向に対応するコマンドを連続して送信する。ステップS152において、一定時間腕指しがなかった場合(NO)は、腕指し判定を終了する。この十字動作は特にスイッチのオン・オフ、ボリュームやチャンネルの変更など、簡単な操作に適している。
【0086】
図25にはパネルタッチ操作のフローチャートを示した。図25のステップS161において、指示動作者41がターゲットロックを行った後の、体の方向(肩の向き)を取得し、それをパネルタッチ操作の基点とする。パネルタッチ操作では、指示を行うためのパネル(操作パネル42)が指示動作者41の前にあると仮想して行われる。図23の指示動作者41のように、ターゲットロック後の操作パネル42は、常に指示動作者41の真正面に設定される。この操作パネル42に対して、指示動作者41はその操作パネル42の一部(図23の例では9ヵ所に分割)にタッチすることで、操作対象機器6を制御する。
【0087】
次に、ターゲットロック後も腕指し動作が続いているかをステップS162で判断(判定)した後、腕指しが継続している場合(YES)は、肩の高さと腕指しの方向をステップS163で取得する。そして、体の正面に設定された操作パネル42の範囲内に腕指しがあるがどうかをステップS164で判断(判定)し、操作パネル42の範囲内にある場合(YES)は、どのパネルを指しているか判定し、その場所に対応するコマンドをステップS165において送信する。また、ステップS162において腕指しをしておらず(NO)、さらにステップS166において、ターゲットロックから一定時間腕指しがなかった場合(YES)は、腕指し判定を終了する。このパネルタッチ操作は、操作対象機器6のスイッチに上記のような直接触れるような操作をいくつか組み合わせることもできる。
【0088】
図26にはパネルジェスチャ操作のフローチャートを示した。図26のステップS1701において、指示動作者41がターゲットロックを行った後の、体の方向(肩の向き)を取得し、それをパネルジェスチャ操作の基点とする。パネルジェスチャ操作では、図23に示す指示動作者41のように、ターゲットロック後の操作パネル42は、常に指示動作者41の真正面に設定される。この操作パネル42に対して、指示動作者41が行うそのパネル内の範囲(図23の例では9カ所に分割)の腕指し軌跡を判別することで、操作対象機器6を制御する。つまり同じ円のような軌跡でも、その通過順序によって操作コマンドを別々に作ることができる。これらは全て操作機器登録部35によって自由に設定できる。
【0089】
具体的には、まず、ステップS1701で体の方向を取得した後、ステップS1702において、ターゲットロック後も腕指し動作が続いているかを判断(判定)する。腕指しが継続している場合(YES)は、肩の高さと腕指しの3次元方向をステップS1703で取得する。そして、その腕指しの方向が体の正面に設定された操作パネル42の範囲内にあるかどうかをステップS1704で判断(判定)し、操作パネル42の範囲内にある場合(YES)は、その腕指しされたパネルは既に指示動作者41の腕が通過済みか否かをステップS1705にて判断(判定)する。未通過の場合(NO)は、ステップS1706において、腕指し軌跡にそのパネル位置を追加する。そして、ステップS1707でその腕指し軌跡に対応する操作コマンドがあるかどうかを判定し、対応するコマンドがある場合(YES)は、その操作コマンドをステップS1708において送信する。ステップS1702において、腕指しがされていない場合(NO)は、腕指し軌跡の初期化を行い、ステップS1710でターゲットロックから一定時間腕指しなしで経過したかを判断(判定)してYESの場合は腕指し判定を終了する。このパネルジェスチャ操作は、その腕指し軌跡の順序を変えることで、様々な操作コマンドに対応させることができる。
【0090】
ここまでに示した十字操作、パネルタッチ操作、パネルジェスチャ操作は、基本的に操作対象機器6に対して、腕指しでターゲットロックを行った後、続けて、その操作対象機器6に向かって指示動作を行うことを基本としている。そこで、図1及び図2に示した表示装置8を用いることで、複雑な操作をより容易に行えることを示す実施形態を図27に示した。
【0091】
図27は、パネルタッチ操作やパネルジェスチャ操作と表示装置8との組み合わせによる指示操作実施形態を示している。第1段階として、ターゲットロックの実施形態51では、指示動作者41は操作対象機器6に対して腕指しをする意図を示している。このとき、指示動作者41は操作対象機器6に向かって腕指しを行い、表示装置8は別方向に存在する。
【0092】
次に、第2段階として、表示装置8を使った操作パネル42の利用形態52では、ターゲットロック直後に、指示動作者41の体の向きとは関係なしに、別方向にある表示装置8と指示動作者41とを結ぶ直線上に操作パネル42が設定される。これは指示動作者41がどの位置に移動しても一定時間は指示動作者41と表示装置8を結ぶ直線上に常に設定され、その操作パネル42と操作コマンドなどが表示装置8に表示される。
【0093】
第3段階として、表示装置8を使ったパネル操作実施形態53では、指示動作者41は、操作対象機器6を一切気にすることなしに、表示装置8に表示される操作パネル42や情報を見ながら実際に操作対象機器6を制御することができる。このような方法で、覚えられないコマンドや複雑な操作を行う場合でも、指示動作者41は表示装置8の助けを借りて容易に操作対象機器6を制御することが可能になる。
【0094】
さらに、このような表示装置8を使ったパネル操作実施形態53の別な実施形態として、最初からターゲットロックをしない方法もある。この方法では、操作対象機器6などをメニューとして表示装置8に表示しておき、指示動作者41は表示装置8のみに向かって室内のどの位置からでも全ての機器の制御を行う。この方法は、特に身体障害者など動き回ることが少なく、常時一方向を向いていることが多い人には便利なインタフェースとなる。
【0095】
図3の操作機器登録部35では、操作対象機器6の情報やその操作のための各種指示動作やその組み合わせなどを操作機器データベース34に登録することができる。このときの実施形態を図22のフローチャートに示した。ステップS141では、最初に対象となる操作対象機器6の種別、個別情報などを登録する。続いてステップS142では、その操作対象機器6の位置を登録する。さらにステップS143では、指示動作とそれに対応するコマンドの登録を行う。そしてステップS144では、さらに複雑な場合として、指示動作の組み合わせ、指示動作時の表示装置利用の有無などを登録し、これらの一連の動作を必要数だけ繰り返す。
【0096】
また、これら一連の操作機器登録時には、操作コマンド送受信装置9を使って、BluetoothやECHONETなどを有する情報家電などとの間で通信を行う。これは操作機器登録部35と操作コマンド送受信装置9との間で必要情報を相互に通信して、必要な情報を獲得する。
【0097】
ステップS142においては、操作機器にLEDなどのランプを取り付け、それをBluetoothやECHONETなどを経由した命令で点灯させることによって、それがステレオカメラ1の視野範囲にある場合は、その3次元位置を自動的に取得することが可能である。
【0098】
なお、本発明は上記実施形態に限定されるものではなく、本発明の趣旨に基づいて種々の変形が可能であり、これらを本発明の範囲から排除するものではない。
【0099】
【発明の効果】
以上、詳細に説明したように、本発明によれば、以下のような効果を奏することができる。
【0100】
(A)室内空間における複数のユーザの腕指しによる非接触非拘束の指示動作を実現させることができる。
【0101】
(B)上記(A)を受けて、ユーザの腕指しによる指示動作によって室内空間の操作対象機器の操作を容易にすることができる。
【0102】
(C)特定エリアの設定により、ユーザの腕指しによる目標を確実に設定することができる。
【0103】
(D)特定エリアが介護ベッドの頭部サイドである場合、特定エリアを基準にして、立位、座位、伏位などの一般的な全ての姿勢での腕指しと、その腕指しによる指示動作によって室内空間の操作対象機器の操作をアシストすることができる。
【0104】
(E)疑似腕指しを的確に検出する。つまり、一見、腕指しのように見える挙動を腕指しから確実に除外して、正確な腕指しの判定を行うことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態のシステム構成を示す図である。
【図2】本発明の一実施形態のシステム構成を示す図である。
【図3】図1及び図2に示した情報統合認識装置のブロック図である。
【図4】本発明の一実施形態の動作を説明するためのフローチャートである。
【図5】本発明に用いられる段違い引き出し法の説明図である。
【図6】本発明に用いられる姿勢認識処理方法の説明図(その1)である。
【図7】本発明に用いられる姿勢認識処理方法の説明図(その2)である。
【図8】本発明に用いられる姿勢認識処理方法の説明図(その3)である。
【図9】本発明に用いられる姿勢認識処理方法の説明図(その4)である。
【図10】本発明の一実施形態の動作を説明するための説明図〔腕指し図(その1)〕である。
【図11】本発明の一実施形態の動作を説明するための説明図〔腕指し図(その2)〕である。
【図12】本発明の一実施形態の動作を説明するための説明図(脚を投げ出した場合)である。
【図13】本発明の一実施形態の動作を説明するための説明図〔小さな腕指し(その1)の場合〕である。
【図14】本発明の一実施形態の動作を説明するための説明図〔小さな腕指し(その2)の場合〕である。
【図15】本発明の一実施形態の動作を説明するための説明図〔両腕を広げた場合(その1)〕である。
【図16】本発明の一実施形態の動作を説明するための説明図〔両腕を広げた場合(その2)〕である。
【図17】本発明の一実施形態の動作を説明するための説明図(握手など相手が側にいた場合)である。
【図18】本発明の一実施形態の動作の区別を説明するためのフローチャートである。
【図19】図18における伏位での腕指し認識部の動作の一部を詳細化したフローチャートである。
【図20】本発明における特定エリアでの腕指し認識部の動作の一部を詳細化したフローチャートである。
【図21】ベッドの起き上げ角度を計算するためのベッドの底辺の画像である。
【図22】本発明における操作機器データベースの登録を説明するためのフローチャートである。
【図23】本発明における指示動作の3つの基本様式を説明するための説明図である。
【図24】本発明における十字操作を説明するためのフローチャートである。
【図25】本発明におけるパネルタッチ操作を説明するためのフローチャートである。
【図26】本発明におけるパネルジェスチャ操作を説明するためのフローチャートである。
【図27】本発明の一実施形態の動作を説明するための説明図である。
【図28】従来の技術を示す図である。
【図29】従来の技術を示す図である。
【符号の説明】
1,1−1,1−2,…,1−n ステレオカメラ
2 画像処理装置
3 情報統合認識装置
4,4−1,4−2,…,4−n ユーザ(複数可能)
5 操作可能空間(室内空間)
6 操作対象機器
6−A エアコン
6−B テレビジョン
8 表示装置
9 操作コマンド送受信装置
31 位置姿勢認識部
32 腕指し認識部
33 指示動作認識部
34 操作機器データベース
35 操作機器登録部
41 指示動作者
42 操作パネル
51 ターゲットロック実施形態
52 表示装置を使った操作パネルの利用形態
53 表示装置を使ったパネル操作実施形態
101 肩の高さ
102 目の高さ
103,124 頭の高さ
104 腕の方向
105,116,172 腕指しの方向
111,141,161 平均重心
112,143 腕重心
113 腕先端
114,132,164 画像モーメント
115 腕水平方向
121 椅子
122 前方に投げ出された脚
123 腕指し認識下限
125 座高
131 小さな腕指し
133 画像モーメントの長辺
134 長辺の下限
142,162 腕指し末端
144,163,173 腕指し先端
151 広げた両腕
152 両腕を拡げた場合の画像モーメント
171 握手相手の小さな腕指し
174 握手相手の平均重心

Claims (17)

  1. (a)室内空間において複数のステレオカメラにより該室内を撮像し、前記各ステレオカメラ単位で視野内の撮像画像と室内の座標系に基づいた距離画像を生成する画像処理手段と、
    (b)前記各ステレオカメラからの距離情報に基づき、ユーザの位置姿勢と腕指しを抽出する位置姿勢・腕指し認識手段と、
    (c)前記ユーザの腕指しが識別された場合に、該腕が指し示している方向、その動きから、指示動作であるかどうかを認識する指示動作認識手段と、
    を具備することを特徴とするインタフェース装置。
  2. 請求項1記載のインタフェース装置において、前記指示動作認識手段の動作に基づき、予め登録された室内機器を操作するコマンドを送出し、その結果を受信する操作コマンド送受信装置を具備することを特徴とするインタフェース装置。
  3. 請求項1又は2記載のインタフェース装置において、前記位置姿勢・腕指し認識手段は、集められた3次元情報から前記距離データを室内空間座標系に沿って、段違い引き出し法により取り出し、データを2次元平面に投影することで複数のユーザの姿勢認識処理をする位置姿勢認識部と、該得られた複数のユーザの2次元投影図から腕指しの方向を識別する腕指し認識部とを有することを特徴とするインタフェース装置。
  4. 請求項1又は2記載のインタフェース装置において、前記指示動作認識手段は、前記得られた腕指しの方向の時系列データからその指示動作を認識する指示動作認識部を有し、更に、腕指し操作の対象となる操作対象機器の情報や操作方法を保存する操作機器データベースと、前記操作対象機器の基本情報、位置、操作方法を記憶する操作機器登録部とを具備することを特徴とするインタフェース装置。
  5. 請求項1記載のインタフェース装置において、前記腕指しを抽出する位置姿勢・腕指し認識手段は、各ステレオカメラから得られた3次元距離情報を、室内座標系に基づいて、20cmごとに階層的に区切って情報を切り出す段違い引き出し法により、各引き出し内に入った点列を2次元平面に投影した後、二値化して、2次元の二値画像となし、各階層単位でラベリングを行った後で各クラスタの全体重心を求め、2次元平面において求めた重心をラベリングされた対象単位で再び階層的に積み上げて、3次元点列として利用し、Z軸に沿って各階層ごとの重心をプロットして、最上部(頭部)より8階層分(上半身)までをXY平面上にプロットし、全体重心と比較して大きな外れ値があった場合を腕指し動作が行われたとするとともに、最上部より8階層分までの二値画像と等価の矩形形状である画像モーメントを求めて得られた8組のデータのうち面積が一定の範囲にあり、かつ画像モーメントの長辺と短辺の差が最も大きい階層の長辺の垂直方向を体の向きとし、前記した腕指し動作が認識された場合、最も全体重心からプレート重心が離れた階層の二値画像の重心と全体重心との間に垂直二等分線をひき、人の体に相当する領域にある二値画像を消し去り、腕部分のみを残し、その腕部分のみの二値画像に対して画像モーメントを計算し、その長辺、重心、腕先端位置、全体重心を計算することで腕指しのXY平面上での向きを決定し、身長、目の高さ、腕長係数から腕指しのZ方向の向きを決定して腕指しの方向を求め、指示動作を認識することを特徴とするインタフェース装置。
  6. 請求項5記載のインタフェース装置において、頭の高さ及び座高に相当する高さから腕指し判定の下限を設定して、該下限より下にある疑似腕指しの場合は、腕指しではないと判定することを特徴とするインタフェース装置。
  7. 請求項6記載のインタフェース装置において、前記下限より下にある疑似腕指しの場合が脚を投げ出した場合であるインタフェース装置。
  8. 請求項5記載のインタフェース装置において、前記画像モーメントの長辺の身長との比が一定に達していない場合は、腕指しでないと判定することを特徴とするインタフェース装置。
  9. 請求項5記載のインタフェース装置において、平均重心から腕指し先端までの距離をr1、前記平均重心から腕指し末端までの距離をr2とすると、r1/r2が身長から設定された値以下である場合は、腕指しでないと判定することを特徴とするインタフェース装置。
  10. 請求項8又は9記載のインタフェース装置において、該当する場合が、小さい腕指しであることを特徴とするインタフェース装置。
  11. 請求項5記載のインタフェース装置において、前記画像モーメントの長辺L、短辺Lより面積Sを求め、該面積Sに上限を、前記画像モーメントの長辺Lに下限を設定し、この限度から外れる場合は、腕指しでないと判定することを特徴とするインタフェース装置。
  12. 請求項5記載のインタフェース装置において、腕指し先端と平均重心間距離と、腕指し末端と平均重心間距離の比が設定値以上の場合は、腕指しでないと判定することを特徴とするインタフェース装置。
  13. 請求項11又は12記載のインタフェース装置において、前記限度から外れる場合は、両手を広げた場合であることを特徴とするインタフェース装置。
  14. 請求項5記載のインタフェース装置において、ユーザの腕指し先端を中心に、所定の半径内に相手の平均重心を発見した場合は、腕指しでないと判定することを特徴とするインタフェース装置。
  15. 請求項1又は2記載のインタフェース装置において、前記室内空間のうち特定エリアを予め登録しておき、その特定エリアにユーザがいる場合にそのユーザの腕指しを識別することを特徴とするインタフェース装置。
  16. 請求項15記載のインタフェース装置において、前記特定エリアを介護ベッドの頭部サイドとし、その特定エリア内にユーザがいる場合は、その特定エリア用の腕指し識別を行うことを特徴とするインタフェース装置。
  17. 請求項16記載のインタフェース装置において、前記特定エリアを介護ベッドの頭部サイドとし、その特定エリア内にユーザがいない場合は、ユーザが立位、座位又は伏位かどうか判定し、それぞれの姿勢での腕指しを識別することを特徴とするインタフェース装置。
JP2003166659A 2002-12-18 2003-06-11 インタフェース装置 Expired - Lifetime JP4035610B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003166659A JP4035610B2 (ja) 2002-12-18 2003-06-11 インタフェース装置
PCT/JP2003/016171 WO2004055726A1 (ja) 2002-12-18 2003-12-17 インタフェース装置
AU2003289395A AU2003289395A1 (en) 2002-12-18 2003-12-17 Interface system
US10/540,127 US7821531B2 (en) 2002-12-18 2003-12-17 Interface system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002366432 2002-12-18
JP2003166659A JP4035610B2 (ja) 2002-12-18 2003-06-11 インタフェース装置

Publications (2)

Publication Number Publication Date
JP2004246856A true JP2004246856A (ja) 2004-09-02
JP4035610B2 JP4035610B2 (ja) 2008-01-23

Family

ID=32599280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003166659A Expired - Lifetime JP4035610B2 (ja) 2002-12-18 2003-06-11 インタフェース装置

Country Status (4)

Country Link
US (1) US7821531B2 (ja)
JP (1) JP4035610B2 (ja)
AU (1) AU2003289395A1 (ja)
WO (1) WO2004055726A1 (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209359A (ja) * 2005-01-26 2006-08-10 Takenaka Komuten Co Ltd 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP2007274234A (ja) * 2006-03-30 2007-10-18 National Institute Of Advanced Industrial & Technology ステレオカメラを用いた白杖使用者検出システム
JP2008123186A (ja) * 2006-10-17 2008-05-29 Chuo Electronics Co Ltd 不正通過者検出装置及びこれを利用した不正通過者録画システム
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
JP2009240370A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International 動作検出装置
JP2010165223A (ja) * 2009-01-16 2010-07-29 Denso Corp 操作推定装置およびプログラム
JP2011044160A (ja) * 2005-12-12 2011-03-03 Sony Computer Entertainment Inc コンピュータプログラムとのインタフェース時に深さと方向の検出を可能とする方法およびシステム
JP2011215921A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2012008998A (ja) * 2010-06-23 2012-01-12 Ind Technol Res Inst 3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体
JP2012069114A (ja) * 2010-09-21 2012-04-05 Visteon Global Technologies Inc 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
JP2012098771A (ja) * 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
JP2012198608A (ja) * 2011-03-18 2012-10-18 Nec Personal Computers Ltd 入力装置および入力方法
JP2013105203A (ja) * 2011-11-10 2013-05-30 Canon Inc 情報処理装置、情報処理装置の制御方法、及び情報処理システム
JP2013114466A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
JP2014504394A (ja) * 2010-11-17 2014-02-20 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッド ゾーンを監視する方法及び装置
JP2015061577A (ja) * 2013-01-18 2015-04-02 株式会社東芝 動作情報処理装置
WO2015118756A1 (ja) * 2014-02-10 2015-08-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016024690A (ja) * 2014-07-22 2016-02-08 Necパーソナルコンピュータ株式会社 動作認識装置、動作認識方法、及び、プログラム
JP2016045670A (ja) * 2014-08-22 2016-04-04 株式会社国際電気通信基礎技術研究所 ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
JP2016218610A (ja) * 2015-05-18 2016-12-22 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
WO2017145787A1 (ja) * 2016-02-23 2017-08-31 ソニー株式会社 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム
US10156909B2 (en) 2015-04-17 2018-12-18 Mitsubishi Electric Corporation Gesture recognition device, gesture recognition method, and information processing device
WO2019235263A1 (ja) * 2018-06-06 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021517314A (ja) * 2018-04-13 2021-07-15 北京京東尚科信息技術有限公司Beijing Jingdong Shangke Information Technology Co., Ltd. 電子機器確定方法、システム、コンピュータシステムおよび読取り可能な記憶媒体

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4566596B2 (ja) * 2004-03-29 2010-10-20 アルパイン株式会社 操作指示装置
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
JP4712804B2 (ja) * 2005-07-29 2011-06-29 パイオニア株式会社 画像表示制御装置及び画像表示装置
DE102006053837A1 (de) * 2006-11-14 2008-05-15 Robert Bosch Gmbh Integrierter Schaltkreis
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8269834B2 (en) 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5182202B2 (ja) * 2009-04-14 2013-04-17 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8963829B2 (en) * 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
WO2011045786A2 (en) 2009-10-13 2011-04-21 Rami Parham Wearable device for generating input for computerized systems
KR101082545B1 (ko) * 2010-01-28 2011-11-10 주식회사 팬택 영상 변환 기능을 구비한 이동통신 단말기
US9880619B2 (en) 2010-02-23 2018-01-30 Muy Interactive Ltd. Virtual reality system with a finger-wearable control
EP2679013A2 (en) 2010-02-23 2014-01-01 MUV Interactive Ltd. A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US20110268365A1 (en) * 2010-04-30 2011-11-03 Acer Incorporated 3d hand posture recognition system and vision based hand posture recognition method thereof
DE102011002577A1 (de) * 2011-01-12 2012-07-12 3Vi Gmbh Fernsteuerungseinrichtung zur Steuerung einer Vorrichtung anhand eines beweglichen Objektes sowie Schnittstellen-Modul zur Kommunikation zwischen Modulen einer derartigen Fernsteuerungseinrichtung oder zwischen einem der Module und einer externen Vorrichtung
KR101789683B1 (ko) * 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
US9305229B2 (en) 2012-07-30 2016-04-05 Bruno Delean Method and system for vision based interfacing with a computer
KR20150110032A (ko) * 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
KR102209354B1 (ko) * 2014-06-20 2021-01-29 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
WO2017020954A1 (en) * 2015-08-06 2017-02-09 Arcelik Anonim Sirketi Multi-point motion sensing and user monitoring system for an image display device
US10057078B2 (en) 2015-08-21 2018-08-21 Samsung Electronics Company, Ltd. User-configurable interactive region monitoring
JP6922410B2 (ja) * 2017-05-19 2021-08-18 富士通株式会社 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法
CN109143875B (zh) * 2018-06-29 2021-06-15 广州市得腾技术服务有限责任公司 一种手势控制智能家居方法及其系统
EP4099275A4 (en) * 2020-01-29 2023-07-05 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328735A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd ハンドポインティング入力装置
JPH1031551A (ja) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp ヒューマンインターフェースシステムおよびこれを使用した高速移動物体位置検出装置
JP2000056916A (ja) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2000259337A (ja) * 1999-03-10 2000-09-22 Atr Media Integration & Communications Res Lab ポインティング装置
JP2000267800A (ja) * 1999-01-12 2000-09-29 Takenaka Komuten Co Ltd 動作認識装置
JP2001216527A (ja) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体
JP2001513244A (ja) * 1997-12-22 2001-08-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オプション選択に基づくジェスチャー方法及び装置
JP2002157079A (ja) * 2000-11-09 2002-05-31 Doko Kagi Kofun Yugenkoshi 意向識別方法
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2004258766A (ja) * 2003-02-24 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム
JP2004265222A (ja) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム
JP2004272515A (ja) * 2003-03-07 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7036094B1 (en) * 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US6611206B2 (en) * 2001-03-15 2003-08-26 Koninklijke Philips Electronics N.V. Automatic system for monitoring independent person requiring occasional assistance

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08328735A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd ハンドポインティング入力装置
JPH1031551A (ja) * 1996-07-15 1998-02-03 Mitsubishi Electric Corp ヒューマンインターフェースシステムおよびこれを使用した高速移動物体位置検出装置
JP2001513244A (ja) * 1997-12-22 2001-08-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オプション選択に基づくジェスチャー方法及び装置
JP2000056916A (ja) * 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2000267800A (ja) * 1999-01-12 2000-09-29 Takenaka Komuten Co Ltd 動作認識装置
JP2000259337A (ja) * 1999-03-10 2000-09-22 Atr Media Integration & Communications Res Lab ポインティング装置
JP2001216527A (ja) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体
JP2002157079A (ja) * 2000-11-09 2002-05-31 Doko Kagi Kofun Yugenkoshi 意向識別方法
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2004258766A (ja) * 2003-02-24 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム
JP2004265222A (ja) * 2003-03-03 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム
JP2004272515A (ja) * 2003-03-07 2004-09-30 Nippon Telegr & Teleph Corp <Ntt> インタフェース方法、装置、およびプログラム

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209359A (ja) * 2005-01-26 2006-08-10 Takenaka Komuten Co Ltd 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP4608326B2 (ja) * 2005-01-26 2011-01-12 株式会社竹中工務店 指示動作認識装置及び指示動作認識プログラム
JP2011044160A (ja) * 2005-12-12 2011-03-03 Sony Computer Entertainment Inc コンピュータプログラムとのインタフェース時に深さと方向の検出を可能とする方法およびシステム
JP2007274234A (ja) * 2006-03-30 2007-10-18 National Institute Of Advanced Industrial & Technology ステレオカメラを用いた白杖使用者検出システム
JP4691708B2 (ja) * 2006-03-30 2011-06-01 独立行政法人産業技術総合研究所 ステレオカメラを用いた白杖使用者検出システム
JP2008123186A (ja) * 2006-10-17 2008-05-29 Chuo Electronics Co Ltd 不正通過者検出装置及びこれを利用した不正通過者録画システム
JP4617286B2 (ja) * 2006-10-17 2011-01-19 中央電子株式会社 不正通過者検出装置及びこれを利用した不正通過者録画システム
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP4670803B2 (ja) * 2006-12-04 2011-04-13 株式会社デンソー 操作推定装置およびプログラム
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
JP2009240370A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International 動作検出装置
JP2010165223A (ja) * 2009-01-16 2010-07-29 Denso Corp 操作推定装置およびプログラム
JP2011215921A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2012008998A (ja) * 2010-06-23 2012-01-12 Ind Technol Res Inst 3次元の制御ポイントを認識するための方法、及び、それらを用いるコンピュータ読み取り可能な記録媒体
US8433131B2 (en) 2010-06-23 2013-04-30 Industrial Technology Research Institute Method for recognizing three-dimensional control point and computer readable medium using the same thereof
JP2012069114A (ja) * 2010-09-21 2012-04-05 Visteon Global Technologies Inc 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
JP2012098771A (ja) * 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
JP2014504394A (ja) * 2010-11-17 2014-02-20 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッド ゾーンを監視する方法及び装置
US10841539B2 (en) 2010-11-17 2020-11-17 Omron Scientific Technologies, Inc. Method and apparatus for monitoring zones
JP2012198608A (ja) * 2011-03-18 2012-10-18 Nec Personal Computers Ltd 入力装置および入力方法
JP2013105203A (ja) * 2011-11-10 2013-05-30 Canon Inc 情報処理装置、情報処理装置の制御方法、及び情報処理システム
JP2013114466A (ja) * 2011-11-29 2013-06-10 Nikon Corp 表示システム、表示方法およびプログラム
JP2015061577A (ja) * 2013-01-18 2015-04-02 株式会社東芝 動作情報処理装置
WO2015118756A1 (ja) * 2014-02-10 2015-08-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2015118756A1 (ja) * 2014-02-10 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10088910B2 (en) 2014-02-10 2018-10-02 Sony Corporation Information processing apparatus and information processing method
JP2016024690A (ja) * 2014-07-22 2016-02-08 Necパーソナルコンピュータ株式会社 動作認識装置、動作認識方法、及び、プログラム
JP2016045670A (ja) * 2014-08-22 2016-04-04 株式会社国際電気通信基礎技術研究所 ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
US10156909B2 (en) 2015-04-17 2018-12-18 Mitsubishi Electric Corporation Gesture recognition device, gesture recognition method, and information processing device
JP2016218610A (ja) * 2015-05-18 2016-12-22 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JPWO2017145787A1 (ja) * 2016-02-23 2018-12-13 ソニー株式会社 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム
CN107924239A (zh) * 2016-02-23 2018-04-17 索尼公司 遥控装置、遥控方法、遥控系统和程序
WO2017145787A1 (ja) * 2016-02-23 2017-08-31 ソニー株式会社 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム
CN107924239B (zh) * 2016-02-23 2022-03-18 索尼公司 遥控系统、遥控方法和记录介质
JP2021517314A (ja) * 2018-04-13 2021-07-15 北京京東尚科信息技術有限公司Beijing Jingdong Shangke Information Technology Co., Ltd. 電子機器確定方法、システム、コンピュータシステムおよび読取り可能な記憶媒体
US11481036B2 (en) 2018-04-13 2022-10-25 Beijing Jingdong Shangke Information Technology Co., Ltd. Method, system for determining electronic device, computer system and readable storage medium
JP7280888B2 (ja) 2018-04-13 2023-05-24 北京京東尚科信息技術有限公司 電子機器確定方法、システム、コンピュータシステムおよび読取り可能な記憶媒体
WO2019235263A1 (ja) * 2018-06-06 2019-12-12 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN112204505A (zh) * 2018-06-06 2021-01-08 索尼公司 信息处理装置、信息处理方法和程序
JPWO2019235263A1 (ja) * 2018-06-06 2021-07-08 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
US11570017B2 (en) 2018-06-06 2023-01-31 Sony Corporation Batch information processing apparatus, batch information processing method, and program
JP7306386B2 (ja) 2018-06-06 2023-07-11 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
AU2003289395A1 (en) 2004-07-09
JP4035610B2 (ja) 2008-01-23
US20060168523A1 (en) 2006-07-27
US7821531B2 (en) 2010-10-26
WO2004055726A1 (ja) 2004-07-01

Similar Documents

Publication Publication Date Title
JP4035610B2 (ja) インタフェース装置
JP6334925B2 (ja) 動作情報処理装置及び方法
Kepski et al. Fall detection using ceiling-mounted 3d depth camera
CN106859675B (zh) 用3d相机进行的用于x射线管的扫描仪自动化的方法和系统
US11016569B2 (en) Wearable device and method for providing feedback of wearable device
CN109799900B (zh) 手腕可安装计算通信和控制设备及其执行的方法
JP6814220B2 (ja) モビリティ及びモビリティシステム
JP3749369B2 (ja) ハンドポインティング装置
US7680295B2 (en) Hand-gesture based interface apparatus
US20160065909A1 (en) Video monitoring system
US20110118877A1 (en) Robot system and method and computer-readable medium controlling the same
CN110666791B (zh) 一种基于深度学习的rgbd机器人看护系统及方法
Yamamoto et al. Arm-pointing gesture interface using surrounded stereo cameras system
WO2013149586A1 (zh) 一种腕上手势操控系统和方法
CN109558004B (zh) 一种人体辅助机器人的控制方法及装置
TWI652039B (zh) Simple detection method and system for sarcopenia
TW201724022A (zh) 對象辨識系統,對象辨識方法及電腦記憶媒體
JP2017012691A (ja) リハビリテーション支援装置、リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
JP2000056916A (ja) ハンドポインティング装置
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP2016087226A (ja) 運動補助装置、運動補助方法、プログラム
CN111515946B (zh) 一种人体辅助机器人的控制方法及装置
Cheng et al. Application exploring of ubiquitous pressure sensitive matrix as input resource for home-service robots
KR20150028623A (ko) 영상 처리 방법 및 영상 처리 장치
JP2022010581A (ja) 検知装置、検知方法、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

R150 Certificate of patent or registration of utility model

Ref document number: 4035610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term