JP2013069224A - 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム - Google Patents

動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム Download PDF

Info

Publication number
JP2013069224A
JP2013069224A JP2011208947A JP2011208947A JP2013069224A JP 2013069224 A JP2013069224 A JP 2013069224A JP 2011208947 A JP2011208947 A JP 2011208947A JP 2011208947 A JP2011208947 A JP 2011208947A JP 2013069224 A JP2013069224 A JP 2013069224A
Authority
JP
Japan
Prior art keywords
recognition
motion
movement
unit
target part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011208947A
Other languages
English (en)
Inventor
Taku Momozono
拓 桃薗
Kota Yonezawa
航太 米澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011208947A priority Critical patent/JP2013069224A/ja
Priority to US13/590,657 priority patent/US20130077831A1/en
Priority to CN2012103501652A priority patent/CN103116397A/zh
Publication of JP2013069224A publication Critical patent/JP2013069224A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

【課題】計算処理を簡略化でき、多くの計算資源を持たずに実装可能な動作認識技術、及び、この動作認識技術を利用して制御対象機器を制御する技術を提供する。
【解決手段】制御対象機器を制御する操作装置を備える。操作装置は、認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、動作認識部の認識結果に基づいて制御対象機器を制御する制御部とを備えている。
【選択図】図1

Description

本明細書で開示する技術は、動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラムに関する。より詳細には、例えば、操作者の手或いは頭等の認識対象部位(被験体)の動きを認識する技術(動作認識技術)に関する。例えば、その認識結果に基づき、制御対象機器を制御できるようにした操作装置(指示入力装置)やインタフェース装置に利用される技術である。
今日、人間(例えば身体全体、頭、手、指先等)の動作を認識して、その認識結果をテレビやオーディオ機器やコンピュータ等の電子機器(制御対象機器)の操作に利用する技術(ジェスチャ認識を利用した操作技術)が提案されている。
例えば、ディスプレイに内蔵されたCCDカメラによって撮影した操作者を含む画像から、操作者の手の形状や動きを認識し、これに基づき画面に表示されている指示アイコンの形状や位置を変化させるといった表示制御を行なうことにより、ハンドジェスチャによる指示を可能にしたインタフェース装置が考えられている。しかしながらこの場合、操作者は指示に用いるハンドジェスチャを覚える必要があり、ジェスチャによる指示を行なう上で負担となる。
これに対して、特開2008−52590号公報には、操作者の行なうハンドジェスチャを認識し、これに基づき制御対象機器の制御を行なうときに、操作者がより確実に操作できるインタフェース装置が提案されている。当該公報に開示の技術では、操作者の手を含む画像を取り込み、入力画像から認識対象として1種類以上の手形状又は手の動きをジェスチャ認識部で認識し、認識した手形状又は手の動きに対応した指示情報に基いて制御対象機器を制御するとともに、ジェスチャ認識部が認識可能な手形状又は手の動きの模範的な画像をジェスチャ情報表示部により表示する。例えば、ジェスチャ情報表示部は、操作に用いるジェスチャの一覧、ジェスチャ認識部の認識結果、操作者の手と思われる部分の画像を表示し、操作者はジェスチャを覚えることなく画面を確認しながら操作を行なえるようになる。ジェスチャ認識部に認識させ易いように操作者が行なうジェスチャを修正することが可能となり、操作性が向上する。この技術によれば、操作者はインタフェース装置の操作に用いる手形状や手の動きを覚えることなく操作を行なうことができる。
一方、特開平10−113343号公報には、人間や動物或いは機械等の移動体について、その移動体の動作や行動を自動認識する認識装置が提案されている。当該公報に開示の技術では、被験体に取り付けられ、被験体の動作又は行動に伴う状態変化を計測手段により観測し、この観測結果における特徴量を特徴量抽出手段により抽出する。更には、認識装置により認識すべき動作又は行動についての特徴量を予め記憶手段に記憶しておき、観測結果から抽出した特徴量と記憶手段に記憶してある特徴量とに基づいて、被験体の動作又は行動を認識し、その認識結果を出力する。例えば、被験者の動作や行動に伴う状態変化を計測する測定器を取り付け、現在被験者が行なっている動作或いは行動の特徴量を特徴量抽出部により計測信号から抽出し、動作或いは行動を認識するための信号処理装置で、前もって記憶している動作或いは行動の特徴量データベースに含まれている参照データと抽出した特徴量との相関をとり、最も相関の高い特徴量の意味する動作或いは行動を認識結果として出力する。この技術によれば、被験者或いは被験物体の状態変化を測定しその測定結果を単なる測定値として利用するのではなく状態変化の測定値の特徴量を用いて認識処理を自動的に行なうため、被験者の動作或いは行動をより正しく認識することができる。
特開2008−52590号公報 特開平10−113343号公報
操作者の行なう動作(例えばハンドジェスチャ)を認識するには、特開2008−52590号公報や特開平10−113343号公報に記載の技術をはじめとして、認識対象部位(例えば手)の形状を認識しての手法が考えられるが、認識対象部位によっては形状が複雑な場合もあり(例えば手の場合)、その認識は難しい。又、特開平10−113343号公報に記載の技術では、学習による方法をとっているが、この場合、高速なCPUや大量のメモリ等、多くの計算資源が必要となる。例えば、手のように形の変わる物体の認識は難しく、大量の学習データが必要であり、時間のかかる複雑な学習過程も必要となる。又、学習結果のデータのためのメモリを必要とするため、メモリが増大する。
従って、本開示の目的は、計算処理を簡略化でき、多くの計算資源を持たずに実装可能な動作認識技術、及び、この動作認識技術を利用して制御対象機器を制御する技術を提供することを目的とする。
本開示の第1の態様に係る動作認識装置は、認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部を備えている。本開示の第1の態様に係る動作認識装置の従属項に記載された各動作認識装置は、本開示の第1の態様に係る動作認識装置のさらなる有利な具体例を規定する。
本開示の第2の態様に係る動作認識方法は、認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識し、この認識結果を制御対象機器の制御に使用する。
本開示の第3の態様に係る操作装置は、認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、動作認識部の認識結果に基づいて制御対象機器を制御する制御部とを備えている。
本開示の第4の態様に係る電子機器は、機器の機能に対応する処理を行なう処理部と、認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、動作認識部の認識結果に基づいて処理部を制御する制御部とを備えている。
本開示に係る技術は、電子計算機(コンピュータ)を用いてソフトウェアで実現することもでき、このためのプログラムやこのプログラムを格納した記録媒体を発明として抽出することも可能である。例えば、本開示の第5の態様に係るプログラムは、認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、動作認識部の認識結果に基づいて制御対象機器を制御する制御部としてコンピュータを機能させる。プログラムは、コンピュータ読取り可能な記憶媒体に格納されて提供されてもよいし、有線或いは無線による通信手段を介した配信により提供されてもよい。
本開示の第2の態様に係る動作認識方法、本開示の第3の態様に係る操作装置、本開示の第4の態様に係る電子機器、本開示の第5の態様に係るプログラムのそれぞれにおいては、本開示の第1の態様に係る動作認識装置に適用される各種の技術・手法が同様に適用可能であり、それが適用された構成は、それぞれのさらなる有利な具体例を規定する。
要するに、本明細書で開示する技術では、認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識し、その認識結果に基づいて制御対象機器や制御対象の処理部を制御する。認識対象部位が、ある位置から他の位置へ移動した後に、再度元の位置に戻ると、所定の振り動作があったと認識する。このような所定の振り動作があったことの認識においては、認識対象部位の大まかな移動の状況を認識すればよく、計算処理が煩雑な形状認識や多くの計算資源が必要な学習による方法をとらなくてもよく、比較的簡単に振り動作の有無を認識することができる。
本開示の第1の態様に係る動作認識装置、本開示の第2の態様に係る動作認識方法、本開示の第3の態様に係る操作装置、本開示の第4の態様に係る電子機器、本開示の第5の態様に係るプログラムによれば、計算処理を簡略化でき、又、多くの計算資源を持たずに実装可能な動作認識技術を実現できるし、この動作認識技術を利用して制御対象機器を制御する技術も実現することができる。
図1(A)〜図1(B)は、実施例1を説明する図である。 図2は、フリップジェスチャの一例を説明する図である。 図3は、方向を認識するために使用する領域例を説明する図である。 図4は、動作認識装置において、方向を認識する際の状態遷移図である。 図5は、動作認識部の処理手順を説明するフローチャートである。 図6(A)〜図6(B)は、実施例1の操作制御部が行なう制御の一例を説明する図である。 図7(A)〜図7(C)は、メニュー操作の確定指示、戻り指示、終了指示を、フリップ動作で特定する手法の一例を説明する図である。 図8(A)〜図8(B)は、実施例2を説明する図である。 図9(A)〜図9(C)は、実施例2のメニュー操作の確定指示、戻り指示、終了指示を、フリップ動作で特定する手法の一例を説明する図である。 図10(A)〜図10(B)は、実施例3を説明する図である。 図11(A)〜図11(B)は、実施例4を説明する図である。
以下、図面を参照して、本明細書で開示する技術の実施形態について詳細に説明する。各機能要素について形態別に区別する際にはアルファベットの参照子を付して記載し、特に区別しないで説明する際にはこの参照子を割愛して記載する。図面においても同様である。
説明は以下の順序で行なう。
1.全体概要
2.具体的な適用例
実施例1:認識対象部位の2次元の動きを認識する形態
実施例2:認識対象部位の3次元の動きを認識する形態
実施例3:ネットワークを利用して複数の電子機器を制御する形態
実施例4:学習リモコンを利用して複数の電子機器を制御する形態
<全体概要>
先ず、基本的な事項について以下に説明する。本明細書で開示する動作認識装置、動作認識方法、操作装置、電子機器、プログラムにおいては、動作認識部は、認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する。制御部は、この動作認識部の認識結果に基づいて制御対象機器や制御対象の処理部を制御する。
例えば、認識対象部位が手の場合であれば、例えば、手の中心(重心)座標という比較的簡単に取得できる情報のみで、認識対象部位である手の移動状況(手振り)を認識することができる。手の形状から、操作者が指示する方向のみを認識するというものではなく、手の振りの動作を認識することで、操作者の指示する方向にNステップだけ移動するといった操作に利用することができる。このような技術は、例えば、GUI(Graphical User Interface)のメニューの選択操作に有用である。
例えば、動作認識部は、認識対象部位が、原点判定領域から、一の判定領域へ移動し、他の判定領域を経由することなく原点判定領域に戻ったことを認識すると、原点判定領域に対する一の判定領域の存在する方向を示す振り動作があったと認識する。より具体的には、動作認識部は、原点判定領域を基準に、閾値を超えた距離の複数の方向に判定領域を定め、認識対象部位が、原点判定領域から、一の判定領域へ移動し、他の判定領域を経由することなく原点判定領域に戻ったことを認識すると、方向を示す振り動作があったと認識する。このようにして、方向を示す1フリップ操作の有無を認識する。
或いは、方向を示す1フリップ操作以外(例えば、確定、戻り、終了等の操作)の認識に当たっては、例えば、動作認識部は、認識対象部位が、複数の判定領域に順に移動したことを認識すると、方向を示す振り動作とは異なる動作であって、その移動順に対応して予め定められている振り動作があったと認識する。
方向を示す1フリップ操作の有無、方向を示す1フリップ操作以外の操作の有無の何れも、認識対象部位の注目点(例えば、中心座標)という比較的簡単に取得できる情報のみで、認識対象部位の移動の状況を認識することができ、その認識結果により、所定の振り動作の有無を認識することができる。制御部は、動作認識部が認識した振り動作に対応して予め定められている動作を制御対象機器に指示する。
因みに、認識対象部位は、必ずしも予め想定されている順に移動するとは限らない。その場合の対処として、例えば、動作認識部は、認識対象部位が、原点判定領域から、一の判定領域へ移動した後に原点判定領域に戻る前に、想定外の領域へ移動したときには、領域移動無効状態と判断するとよい。更には、動作認識部は、領域移動無効状態と判断した後に、認識対象部位が原点判定領域に戻ったことを認識すると、領域移動無効状態を解除するとよい。
又、認識対象部位の移動の状況は、必ずしも同じ原点判定領域を基準に動作を開始するとも限らない。その場合の対処として、例えば、動作認識部は、認識対象部位が、原点判定領域から他の領域へ移動した後に、他の領域に認識対象部位が一定時間以上留まっていることを認識すると、他の領域を原点判定領域に再設定するとよい。
認識対象部位が移動する際には、各領域の境界でぶれることも起こりえ、このぶれを忠実に認識してしまうと、認識対象部位が予め想定されている順に移動したとは認識できない。その対処としては、各判定領域の間には、何れにも認識されない緩衝領域を配置するとよい。
認識対象部位を認識する際の基本技術(センシング手段)としては、様々なものが利用できる。認識対象部位(例えば、操作者の手)の動きを、各種センサ(速度・加速度センサ、屈曲角センサ等)を用いて検出すればよい。その他にも、例えば、超音波、圧力センサアレイ、マイクロフォン(音声認識)、人感センサ(焦電センサ)等の各種のセンサを使用する技術がある。又、距離画像センサやサーモグラフィを使用することもできるし、画像センシング技術を利用することもできる。画像センシング技術にあっては、認識し易いようにマーカを併用してもよい。但し、何れの場合も、認識対象部位の大まかな移動の状況を認識すればよく、形状分析等の詳細な計算処理は不要である。画像センシング技術の適用においては、認識対象部位を撮像する撮像装置を備え、動作認識部は、認識対象部位を撮像装置により撮像した画像に基づいて、認識対象部位の移動の認識処理を行なう。
又、画像センシング技術の適用においては、認識対象部位の2次元状の移動を認識することに限らず、ステレオ視した画像を使用することにより、認識対象部位の3次元状の移動を認識することもできる。即ち、動作認識部は、認識対象部位をステレオ視した画像に基づいて、認識対象部位の3次元状の移動の認識処理を行なう。ステレオ視した画像の取得に当たっては、複数の単眼カメラを使用してもよいし、複眼のステレオカメラを使用してもよい。但し、複数の単眼カメラを使用する場合、カメラ間の距離が離れている場合等には認識誤差が大きくなってしまうので、好ましくは、撮像装置は、ステレオ視した画像を撮像する複眼のもの(ステレオカメラ)であるとよい。
操作者が手等の移動により操作指示を行なう際に、操作者は、動作認識装置がどのように認識しているかといったことが分からないと、手等の移動による操作指示をスムーズにできないことが想定される。その対処として、本明細書で開示する動作認識装置、動作認識方法、操作装置、電子機器、プログラムにおいては、好ましくは、動作認識部の認識状態や制御部による制御対象機器の制御状態を通知する通知部を備えているとよい。
本明細書で開示する操作装置、プログラムにおいては、電子機器(制御対象機器)は1つとは限らない。即ち、制御部は、複数の制御対象機器を制御可能に構成することができる。この場合、操作装置と制御対象機器としての電子機器との間のインタフェースとしては、ネットワークやリモートコントローラと称される遠隔操作機器(リモコン、例えば赤外線リモコン)を利用することができる。リモートコントローラを使用することにより、機器を離れた場所から操作することができる。特に好ましくは、制御部は、学習型の遠隔操作機器(学習リモコン)を介して複数の制御対象機器を制御可能に構成されているとよい。学習型の遠隔操作機器は、複数の遠隔操作機器が発生する操作信号を学習(記憶)して、1つの遠隔操作機器で複数の機器を操作する装置であり、プログラマブルリモコンとも称される。尚、複数の遠隔操作機器用の信号情報を予め内部の記憶装置に記憶(プリセット)しておく形態のものでもよい。学習型の遠隔操作機器を使用することにより、1台の遠隔操作機器で、制御対象の全ての機器を操作することができる。
<具体的な適用例>
次に、本明細書で開示する動作認識装置、動作認識方法、操作装置、電子機器、プログラムの具体的な適用例について説明する。尚、以下では、認識対象部位を認識する際の基本技術(センシング手段)として、マーカを併用しない画像センシング技術を使用する場合で説明するが、センシング手段は、これに限らず、各種センサを用いてもよい。
図1は、実施例1を説明する図である。ここで、図1(A)は、実施例1の電子機器の外観例を示し、図1(B)は、実施例1の操作装置の機能ブロック図である。
実施例1は、認識対象部位の2次元の動きを画像認識して、その認識結果を電子機器(制御対象機器)の操作に利用する形態である。認識対象部位としては、一例として、手や指先等を想定する。
図1(A)に示すように、実施例1の電子機器は具体的には録画機能付きのテレビ310である。ここで、実施例1においては、テレビ310には、表示パネル312の外側のパネル枠314の上部に単眼の撮像装置320が設けられている。尚、撮像装置320は、パネル枠314の上部ではなくパネル枠314自体に組み込まれていてもよい。
図1(B)に示すように、実施例1の操作装置100Aは、撮像装置320と、動作認識装置200Aと、操作制御部110とを備えている。動作認識装置200Aと操作制御部110とは、図1(B)に示すように、テレビ310に組み込まれていてもよいし、図1(A)に示すように、テレビ310とは別の装置として提供されてもよい。図示した例では、テレビ310の機能に対応する処理を行なう処理部である制御対象機能部として、受信処理部(チャネル切替えを行なう機能部)、映像信号を処理する映像処理部、音声信号を処理する音声処理部、画像を録画し再生する録画・再生部を一例として示している。
動作認識装置200Aは、動作認識部210Aと通知部230とを備えている。形態によっては通知部230を備えない場合もある。撮像装置320は、操作者の手を含む画像を撮像し、撮像画像を動作認識部210Aに供給する。動作認識部210Aは、入力された撮像画像から、認識対象部位の動作を認識し、その認識結果を操作制御部110と通知部230とに出力する。操作制御部110は、動作認識部210Aから入力された認識結果に基づいて、制御対象機器であるテレビ310の制御内容を決定し、制御対象機器(テレビ310)を制御する。
通知部230は、操作者が操作装置100Aに指示を与える際に参照するための情報、例えば、操作装置100Aの認識状態及び/又は制御対象機器の制御状態(操作状態)を、画像や音声等で操作者に通知する。尚、表示パネル312をその表示デバイスとして利用してもよいし表示パネル312とは別の専用の表示デバイスを使用してもよい。又、画像表示と同時に(或いは画像表示なしでもよい)、後述の原点検出が行なわれた場合や動作認識時に音を鳴らしてもよい。
[動作認識部]
動作認識部210Aは、基準特定部212と、移動領域特定部214と、移動方向特定部216とを備えている。基準特定部212は、認識対象部位(手等)が原点判定領域に属するか否かを判定する。移動領域特定部214は、認識対象部位(手等)が移動判定領域に属するか否かを判定する。移動方向特定部216は、基準特定部212と移動領域特定部214の各判定結果に基づいて認識対象部位の上下左右の動作(フリップ動作、以下フリップジェスチャとも記す)の方向を判定する。ここで、動作認識部210Aの移動方向特定部216は、認識対象部位が原点判定領域から移動判定領域へ移動した後に原点判定領域に戻ったことに基づいて、移動領域特定部214が認識した移動判定領域の方向への1フリップ動作があったと認識する。
動作認識部210Aは、このようなフリップジェスチャの認識に当たり、例えば、撮像画像上の種々の位置に種々の大きさの部分領域を設定し、部分領域内の画像を切り出す。部分領域は、例えば、N種類のウィンドウサイズを用意し、そのそれぞれについて画面を走査させることによって設定する。動作認識部210Aは、入力として与えられた部分領域画像を所定のサイズに正規化し、予め記憶部に格納された教科書データを用いることにより、対象物かどうかを判定する。
尚、動作認識部210Aのこのような手法は一例に過ぎない。例えば、入力画像から生成した輪郭画像に対して模範画像との類似性を評価する方法や、入力画像における肌色領域のパターン類似性を評価する方法等を用いることもできる。因みに、肌色領域を評価する手法を採用する場合には、色情報を人間の視覚特性と一致する均等知覚色空間で表現することにより、入力画像から安定して肌色らしい領域を抽出するとよい。但し、均等知覚色空間で表現する場合、照明条件等の明るさによる影響を受ける。これに対しては、例えば、HSL空間やHSV空間等のオストワルト表色系の信号で処理するとよい。尚、H成分は色相(Hue)、S成分は彩度(Saturation)、L成分は明度(Lightness)、V成分は強度(Value)である。
操作制御部110は、動作認識部210Aによるフリップジェスチャの認識結果に基づいて制御内容を決定し、制御対象機器であるテレビ310を制御する。ここで、本実施形態においては、手の原点判定領域(原点領域)を定め、原点判定領域を基準にある閾値を超えた距離に、各方向に判定領域を定める。各方向の動作(ジェスチャ)は、原点判定領域から各方向の判定領域に移動し、再度原点判定領域に戻ってきた際に認識する。以下、この点について詳しく説明する。
[フリップジェスチャ]
図2〜図5は、実施例1の操作制御を説明する図である。ここで、図2は、フリップジェスチャの一例を説明する図である。図3は、方向を認識するために使用する領域例を説明する図である。図4は、動作認識装置において、方向を認識する際の状態遷移図である。図5は、その際の動作認識部210Aの処理手順を説明するフローチャートである。
フリップジェスチャでは、図2に示すように、ある方向に操作者が手を移動した後、元の位置に戻すという動作となる。これに着目し、本実施形態では、図3に示すように、手の重心(中心)座標が一度ある判定領域に移動した後、元の位置(原点判定領域)に戻ってきたとき、原点判定領域に対する一の判定領域の存在する方向を示す振り動作(方向を示す1フリップ操作)があったと認識するという考え方をとる。又、認識対象部位が、複数の判定領域に順に移動したことを認識すると、方向を示す振り動作とは異なる動作であって、その移動順に対応して予め定められている振り動作があったと認識するという考え方をとる。
先ず、撮像装置320からの撮像画像中に、手の領域が抽出されている状態を前提とする。ここで、本実施形態の動作認識の基本的な考え方は、手の原点(重心)を定め、手が原点判定領域から上下左右の判定領域内に移動した後、原点判定領域に再び戻ってきた際に、1フリップ入力と認識する。そのため、動作認識部210Aの動作状態としては、図4に示すように、原点検出状態マシン(基準特定部212と対応)と方向検出状態マシン(移動領域特定部214及び移動方向特定部216と対応)といった2つの状態遷移マシンが存在する。原点検出状態マシンは、常に手の位置を捕捉し、手が一定の位置に留まっているかどうかを常に監視する。方向検出状態マシンは、原点とそこからの手の移動方向を監視し、フリップジェスチャの有無と方向を検出する。
先ず、初期状態では、原点未確定の状態である(図4のT110)。操作者が撮像装置320の前に手をかざし、一定時間(例えば1秒程度)静止させると、原点検出状態マシンは、原点が確定したと判断し、原点確定状態に遷移する。同時に、方向検出状態マシンが初期化される。方向検出状態マシンの初期状態は、原点状態となる(図4のT120)。つまり、動作認識部210Aは手の原点を求める(S110)。例えば、動作認識部210Aは、手の領域の重心(中心)を求め、重心が一定期間ほぼ停止していた場合の手の重心位置を原点とする。
この際、操作者の意図しない手のブレを考慮し、ある一定の半径をもつ円領域(図3の原点判定領域)内に重心が一定期間収まっていれば原点判定領域に属すると扱う。原点判定領域と、上下左右の判定領域(上判定領域、下判定領域、左判定領域、右判定領域)との間には、何れにも認識されない緩衝領域を設けている。図示しないが、上下左右の各判定領域同士の間にも緩衝領域を設けてもよい。これにより、領域の境界付近に手が位置している場合に、操作者の意図しない手の位置のブレにより、連続でジェスチャが認識されるといった誤動作を回避することができる。例えば、動作認識部210Aは、手の属する領域を求める(S120)。そして、原点判定領域に留まっていれば手の移動はないと判断する(S122−YES)。
方向検出状態マシンは、原点とそこからの手の移動方向を監視し、フリップジェスチャの有無と方向を検出する。この際には、手が先に認識した一の判定領域から外れたことを認識した後、他の判定領域を経由することなく原点判定領域に戻ったことを認識すると、1つのフリップジェスチャがあったと認識する。例えば、動作認識部210Aは、手が原点判定領域から外れたことを認識すると(S122−NO)、手が何れかの方向に閾値以上移動し(つまり緩衝領域を超えて)、上下左右の何れの判定領域に属するようになったのかを判定する(S130)。この例では、手が右判定領域に属するようになったと判定する。尚、前述のように、手が原点判定領域から外れたことを認識した後、上下左右の何れの判定領域にも属することなく原点判定領域に戻ってきたと認識したときにはフリップジェスチャはなかったと判断する。
例えば、操作者が図3の右判定領域に手を移動させた場合、方向検出状態マシンは、右判定領域移動状態に遷移する(図4のT130)。そして、再び原点判定領域に手を移動させると、方向検出状態マシンは、原点状態に戻り、右方向のフリップジェスチャが認識される(図4のT140)、という流れになる。例えば、動作認識部210Aは、先に認識した右判定領域から外れ閾値以上移動し(つまり緩衝領域を超えて)、原点判定領域に属するようになったのかを判定する(S132)。手が「先に認識した右判定領域」から外れたことを認識した後、他の判定領域を経由することなく原点判定領域に戻ったことを認識すると、1つのフリップジェスチャ(この例では右方向への手振り動作)があったと認識する(S132−YES、S140)。尚、手が「先に認識した右判定領域」から外れたことを認識した後、原点判定領域に属することなく(S132−NO)、先に認識した右判定領域に戻ってきたと認識したときには(S134−YES)、フリップジェスチャは未だされていないと判断する。もし、右判定領域に移動させたあと、上判定領域に移動させる等の、想定外の手の動きがあった場合には、方向検出状態マシンは、領域移動無効状態に遷移する(図4のT150)。そして、再び原点判定領域に手が戻った場合、この状態は解除される(S134−NO)。
反対に、手が左方向に閾値以上移動(図3の左判定領域まで移動)し、再度原点判定領域に戻ってきた場合には左方向のフリップジェスチャが認識される。同様に、手が上方向に閾値以上移動(図3の上判定領域まで移動)し、再度原点判定領域に戻ってきた場合には、上方向のフリップジェスチャが認識され、反対に、手が下方向に閾値以上移動(図3の下判定領域まで移動)し、再度原点判定領域に戻ってきた場合には、下方向のフリップジェスチャが認識される。何れの判定においても、図3に示すように、原点判定領域と、各方向の判定領域の間にどちらにも属さない緩衝領域をおくことにより、操作者の意図しない手のブレによる誤動作を防止することができる。
動作認識部210Aは、手が全く違うところに移動してしまうようなケースにも、柔軟に対応する。例えば、原点検出状態マシンは、方向検出状態マシンと同時並行で常に動作しており、もし原点判定領域とは別の領域(判定領域でもよいし判定領域よりも更に遠くの領域でもよい)で、操作者が一定時間手を静止させると、原点(原点判定領域の中心の位置)を最新の手の重心の位置に移動させ、方向検出状態マシンを再初期化する(図4のT160)。これにより、操作者は、いつでも原点判定領域の位置を変更することができ、手が認識できる範囲の自由な位置で、フリップジェスチャを行なうことができる。
[実施例1の操作制御]
図6は、実施例1の操作制御部110が行なう制御の一例を説明する図である。図7は、メニュー操作の確定指示、戻り指示、終了指示を、フリップ動作で特定する手法の一例を説明する図である。
例えば、フローチャートでは示さないが、先ず操作者は、操作する意図を伝えるために手振り動作を行なう。動作認識装置200Aは、撮像装置320で取得される撮像画像から「手振りの検出」を行ない、操作者を発見する。尚、赤外線センサ等の測距センサを併用することで、3次元位置情報の取得を行ない、撮像装置320からの距離を算出し、撮像装置320をズームさせ、ジェスチャ認識処理を行なうための候補領域を絞るようにしてもよい。続いて、例えば手振り位置の色情報等から手領域を抽出する。手領域が抽出されると、操作制御部110は、図6に示す操作画面を表示パネル312等に表示する。
操作制御部110は、動作認識部210Aによって認識されたフリップ動作の方向に基づいて制御内容を決定し、制御対象機器(この例ではテレビ310)を制御する。図6は、表示パネル312に表示されるメニュー画面を表わしている。この画面の認識状態のエリアは、操作者に操作制御部110の内部状態を知らせるために用いられる。メニュー画面は、複数個の矩形領域231(それぞれを参照子a、b、…で区別する)によって構成されており、これらにはそれぞれテレビ310を操作するための特定のコマンドが関連付けられている。
又、図7(A)に示すように、動作認識装置200Aは、手が上下左右の各領域の内、隣接する複数(例えば3つ以上)の領域に亘って連続して比較的短時間に移動して原点判定領域に戻って来たとき、つまり大凡、円を描くように手が比較的短時間に移動したと認識できたときに、メニュー操作の確定指示があったと判断する。更には、図7(B)に示すように、動作認識装置200Aは、手が原点判定領域→上判定領域→原点判定領域→下判定領域→原点判定領域(或いは逆に原点判定領域→下判定領域→原点判定領域→上判定領域→原点判定領域)と比較的短時間に移動したとき、つまり大凡、縦方向に手が短時間で移動したと認識できたときには、戻り指示があったと判断する。更には、図7(C)に示すように、動作認識装置200Aは、手が原点判定領域→左判定領域→原点判定領域→右判定領域→原点判定領域(或いは逆に原点判定領域→右判定領域→原点判定領域→左判定領域→原点判定領域)と比較的短時間に移動したとき、つまり大凡、横方向に手が短時間で移動したと認識できたときには、終了指示があったと判断する。そして、動作認識装置200Aは、手が原点判定領域から上下左右の領域内に移動した後、原点判定領域に再び戻ってきて一定時間以上手を静止させると、1フリップ入力と認識する。こうすることで、通常の方向を示す1フリップ入力と戻り指示や終了指示とを区別することができる。尚、操作画面によっては、確定指示、戻り指示、終了指示(何れか或いは全部)を必要としない場合もある。
例えば、図6(A)において、矩形領域231eは、他の矩形領域と異なる状態(図ではハッチングで示されている)で表示されているが、これは矩形領域231eが現在選択されていることを意味する。「異なる状態」としては、例えば、ハイライト表示や他と異なる色にする等様々な形態をとることができる。
操作者は、撮像装置320に向かって図2に示すように手を上下左右に移動させることにより、操作制御部110は、メニュー画面上で選択されている矩形領域を手の動きにあわせて変更する。例えば、図6の状態において、操作者が手を原点判定領域→左判定領域→原点判定領域に移動させて、手を一定時間以上、原点判定領域で静止させると、矩形領域231eの選択状態が解除され、矩形領域231dが選択候補となり、その状態を示すように、矩形領域231dが他の矩形領域と異なる状態で表示される。但し、この状態では操作メニューは確定されていない。矩形領域231dに割り付けられている操作メニューを確定させるには、図7(A)に示したようにして、確定指示のためのフリップ動作を行なう。これにより、操作制御部110は、確定された矩形領域(この例では矩形領域231d)に関連付けられたコマンド(例えば、チャネルの切替え操作や録画予約操作の画面表示等)を実行する。
一方、操作者の操作間違いや動作認識部210Aの誤認識により矩形領域231dが選択候補となってしまったのであれば、操作者は、図7(B)に示したようにして、戻り指示のためのフリップ動作を行なう。この場合、操作制御部110は、矩形領域231dの選択状態を解除し、元の矩形領域231eを選択候補とし、その状態を示すように、矩形領域231eを他の矩形領域と異なる状態で表示させる。或いは又、フリップジェスチャによる操作指示を終了させたいのであれば、操作者は、図7(C)に示したようにして、終了指示のためのフリップ動作を行なう。この場合、操作制御部110は、図6(A)に示す操作画面を消す。
確定指示を受けて、例えば、図6(B)に示すように、チャネルの切替え操作画面に移行すると、この操作画面としては、図6(B)において、各矩形領域231がチャネル番号に割り当てられた状態である。この場合、現在視聴しているチャネルと対応する矩形領域231が他の矩形領域と異なる状態で表示される。そして、フリップジェスチャにより別の矩形領域231が選択されると、操作制御部110は、確定指示を待つことなく選択された矩形領域231に割り付けられているチャネルに切り替える。例えば、図では、現在、6チャネルが選択されているが、その左の5チャネルが選択されると直ちに5チャネルに切り替わる。この状態でよければ、操作者は、図7(B)に示したようにして戻り指示のためのフリップ動作や、図7(C)に示したようにして終了指示のためのフリップ動作を行なう。或いは、5チャネルの隣り(1、2、4、7、8の何れか)を選択したければ、引き続き、チャネル選択のためのフリップ動作を行なう。
[通知部]
ここで、操作者がフリップジェスチャにより操作指示を行なう際に、操作者は、原点検出状態かどうか、ジェスチャ認識がされたかどうか、といったことが分からないと、フリップジェスチャによる操作指示をスムーズにできないことが想定される。その対策として、本実施形態では通知部230を設けている。操作者には、原点検出状態かどうか、ジェスチャ認識がされたかどうか、といった情報を分かりやすく示すようにしている(図6の認識状態のエリアを参照)。電子機器の形態によって方法は異なってくるが、例えば、表示パネル312に原点検出状態の場合は、手を静止させるよう、例えばその旨のメッセージや輝点や手の形の点滅等の表示をし、更には、そのときに操作装置100A(の基準特定部212)が特定している手の重心位置を表示するとよい。原点検出が確定したときには、輝点や手の形の点滅を止める(常時表示にする)とよい。
又、方向検出状態の場合は、各方向のフリップジェスチャを行なったときの機器操作のアイコンを表示するとよい。例えば、テレビ310の音量を操作する場合であれば、音量アップ時には右方向に「+」、音量ダウン時には左方向に「−」のアイコンを表示する等して、操作者へのフィードバックを行なう実装が考えられる。更には、表示パネル312へのディスプレイと同時に、原点検出が行なわれた場合やフリップジェスチャ認識時に音を鳴らすといったフィードバックも考えられる。
[実施例1の効果]
以上のように、実施例1によれば、操作に用いるフリップジェスチャを認識して制御対象機器の動作を制御可能にしたので、装置の操作性を向上させることができる。従来の動作認識で必要とされた大量のサンプルデータと複雑な学習過程が不要となる。学習結果のデータのためのメモリも不要となる。フリップジェスチャの認識ができれば、接触型の端末において利用されているフリップ動作を利用したアプリケーション(インターネットブラウザ、本や新聞、写真表示等)を、非接触で行なえるようになり、操作者の利便性を向上させることができる。
非接触な操作としてのメリットとしては、以下のようなものが考えられる。例えば、テレビ等の家電機器での操作等を考えると、リモコン不要の操作を可能にすることによる操作性の向上というメリットがあるし、リモコンを探す手間を省く等のメリットもある。又、エアコンや後部座席からのカーナビの操作等、遠くに有る機器を操作したい場合、或いは、手が汚れていて直接機器に触るのが難しい場合(例えば医療機器)等の操作において、機器から離れて操作できるメリットがある。更には、ゲーム機器やデジタルサイネージ(Digital Signage、電子看板)等での、操作そのものを楽しむ、エンタテインメントでの利用も考えられ、これらの場合、コントローラを用いずに操作をすることができるので、ゲーム等の操作性の幅を広げるというメリットも得られる。
本実施形態のフリップジェスチャの認識においては、認識対象部位の大まかな移動状態を認識できればよく(前例では手の重心位置の移動を利用)、手の詳細な形状やその変化状態を認識する必要がないので、多くの高速な計算資源のない装置構成での実装で済む。
図8は、実施例2を説明する図である。ここで、図8(A)は、実施例2の電子機器の外観例を示し、図8(B)は、実施例2の操作装置の機能ブロック図である。
実施例2は、認識対象部位の3次元の動きを画像認識して、その認識結果を電子機器(制御対象機器)の操作に利用する形態である。
実施例2の電子機器も具体的には図8(A)に示すようにテレビ310である。ここで、実施例2においては、3次元の動きを画像認識するべく、テレビ310には、パネル枠上部に複眼の撮像装置(ステレオカメラ322)が設けられている点が実施例1と異なる。尚、ステレオカメラ322は撮像装置としてだけでなく、3次元の動きを画像認識で行なう測距装置としても利用するものであるが、測距装置としてはステレオカメラを使用するものに限らない。3次元の動きを画像認識で行なうのではなく、赤外線センサ等の距離測定機器を用いてもよい。
図8(B)に示すように、実施例2の操作装置100Bは、ステレオカメラ322と、動作認識装置200Bと、操作制御部110とを備えている。動作認識装置200Bと操作制御部110とは、テレビ310に組み込まれていてもよいし、図示のように、テレビ310とは別の装置として提供されてもよい。動作認識装置200Bは、動作認識部210Bと通知部230とを備えている。形態によっては通知部230を備えない場合もある。
動作認識部210Bは、移動方向特定部216が3次元のフリップジェスチャを認識する点が実施例1の動作認識部210Aと異なる。基本的な考え方は、認識対象部位の前後方向へ移動する動作をも検知可能であると云うことであって、そのフリップジェスチャ認識自体は、上下左右方向へ移動する動作を検知する場合と同じである。
一般的に、ステレオ視では、複数台のカメラ間の対応関係を取得し、2次元の画像から3次元の位置を取得することができる。そこで、例えば、単眼のカメラを複数台任意に設置し、位置認識を行なうことが考えられる。しかしながら、カメラ間の距離が離れている場合等には正確な対応関係を求めることが難しく、そのために認識誤差も大きくなる。そこで、実施例2では、単眼のカメラではなく、ステレオカメラ322を用いて、ステレオカメラ322で撮像された画像に基づいて、認識対象部位の3次元状の位置を認識する。
即ち、操作者は、操作する意図を伝えるために手振り動作を行なう。動作認識部210Bは、ステレオカメラ322の画像から「手振り」を検出すると、ステレオ計測により手振りの3次元位置を得る。この位置情報に従ってステレオカメラ322をパン・チルト・ズームさせ。ジェスチャ認識処理を行なう領域を注視する。手振り検出時にはズームは広角側としておき、部屋の広い範囲で手振りの検出を行なえるようにしておくとよい。続いて、手振り位置の色情報等から手領域の抽出を行ない、更には、フリップ動作の方向を認識する。操作制御部110は、動作認識部210Bによって認識されたフリップ動作の方向に基づいて制御内容を決定し、制御対象機器(この例ではテレビ310)を制御する。
[実施例2の操作制御]
図9は、実施例2のメニュー操作の確定指示、戻り指示、終了指示を、フリップ動作で特定する手法の一例を説明する図である。実施例2では、認識対象部位の3次元の動きを画像認識しており、前後方向への手の移動動作を、確定指示、戻り指示、終了指示に割り付ける。その他の点は実施例1と同様である。
例えば、図9(A)に示すように、動作認識装置200Bは、動作認識装置200Bは、手が身体からより遠くに離れて手前判定領域に移動した後、原点判定領域に再び戻ってきて一定時間以上手を静止させると、メニュー操作の確定指示と対応する1フリップ入力があったと判断する。更には、図9(B)に示すように、動作認識装置200Bは、手が身体方向に引かれ奥行き判定領域に移動した後、原点判定領域に再び戻ってきて一定時間以上手を静止させると、戻り指示と対応する1フリップ入力があったと判断する。更には、図9(C)に示すように、動作認識装置200Bは、手が原点判定領域→奥行き判定領域→原点判定領域→手前判定領域→原点判定領域(或いは逆に原点判定領域→手前判定領域→原点判定領域→奥行き判定領域→原点判定領域)と比較的短時間に移動したとき、つまり大凡、前後方向に手が短時間で移動したと認識できたときには、終了指示があったと判断する。こうすることで、確定指示や戻り指示と対応する1フリップ入力と終了指示とを区別することができる。
尚、この場合においても、操作者の意図しない手のブレを考慮し、ある一定の範囲(図9の原点判定領域)内に手の重心が一定期間収まっていれば原点と扱う。更に、原点判定領域と、前後領域(奥行き判定領域、手前判定領域)との間には、何れにも認識されない緩衝領域を設けるとよい。これにより、判定領域の前後方向の境界付近に手が位置している場合に、操作者の意図しない手の位置のブレにより、連続でジェスチャが認識されるといった誤動作を回避することができる。
[実施例2の効果]
確定指示を、手が手前判定領域に移動したことに基づいて特定するので、実際のリモコン操作でボタンを押す操作と概ね同じような操作となり、リモコン操作の感覚に近い状態で確定指示ができる。
[実施例2の変形例]
前述の説明では、前後方向への手の移動動作に基づいて、確定指示、戻り指示、終了指示を特定する例で説明したが、矩形領域231を3次元に展開して、3次元状に配置された各矩形領域231にコマンドを割り当ててもよい。
図10は、実施例3を説明する図である。ここで、図10(A)は、実施例3の全体構成例を示し、図10(B)は、実施例3の操作装置の機能ブロック図である。
実施例3は、複数の電子機器(制御対象機器)の動作を制御可能に構成した点に特徴がある。後述の実施例4との相違は、実施例3の操作装置100Cは、各電子機器1を有線或いは無線によるネットワークにより制御可能に構成している点にある。因みに、認識対象部位の動き認識は、実施例1のように2次元に限ったものでもよし、実施例2のように3次元に展開してもよい。以下では実施例2のように認識対象部位の3次元の動きを画像認識する場合で説明する。
実施例3の実際のアプリケーションとしては、例えば、オフィス内や家庭内の情報機器や情報家電機器(例えばパーソナルコンピュータ(以下「PC」と記す)、テレビ、DVD或いはブルーレイプレイヤ等の映像・音声機器等)の操作を実現することを想定する。
図10(A)に示すように、室内には、制御対象機器である電子機器として、テレビ310、録画再生装置330、オーディオ機器340、PC350、照明器具360が存在している。操作装置100Cと各電子機器(テレビ310、PC330、録画再生装置340、照明器具350)とはネットワーク(有線・無線の何れでもよい)で接続されている。
認識対象部位の3次元の動きを画像認識するべく、室内を監視な位置(例えば天井近傍)に、複数台のパン・チルト・ズーム機能を持つステレオカメラ322が配置されている。尚、ステレオカメラ322を撮像装置320に置き換えて、それら複数台の撮像装置320を用いてステレオ視することもできる。一般的にステレオ視では複数台の撮像装置間の対応関係を取得し、2次元の画像から3次元の位置を取得することができるので、例えば、部屋の天井に単眼の撮像装置を複数台任意に設置し、位置認識を行なう。但し、撮像装置間の距離が離れている場合等には正確な対応関係を求めることが難しく、そのために測定誤差が大きくなる。その対策としては、本実施例では、単眼の撮像装置320ではなく、複眼の撮像装置であるステレオカメラ322を複数台用いている。
[電子計算機による構成]
実施例3の操作装置100Cは、CPU、RAM、ROM等を有する電子計算機(コンピュータ)を用いて実施例2の操作装置100Bの機能をソフトウェアで実現するように構成されている。即ち、電子機器の動作を制御する手法は、ハードウェア処理回路により構成することに限らず、その機能を実現するプログラムコードに基づき電子計算機(コンピュータ)を用いてソフトウェア的に実現される。よって、本実施形態に係る技術を、電子計算機(コンピュータ)を用いてソフトウェアで実現するために好適なプログラムあるいはこのプログラムを格納したコンピュータ読取可能な記憶媒体が発明として抽出される。ソフトウェアにより実行させることで、ハードウェアの変更を伴うことなく、処理手順等が容易に変更されることとなる。
図10(B)に示すように、電子機器の操作処理に関わる制御機構を構築する操作装置100Cを成すコンピュータシステム900は、CPU(Central Processing Unit )やマイクロプロセッサ(microprocessor)で構成された中央制御部910と、読出専用の記憶部であるROM(Read Only Memory)、或いは随時読出し・書込みが可能なメモリであるRAM(Random Access Memory)等を具備する記憶部912と、操作部914と、図示を割愛したその他の周辺部材を有している。コンピュータシステム900は、モニタやスピーカと接続されており、操作者が電子機器を操作する際に参照するための情報を画像や音声等で操作者に通知可能に構成されている。
中央制御部910は、コンピュータが行なう演算と制御の機能を超小型の集積回路に集約させたCPUを代表例とする電子計算機の中枢をなすものと同様のものである。ROMには電子機器の操作処理用の制御プログラム等が格納される。操作部914は、利用者による操作を受け付けるためのユーザインタフェースである。
コンピュータシステム900の制御系としては、メモリカード等の図示を割愛した外部記録媒体を挿脱可能に構成し、インターネット等の通信網との接続が可能に構成するとよい。このためには、制御系は、中央制御部910や記憶部912の他に、可搬型の記録媒体の情報を読み込むメモリ読出部920や外部との通信インタフェース手段としての通信I/F922を備えるようにするとよい。メモリ読出部920を備えることで外部記録媒体からプログラムのインストールや更新ができる。通信I/F922を備えることで、通信網を介しプログラムのインストールや更新ができる。尚、本実施例では、通信I/F922は、操作装置100Cから各電子機器(テレビ310、PC330、録画再生装置340、照明器具350)への制御信号を送信(伝送)するためにも利用される。基本的な電子機器の操作処理の手法は実施例2と同様である。
因みに、各電子機器の動作を制御するべく、コンピュータシステム900用のプログラムとしては、例えば、各電子機器のリモコンに搭載されるものと同様のプログラムが搭載される。こうすることで、リモコンにより対象の電子機器を操作するのと同様の機能が実現可能となる。
プログラムは、コンピュータ読取り可能な記憶媒体(例えば、半導体メモリ、磁気ディスク、光ディスク等)に格納されて提供されてもよいし、有線或いは無線による通信手段を介した配信により提供されてもよい。例えば、電子機器の動作の制御処理機能をコンピュータに実行させるプログラムは、例えば可搬型の記録媒体を通じて配布・提供される。例えばプログラムは、CD−ROM(Compact Disc Read Only Memory )やFD(フレキシブルディスク)に格納されて配布・提供されてもよい。MO(Magneto Optical Disk)ドライブを設け、MOに前記プログラムを格納してもよく、フラッシュメモリ等の不揮発性の半導体メモリを利用したカード型の記憶媒体等、その他の記録媒体にプログラムを格納して配布・提供してもよい。ソフトウェアを構成するプログラムは、記録媒体を介して配布・提供されることに限らず、通信手段(有線・無線は不問)を介して配布・提供されてもよい。例えば、他のサーバ等からインターネット等のネットワークを経由してプログラムをダウンロードして取得したり、又は更新したりしてもよい。電子機器の動作の制御処理を行なう機能を実現するプログラムコードを記述したファイルとしてプログラムが提供されるが、この場合、一括のプログラムファイルとして提供されることに限らず、コンピュータで構成されるシステムのハードウェア構成に応じて、個別のプログラムモジュールとして提供されてもよい。
ここでは、電子機器の操作処理に関わる制御機構をコンピュータにてソフトウェア上で実現する構成例で説明しているが、本実施形態の電子機器の操作処理を実現するための制御機構の各部(機能ブロックを含む)の具体的手段は、ハードウェア、ソフトウェア、通信手段、これらの組み合わせ、その他の手段を用いることができ、このこと自体は当業者において自明である。また、機能ブロック同士が複合して1つの機能ブロックに集約されてもよい。また、コンピュータにプログラム処理を実行させるソフトウェアは、組合せの態様に応じて分散してインストールされる。
[操作制御]
図10(A)に示す状態において、先ず、ステレオカメラ322のズームは広角側としておく。操作者は、室内の任意の場所(モニタの近くが好ましい)で、手や指によるジェスチャにより、各種電子機器を操作する意図を伝えるために手振り動作を行なう。ステレオカメラ322がその手振りを検出すると、操作装置100C(コンピュータシステム900:以下同様)ステレオ計測により手振りの三次元位置を得る。操作装置100Cは、この位置情報に従って、ステレオカメラ322をパン・チルト・ズームさせ、ジェスチャ認識処理を行なう領域を注視する。続いて、操作者は、モニタ画面を確認しながら、操作対象の電子機器の選択や機器の操作をフリップジェスチャにより指示する。このとき、操作装置100Cは、認識したフリップ動作の方向に基づいて、操作対象の電子機器の選択や制御内容を決定し、制御対象機器(この例では選択された電子機器)を制御する。認識された結果は、モニタ上での表示とスピーカからの音声により確認することができる。
図11は、実施例4を説明する図である。ここで、図11(A)は、実施例3の全体構成例を示し、図11(B)は、実施例4の操作装置の機能ブロック図である。
実施例4は、複数の電子機器(制御対象機器)の動作を制御可能に構成した点に特徴がある。前述の実施例3との相違は、実施例4の操作装置100Dは、各電子機器1を学習リモコン(学習型赤外線リモコン)により制御可能に構成している点にある。即ち、操作装置100Dから各電子機器(テレビ310、PC330、録画再生装置340、照明器具350)への制御信号は、コンピュータシステム900に接続された学習リモコンを用いて送信する。学習リモコンを用いることで、コンピュータシステム900には、学習リモコン用のプログラムを1つ搭載(インストール)すればよくなる。これに対して、実施例3では、操作対象とする全ての電子機器の動作を制御するプログラムを個別に搭載(インストール)しなければならない。仮に、リモコンを利用するとしても、各機器のリモコン用のプログラムを搭載(インストール)しなければならない。
以上、本明細書で開示する技術について実施形態を用いて説明したが、請求項の記載内容の技術的範囲は前記実施形態に記載の範囲には限定されない。本明細書で開示する技術の要旨を逸脱しない範囲で前記実施形態に多様な変更または改良を加えることができ、そのような変更または改良を加えた形態も本明細書で開示する技術の技術的範囲に含まれる。前記の実施形態は、請求項に係る技術を限定するものではなく、実施形態の中で説明されている特徴の組合せの全てが、本明細書で開示する技術が対象とする課題の解決手段に必須であるとは限らない。前述した実施形態には種々の段階の技術が含まれており、開示される複数の構成要件における適宜の組合せにより種々の技術を抽出できる。実施形態に示される全構成要件から幾つかの構成要件が削除されても、本明細書で開示する技術が対象とする課題と対応した効果が得られる限りにおいて、この幾つかの構成要件が削除された構成も、本明細書で開示する技術として抽出され得る。
例えば、前述の説明における認識対象部位の移動認識においては、認識対象部位として手を一例に、その重心(中心)座標のみを用いて認識するものとして説明したが、当然ながら認識するのは手でなくてもよい。又、マーカを併用しない画像センシング技術を採用する場合で説明したが、マーカの付いた棒を振るような操作も、全く同じアルゴリズムでフリップ動作として認識できる。操作者が選択できる操作方法の幅を広げる、という面でも有用と考えられる。
今日、人間(例えば身体全体、頭、手、指先等)の動作を認識して、その認識結果をテレビやコンピュータ等の電子機器の操作に利用するジェスチャ認識を利用した操作技術が提案されている。ロボットを操作する際の技術としても着目されている。例えば、手を上下、左右、前後に振る、或いは、回すジェスチャをすることにより発生する運動量を画像センシング技術やセンサにより計測して、その計測情報を操作情報に利用する。例えば、ジェスチャ認識の際には、認識対象部位の動き(動的ジェスチャと記す)と認識対象部位の形(静的ジェスチャと記す)を認識する。動的ジェスチャの認識手段としては、認識対象部位の移動によって発生する変位(全体的な変位に限らず指の開閉変位等も含む)、速度、加速度等を非接触の撮像装置(カメラ)を用いて行なう画像センシング技術を利用する形態と、操作者の認識対象部位の動きを計測する速度センサ、加速度センサ、屈曲角センサ等の各種センサを用いて検出する形態、或いはこれらを併用する形態等がある。画像センシング技術では、認識対象部位の特定を容易にするべくマーカを利用する場合もある。静的ジェスチャの認識は、認識対象部位に特有の動作を認識するものであり、例えば、認識対象部位が手であるとした場合、手の開閉、指の数の増減、指の開き角の変化等により発生する手の形や指先方向を静止画として検出し、或いは又、手の傾きを重力加速度の成分として検出する等が行なわれる。こう云った様々な場面において、本明細書で提案する技術を適用することにより、認識対象部位の移動状態を認識する際の計算処理を簡略化でき、又、多くの計算資源を持たずに済むようになる。
前記実施形態の記載を踏まえれば、特許請求の範囲に記載の請求項に係る技術は一例であり、例えば、以下の技術が抽出される。以下列記する。
[付記1]
認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部を備えている動作認識装置。
[付記2]
動作認識部は、認識対象部位が、原点判定領域から、一の判定領域へ移動し、他の判定領域を経由することなく原点判定領域に戻ったことを認識すると、原点判定領域に対する一の判定領域の存在する方向を示す振り動作があったと認識する付記1に記載の動作認識装置。
[付記3]
動作認識部は、認識対象部位が、複数の判定領域に順に移動したことを認識すると、方向を示す振り動作とは異なる動作であって、その移動順に対応して予め定められている振り動作があったと認識する付記1又は付記2に記載の動作認識装置。
[付記4]
動作認識部は、認識対象部位が、原点判定領域から、一の判定領域へ移動した後に原点判定領域に戻る前に、想定外の領域へ移動したときには、領域移動無効状態と判断する付記1乃至付記3の何れか1項に記載の動作認識装置。
[付記5]
動作認識部は、領域移動無効状態と判断した後に、認識対象部位が原点判定領域に戻ったことを認識すると、領域移動無効状態を解除する付記4に記載の動作認識装置。
[付記6]
動作認識部は、認識対象部位が、原点判定領域から他の領域へ移動した後に、他の領域に認識対象部位が一定時間以上留まっていることを認識すると、他の領域を原点判定領域に再設定する付記1乃至付記5の何れか1項に記載の動作認識装置。
[付記7]
各判定領域の間には、何れにも認識されない緩衝領域を配置する付記1乃至付記6の何れか1項に記載の動作認識装置。
[付記8]
動作認識部は、認識対象部位を撮像した画像に基づいて、認識対象部位の移動の認識処理を行なう付記1乃至付記7の何れか1項に記載の動作認識装置。
[付記9]
動作認識部は、認識対象部位をステレオ視した画像に基づいて、認識対象部位の3次元状の移動の認識処理を行なう付記8に記載の動作認識装置。
[付記10]
動作認識部の認識状態を通知する通知部を備えた付記1乃至付記9の何れか1項に記載の動作認識装置。
[付記11]
認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識し、この認識結果を制御対象機器の制御に使用する動作認識方法。
[付記12]
認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、
動作認識部の認識結果に基づいて制御対象機器を制御する制御部、
とを備えている操作装置。
[付記13]
動作認識部は、認識対象部位が、複数の判定領域に順に移動したことを認識すると、その移動順に対応して予め定められている振り動作があったと認識し、
制御部は、動作認識部が認識した振り動作に対応して予め定められている動作を制御対象機器に指示する付記12に記載の操作装置。
[付記14]
認識対象部位を撮像する撮像装置を備え、
動作認識部は、認識対象部位を撮像装置により撮像した画像に基づいて、認識対象部位の移動の認識処理を行なう付記12又は付記13に記載の操作装置。
[付記15]
撮像装置は、ステレオ視した画像を撮像する複眼のものであり、
動作認識部は、認識対象部位をステレオ視した画像に基づいて、認識対象部位の3次元状の移動の認識処理を行なう付記14に記載の操作装置。
[付記16]
動作認識部の認識状態及び/又は制御部による制御対象機器の制御状態を通知する通知部を備えた付記12乃至付記15の何れか1項に記載の操作装置。
[付記17]
制御部は、複数の制御対象機器を制御可能に構成されている付記12乃至付記16の何れか1項に記載の操作装置。
[付記18]
制御部は、学習型の遠隔操作機器を介して複数の制御対象機器を制御可能に構成されている付記17に記載の操作装置。
[付記19]
機器の機能に対応する処理を行なう処理部と、
認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、
動作認識部の認識結果に基づいて処理部を制御する制御部、
とを備えている電子機器。
[付記20]
認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、
動作認識部の認識結果に基づいて制御対象機器を制御する制御部、
としてコンピュータを機能させるプログラム。
100…操作装置、110…操作制御部、200…動作認識装置、210…動作認識部、212…基準特定部、214…移動領域特定部、216…移動方向特定部、230…通知部、231…矩形領域、310…テレビ、312…表示パネル、314…パネル枠、320…撮像装置、322…ステレオカメラ、900…コンピュータシステム

Claims (20)

  1. 認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部を備えている動作認識装置。
  2. 動作認識部は、認識対象部位が、原点判定領域から、一の判定領域へ移動し、他の判定領域を経由することなく原点判定領域に戻ったことを認識すると、原点判定領域に対する一の判定領域の存在する方向を示す振り動作があったと認識する請求項1に記載の動作認識装置。
  3. 動作認識部は、認識対象部位が、複数の判定領域に順に移動したことを認識すると、方向を示す振り動作とは異なる動作であって、その移動順に対応して予め定められている振り動作があったと認識する請求項1に記載の動作認識装置。
  4. 動作認識部は、認識対象部位が、原点判定領域から、一の判定領域へ移動した後に原点判定領域に戻る前に、想定外の領域へ移動したときには、領域移動無効状態と判断する請求項1に記載の動作認識装置。
  5. 動作認識部は、領域移動無効状態と判断した後に、認識対象部位が原点判定領域に戻ったことを認識すると、領域移動無効状態を解除する請求項4に記載の動作認識装置。
  6. 動作認識部は、認識対象部位が、原点判定領域から他の領域へ移動した後に、他の領域に認識対象部位が一定時間以上留まっていることを認識すると、他の領域を原点判定領域に再設定する請求項1に記載の動作認識装置。
  7. 各判定領域の間には、何れにも認識されない緩衝領域を配置する請求項1に記載の動作認識装置。
  8. 動作認識部は、認識対象部位を撮像した画像に基づいて、認識対象部位の移動の認識処理を行なう請求項1に記載の動作認識装置。
  9. 動作認識部は、認識対象部位をステレオ視した画像に基づいて、認識対象部位の3次元状の移動の認識処理を行なう請求項8に記載の動作認識装置。
  10. 動作認識部の認識状態を通知する通知部を備えた請求項1に記載の動作認識装置。
  11. 認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識し、この認識結果を制御対象機器の制御に使用する動作認識方法。
  12. 認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、
    動作認識部の認識結果に基づいて制御対象機器を制御する制御部、
    とを備えている操作装置。
  13. 動作認識部は、認識対象部位が、複数の判定領域に順に移動したことを認識すると、その移動順に対応して予め定められている振り動作があったと認識し、
    制御部は、動作認識部が認識した振り動作に対応して予め定められている動作を制御対象機器に指示する請求項12に記載の操作装置。
  14. 認識対象部位を撮像する撮像装置を備え、
    動作認識部は、認識対象部位を撮像装置により撮像した画像に基づいて、認識対象部位の移動の認識処理を行なう請求項12に記載の操作装置。
  15. 撮像装置は、ステレオ視した画像を撮像する複眼のものであり、
    動作認識部は、認識対象部位をステレオ視した画像に基づいて、認識対象部位の3次元状の移動の認識処理を行なう請求項14に記載の操作装置。
  16. 動作認識部の認識状態及び/又は制御部による制御対象機器の制御状態を通知する通知部を備えた請求項12に記載の操作装置。
  17. 制御部は、複数の制御対象機器を制御可能に構成されている請求項12に記載の操作装置。
  18. 制御部は、学習型の遠隔操作機器を介して複数の制御対象機器を制御可能に構成されている請求項17に記載の操作装置。
  19. 機器の機能に対応する処理を行なう処理部と、
    認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、
    動作認識部の認識結果に基づいて処理部を制御する制御部、
    とを備えている電子機器。
  20. 認識対象部位が、一の判定領域から他の判定領域へ移動した後に一の判定領域に戻ったことを認識すると、所定の振り動作があったと認識する動作認識部と、
    動作認識部の認識結果に基づいて制御対象機器を制御する制御部、
    としてコンピュータを機能させるプログラム。
JP2011208947A 2011-09-26 2011-09-26 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム Withdrawn JP2013069224A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011208947A JP2013069224A (ja) 2011-09-26 2011-09-26 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
US13/590,657 US20130077831A1 (en) 2011-09-26 2012-08-21 Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
CN2012103501652A CN103116397A (zh) 2011-09-26 2012-09-19 运动识别装置、运动识别方法、操作装置、电子装置和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011208947A JP2013069224A (ja) 2011-09-26 2011-09-26 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2013069224A true JP2013069224A (ja) 2013-04-18

Family

ID=47911344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011208947A Withdrawn JP2013069224A (ja) 2011-09-26 2011-09-26 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム

Country Status (3)

Country Link
US (1) US20130077831A1 (ja)
JP (1) JP2013069224A (ja)
CN (1) CN103116397A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014127870A (ja) * 2012-12-26 2014-07-07 Mitsui Home Co Ltd 住宅設備制御装置
JP2014238792A (ja) * 2013-06-10 2014-12-18 長崎県公立大学法人 学習支援装置および学習支援方法
JP2015500528A (ja) * 2011-12-05 2015-01-05 アルカテル−ルーセント ジェスチャー・コントロールのための方法、ジェスチャー・サーバ・デバイス、およびセンサ入力デバイス
WO2015001606A1 (ja) * 2013-07-01 2015-01-08 パイオニア株式会社 撮像システム
WO2015072150A1 (ja) * 2013-11-15 2015-05-21 パナソニックIpマネジメント株式会社 情報表示装置及び情報表示方法
JP2016531341A (ja) * 2014-03-11 2016-10-06 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 検索方法、検索システム及び検索装置
JP2017211884A (ja) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 動き検出システム
JP2018015824A (ja) * 2016-07-26 2018-02-01 公立大学法人会津大学 ロボットを操作する装置、その装置において実行される方法およびプログラム。
JP2021510012A (ja) * 2018-11-26 2021-04-08 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. スピーカ制御方法及びスピーカ制御装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
JP5573899B2 (ja) * 2011-08-23 2014-08-20 カシオ計算機株式会社 演奏装置
KR20140061098A (ko) * 2012-11-13 2014-05-21 엘지전자 주식회사 영상표시장치, 및 그 동작방법
KR102059598B1 (ko) * 2013-01-29 2019-12-26 삼성전자주식회사 디지털 촬영 장치 및 그의 제어 방법
JP5782061B2 (ja) * 2013-03-11 2015-09-24 レノボ・シンガポール・プライベート・リミテッド 移動物体の動作を認識する方法および携帯式コンピュータ
CN104714840B (zh) * 2013-12-13 2019-01-15 联想(北京)有限公司 一种信息处理方法和电子设备
CN104156693B (zh) * 2014-07-15 2017-06-06 天津大学 一种基于多模态序列融合的动作识别方法
US9849588B2 (en) 2014-09-17 2017-12-26 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9860077B2 (en) * 2014-09-17 2018-01-02 Brain Corporation Home animation apparatus and methods
US9821470B2 (en) 2014-09-17 2017-11-21 Brain Corporation Apparatus and methods for context determination using real time sensor data
CN104866823B (zh) * 2015-05-11 2018-12-28 重庆邮电大学 一种基于单目视觉的车辆检测与跟踪方法
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
JP6685397B2 (ja) * 2016-07-12 2020-04-22 三菱電機株式会社 機器制御システム
CN107977071B (zh) * 2016-10-24 2020-02-28 中国移动通信有限公司研究院 一种适用于空间系统的操作方法及装置
CN107092861B (zh) * 2017-03-15 2020-11-27 华南理工大学 基于压力与加速度传感器的下肢动作识别方法
CN107422856A (zh) * 2017-07-10 2017-12-01 上海小蚁科技有限公司 用于机器处理用户命令的方法、装置和存储介质
CN107371307B (zh) * 2017-07-14 2018-06-05 中国地质大学(武汉) 一种基于手势识别的灯效控制方法及系统
CN111228792B (zh) * 2020-01-14 2023-05-05 深圳十米网络科技有限公司 体感游戏动作识别方法、装置、计算机设备及存储介质
US20220005226A1 (en) * 2020-07-05 2022-01-06 Asensus Surgical Us, Inc. Camera calibration using measured motion

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100827243B1 (ko) * 2006-12-18 2008-05-07 삼성전자주식회사 3차원 공간상에서 정보를 입력하는 정보 입력 장치 및 그방법
US8146020B2 (en) * 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
JP5183398B2 (ja) * 2008-09-29 2013-04-17 株式会社日立製作所 入力装置
KR101634355B1 (ko) * 2009-09-18 2016-06-28 삼성전자주식회사 동작 검출 장치 및 방법

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015500528A (ja) * 2011-12-05 2015-01-05 アルカテル−ルーセント ジェスチャー・コントロールのための方法、ジェスチャー・サーバ・デバイス、およびセンサ入力デバイス
JP2014127870A (ja) * 2012-12-26 2014-07-07 Mitsui Home Co Ltd 住宅設備制御装置
JP2014238792A (ja) * 2013-06-10 2014-12-18 長崎県公立大学法人 学習支援装置および学習支援方法
US10061995B2 (en) 2013-07-01 2018-08-28 Pioneer Corporation Imaging system to detect a trigger and select an imaging area
WO2015001606A1 (ja) * 2013-07-01 2015-01-08 パイオニア株式会社 撮像システム
WO2015072150A1 (ja) * 2013-11-15 2015-05-21 パナソニックIpマネジメント株式会社 情報表示装置及び情報表示方法
JPWO2015072150A1 (ja) * 2013-11-15 2017-03-16 パナソニックIpマネジメント株式会社 情報表示装置及び情報表示方法
JP2016531341A (ja) * 2014-03-11 2016-10-06 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 検索方法、検索システム及び検索装置
JP2017211884A (ja) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 動き検出システム
JP2018015824A (ja) * 2016-07-26 2018-02-01 公立大学法人会津大学 ロボットを操作する装置、その装置において実行される方法およびプログラム。
JP2021510012A (ja) * 2018-11-26 2021-04-08 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. スピーカ制御方法及びスピーカ制御装置
JP7203735B2 (ja) 2018-11-26 2023-01-13 北京小米移動軟件有限公司 スピーカ制御方法及びスピーカ制御装置
US11614540B2 (en) 2018-11-26 2023-03-28 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus for controlling sound box

Also Published As

Publication number Publication date
US20130077831A1 (en) 2013-03-28
CN103116397A (zh) 2013-05-22

Similar Documents

Publication Publication Date Title
JP2013069224A (ja) 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
US10001844B2 (en) Information processing apparatus information processing method and storage medium
US8666115B2 (en) Computer vision gesture based control of a device
US9658695B2 (en) Systems and methods for alternative control of touch-based devices
US8350896B2 (en) Terminal apparatus, display control method, and display control program
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
US20140240225A1 (en) Method for touchless control of a device
WO2019033957A1 (zh) 交互位置确定方法、系统、存储介质和智能终端
KR20150048623A (ko) 화면 조작장치 및 화면 조작방법
KR101514170B1 (ko) 입력 장치, 입력 방법 및 기록 매체
US20140053115A1 (en) Computer vision gesture based control of a device
CN105103536A (zh) 成像设备、成像方法以及程序
JP6357023B2 (ja) 情報処理プログラム、情報処理装置、情報処理装置の制御方法および情報処理システム
CN109844600B (zh) 信息处理设备、信息处理方法和程序
JP4686708B2 (ja) ポインティングシステム及びポインティング方法
US11886643B2 (en) Information processing apparatus and information processing method
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
US20210406542A1 (en) Augmented reality eyewear with mood sharing
KR100749033B1 (ko) 두 눈에서 반사되는 빛을 추적하여 단말기를 조작하는방법, 및 그 장치
US9898183B1 (en) Motions for object rendering and selection
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
JP2019197478A (ja) プログラム、及び情報処理装置
US20160110881A1 (en) Motion tracking device control systems and methods
JP2020123396A (ja) 眼で操作するアイポインティングシステム
WO2019130729A1 (ja) 情報処理装置、情報処理方法および情報処理システム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130215

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202