JP2011170866A - 動作検知インターフェース - Google Patents

動作検知インターフェース Download PDF

Info

Publication number
JP2011170866A
JP2011170866A JP2011062985A JP2011062985A JP2011170866A JP 2011170866 A JP2011170866 A JP 2011170866A JP 2011062985 A JP2011062985 A JP 2011062985A JP 2011062985 A JP2011062985 A JP 2011062985A JP 2011170866 A JP2011170866 A JP 2011170866A
Authority
JP
Japan
Prior art keywords
remote control
moving object
image
user
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011062985A
Other languages
English (en)
Other versions
JP5222376B2 (ja
Inventor
Ryuichi Iwamura
隆一 岩村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Electronics Inc
Original Assignee
Sony Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Electronics Inc filed Critical Sony Electronics Inc
Publication of JP2011170866A publication Critical patent/JP2011170866A/ja
Application granted granted Critical
Publication of JP5222376B2 publication Critical patent/JP5222376B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Details Of Television Systems (AREA)
  • Selective Calling Equipment (AREA)

Abstract

【課題】電子機器における予測可能な処理を示す複数のアイコンを表示する装置及び視野内の動作を検出する動作検出回路から構成される遠隔制御装置を提供する。
【解決手段】動作検出回路15は、視野内における、移動オブジェクトの画像又は移動オブジェクトの所定の動きを、遠隔制御開始の指示として検出し、移動オブジェクトの動きを追跡する。また、動作検出回路15は、移動オブジェクトの動きを示すカーソル制御信号を出力する。制御回路5乃至8及び13乃至16は、電子機器1乃至12及び16に移動可能な視覚的指示手段を用いてユーザが選択したアイコンに対応する処理を実行させる。1つの実施例において、2つのビデオカメラ13を用いることで、移動オブジェクトの3次元の動作による電子機器1乃至12及び16の制御が実現される。
【選択図】図1

Description

本発明は、テレビジョン受像器等の電子機器用の遠隔制御装置、特に電子機器用の光学動作感知遠隔制御装置に関する。
遠隔からテレビジョン受像器を制御するための一般的な装置として、赤外線遠隔制御装置が用いられている。しかしながら、従来の遠隔制御装置には欠点が幾つかある。その一つとしては、遠隔制御装置はなくなりやすいという点が挙げられる。また、ユーザは、しばしば、ビデオカセットレコーダの遠隔制御装置とテレビジョン受像器の遠隔制御装置とを間違える。実際、多くの人々が多数の遠隔制御装置を所有している。また、ユーザは遠隔制御装置のどこに何のボタンが位置するかを覚えなくてはならない。また、遠隔制御装置は定期的に電池を取り替えなければならない。テレビジョン受像器にビデオカメラが備え付けてあり、ユーザの身振りを読みとることができれば、遠隔制御装置は不要になる。しかしながら、テレビジョン受像器において、ビデオカメラに写る範囲内で、その他の動きとユーザのジェスチャーとを見分けることは容易ではない。例えば、ユーザは、台所にスナックを取りに行くために立ち上がるたびに、チャンネルを変わってしまっては、不都合である。
本発明は、上述した実情に鑑みてなされたものであり、本発明は、電子機器における予測可能な処理を示す複数のアイコンを表示する表示装置及び視野内の動作を検出する動作検出回路から構成される遠隔制御装置を提供することを目的とする。
動作検出回路はユーザの手の形及び視野内においてユーザが遠隔制御操作を開始したことを示す所定の手の動きを検出した後に、その手の動きを追跡する。なお、オブジェクトは必ずしも手である必要はない。動作検出回路は手の動きを表すカーソル制御信号を出力する。表示装置及び動作検出回路は制御回路に接続している。制御回路は、カーソル制御信号を受信し、可動移動可能な視覚的指示手段、すなわち、カーソルを表示装置上に表示する。カーソルはユーザの手の動きにあわせて表示装置上を移動する。また、制御回路が電子機器を制御すると、制御された電子機器は、ユーザが移動可能な視覚的指示手段を用いてユーザが選択したアイコンに対応する操作を行う。
本発明に係る実施例のいくつかにおいて、ある特定のアイコンと移動可能な視覚的指示手段が表示装置上で重なると、動作検出回路は、所定の手の動作パターンを検出し、ユーザによるアイコンの選択を検出する。例えば、動作検出回路は、ある特定のアイコンと移動可能な視覚的指示手段が表示装置上で重なった後のある一定の期間における手の動作の休止を、ユーザによるアイコンの選択として検出する。あるいはまた、ユーザがアイコンを押すような動作を行った場合、動作検出回路は、この動作をボタンを押す操作として検出する。
本発明の第1の実施例において、動作検出回路はビデオカメラを備える。また、動作検出回路はビデオカメラから出力されるビデオ出力信号を受信し、2つの連続するビデオフレーム間の各マクロブロックにおける動きベクトルを算出する。各ビデオフレームは複数のブロックから構成される。各ブロックは、検出されたオブジェクトの動作を表すベクトルを有する。動作検出回路は、隣接するほぼ同方向のベクトルを、1つの領域としてグループ化する。各フレームについて、オブジェクトを追跡するか追跡しないか決定するとき、動作検出回路は各領域を調査し、この領域が以下に示す(a)及び(b)の2つの条件を満たすものであるか否かを判断する。
(a)このベクトルが時計回り又は反時計回りに一回転する。
(b)この領域が初めに位置していた位置に戻る。
この領域が上記(a)及び(b)の条件が満たすとき、動作検出回路はこの領域をロックする。
本発明の第2の実施例において、動作検出回路は少なくとも1つのビデオカメラ、ランダムアクセスメモリインターフェース(random access memory interface)、ランダムアクセスメモリ(random access memory)、及びCPUを備える。動作検出回路は、ビデオカメラから出力される2つの連続するビデオフレームにおける各マクロブロックの画素値を比較して、動作を検出する。2つの連続するビデオフレームにおける2つの対応するマクロブロックの差分の絶対値がある一定の値を超えた場合、動作検出回路は、このマクロブロックにおいて動作が行われたと判断し、この領域を活性領域として判断する。
各ビデオフレームについて、手の動きを追跡するか追跡しないかを決定するとき、動作検出回路は検出した活性領域を調査し、この活性領域が以下に示す(a)及び(b)の2つの条件を満たすものであるか否かを判断する。
(a)この活性領域が第1の方向に一直線状の動きを行う。
(b)この活性領域が初めに位置していた場所に戻る。
この活性領域が上記(a)及び(b)の条件を満たすとき、動作検出回路はこの活性領域をロックする。上述の動きのほか、手の動きのロックを指示する動作として、あらゆる種類の反復動作を用いることができる。
また、本発明の第3の実施例において、動作検出回路はビデオカメラから出力されるユーザが選択した画像部分と予め記憶してある画像とを比較し、この2つの画像が一致したとき、ビデオカメラから出力されるユーザが選択した画像部分がユーザの手であると判断する。上述した方法のほか、様々な方法を用いて、ユーザは自分の手を表す画像部分を選択することができる。
本発明の全ての実施例において、ユーザ及び動作検出回路間の距離の長短に関わらず、手の移動距離と移動可能な視覚的指示手段の移動距離との比率を常に一定に保つため、制御回路は自動カーソル感度調整機能を備える。自動カーソル感度調節調整機構は、手20の移動距離に対応する移動可能な視覚的指示手段の移動距離の比率を算出する。したがって、例えば、ユーザが手を斜め方向に動かす動作を行った場合、ユーザ及び動作検出回路間の距離の長短に関わらず、移動可能な視覚的指示手段は表示画面の対角線上を移動する。
本発明を適用した遠隔制御装置の基本的な構成を示すブロック図である。 ユーザが、どのように、手の動作を用いて、図1に示す遠隔制御装置に対して、遠隔制御を行う意図を認識させるかを説明するための図である。 ユーザが、どのように図1に示す遠隔制御装置を制御し、ユーザの手の動きに追従するカーソルを表示画面上で移動させるかを説明するための図である。 図1に示す遠隔制御装置が動作を算出しているときの、1つのビデオフレーム内におけるマクロブロック及び動きベクトルを矢印を用いて示す図である。 0.5秒間隔でとらえた動きベクトルのスナップショットを示す図である。 0.5秒間隔でとらえた動きベクトルのスナップショットを示す図である。 0.5秒間隔でとらえた動きベクトルのスナップショットを示す図である。 0.5秒間隔でとらえた動きベクトルのスナップショットを示す図である。 図1に示す遠隔制御装置が手の画像を判断し、画像をロックしたときのマクロブロックのスナップショットを示す図である。 ユーザが、どのように、上述した手の動きと異なる手の動きを用いて、図1に示す遠隔制御装置に対して、遠隔制御を行う意図を認識させるかを説明するための図である。 図10に示す手の動作を行ったときの、マクロブロック及び図1に示す遠隔制御装置が検出した動きベクトルを0.5秒間隔でとらえたスナップショットを示す図である。 図10に示す手の動作を行ったときの、マクロブロック及び図1に示す遠隔制御装置が検出した動きベクトルを0.5秒間隔でとらえたスナップショットを示す図である。 電子機器において、MPEGエンコーダを用いた変形例の基本的な構成を示すブロック図である。 本発明の第2の実施例において、ユーザが、どのように手の動作を用いて、図1に示す遠隔制御装置に対して、遠隔制御を行う意図を認識させるかを説明するための図である。 本発明の第2の実施例において、どのように動作が検出されるかを説明するための、2つの時間的に連続するフレーム及び各々のフレームにおける対応するマクロブロックを示す図である。 本発明の第2の実施例における遠隔制御装置が、斜線部で示す活性領域を演算処理したときの1つのビデオフレームにおけるマクロブロックを示す図である。 本発明の第2の実施例における遠隔制御装置が、斜線部で示す活性領域を演算処理したときの1つのビデオフレームにおけるマクロブロックを示す図である。 本発明の第2の実施例において、カーソルを操作するときの、ユーザの手の動きを示す図である。 本発明の第2の実施例における遠隔制御装置が、表示画面上のカーソルを操作するユーザの手の動きを検出をしているときのマクロブロックを示す図である。 本発明の第2の実施例における遠隔制御装置が、表示画面上のカーソルを操作するユーザの手の動きを検出をしているときのマクロブロックを示す図である。 ユーザが、どのように、本発明の第2の実施例における遠隔制御装置を制御し、表示画面上のカーソルをユーザの手の動きに追従するように移動させ、表示画面上のアイコンを選択するかを説明するための図である。 ユーザが、どのように、上述した手の動きと異なる手の動きを用いて、本発明の第2の実施例における遠隔制御装置に、ユーザの手を認識させるかを説明するための図である。 図23(a)及び図23(b)は、各々、ユーザが、どのように、上述した手の動きと異なる手の動きを用いて、本発明の第2の実施例における遠隔制御装置に対して、ユーザの手を認識させるかを説明するための図である。 本発明の第3の実施例において、遠隔制御装置が、どのように、ユーザの手の画像を認識するかを説明するための図である。 本発明の第3の実施例において、遠隔制御装置が、どのように、ユーザの手の画像を認識するかを説明するための図である。 本発明の第3の実施例において、遠隔制御装置が、どのように、ユーザの手の画像を認識するかを説明するための図である。 本発明の第3の実施例において、遠隔制御装置が、どのように、ユーザの手の画像を認識するかを説明するための図である。 ユーザが、どのように、自動カーソル感度調整機能の設定を行うかを説明するための図である。 ユーザがテレビジョン受像器の近くに位置するとき、図1に示す遠隔制御装置が、どのように、ユーザによる斜め方向の手の動きを検出するかを示す図である。 ユーザがテレビジョン受像器から離れて位置するとき、図1に示す遠隔制御装置が、どのように、ユーザによる斜め方向の手の動きを検出するかを示す図である。 本発明の第4の実施例において、3次元の動きを検出する遠隔制御装置の基本的な構成を示すブロック図である。 図31に示す遠隔制御装置を用いた実施例を示す図である。 図31に示す遠隔制御装置が活性領域を演算処理したときの1つのビデオフレームにおけるマクロブロック及びその活性領域を斜線部で示す図である。 図31に示す遠隔制御装置が斜線部で示す活性領域を演算処理したときの1つのビデオフレームにおけるマクロブロックを示す図である。
以下、本発明に係る電子機器用の遠隔制御装置及び遠隔制御方法について、図面を参照しながら詳細に説明する。
本発明の第1の実施例において、ユーザが、テレビジョン受像器にとって検出が容易な動作を行うと、テレビジョン受像器はこの手の画像をロックする。また、本発明の変形例において、遠隔制御装置は、視覚的にユーザの手を認識し、ロックする。なお、この明細書では、「手」という用語を用いるが、このユーザの手に代えてその他の判別可能なオブジェクト用いてもよい。
本発明の全ての実施例において、手の画像がロックされると、テレビジョン受像器は手の動きを追跡し、手の動きと同方向に、表示装置上のカーソルを移動させる。すなわち、ユーザはパーソナルコンピュータのマウスを動かすように、手を用いてカーソルを動かすことができる。また、ユーザは、カーソルを移動させ、表示装置上のアイコンから所望のアイコンを選択することができる。手の画像をロックした後にこの動きを見失った場合、テレビジョン受像器はユーザに対してメッセージを表示する。メッセージが表示されると、ユーザは特定の手の動作を行うか、または、表示装置上の手の画像を再び選択する。上述の方法により、テレビジョン受像器は、手の画像を再びロックし、この動作を追跡する。
図1は、本発明を適用した遠隔制御装置の基本的な構造を示すブロック図である。ブロック1乃至12に示す部分は、従来のデジタルテレビジョン受像器セットと同様である。アンテナ1は信号を受信する。チューナ2は、アンテナ1が受信した信号を同調する。チューナ2において同調された信号は、復調及び誤り訂正ブロック3において、復調及び誤り訂正される。デマルチプレクサ4は、ブロック3から供給された信号を分離させる。分離表示画面(demultiplexed on-screen:以下、OSDという)データはOSD回路5に供給され、映像データはビデオデコーダ6に供給され、また、音声データは音声デコーダ10に供給される。スーパーインポーザ(superimposer)7はOSDデータ及び復調された映像データを混合し、陰極線管(cathode ray tube:以下、CRTという)ブロック8に供給する。CRTブロック8は、スーパーインポーザ7から供給されたデータをCRT9上に表示する。増幅器11は復調された音声信号を増幅し、ラウドスピーカ12に出力する。
ブロック13乃至16は、本発明の全ての実施例において、主要な機能を果たす部位であり、また、各々の実施例において、何らかの異なった機能を果たす。ビデオカメラ13はCRT9上に載置され、例えば、テレビジョン受像器セットの前のユーザ18の画像を捕捉すると、その画像を動作検出回路15に供給する。動作検出回路15はRAM14及びCPU16に接続している。
本発明の第1の実施例において、テレビジョン受像器を遠隔操作したい場合、まず、ユーザ18は手20を使って、判別可能な動作を繰り返し行う。この判別可能な動作としては、例えば、図2に示すような、円を描く動作や、図14に示すように、手20を20(a)の位置から20(b)へ移動する動作が例として挙げられる。テレビジョン受像器は、上述した動作とその他の動作とを区別し、ユーザの遠隔操作を行おうとする意図を感知する。このとき、テレビジョン受像器は、図3及び図21に示すように、CRT9の画面上にメニューボタンアイコン22を表示する。CPU16により手20の画像が捕捉されると、CPU16はこの動きをロックし、CRT9の画面上に表示されたカーソル24はロックされた手20の動きに追従する。例えば、ユーザ18が手20を右に動かすと、同時に、CRT9の画面上に表示されたカーソル24も右に移動する。手20及び、カーソル24は、各々、パーソナルコンピュータにおけるマウス及びカーソルと同様に機能する。なお、テレビジョン受像器は手20の絶対位置については関知せず、移動速度及び移動方向のみを感知し、それに対応して、カーソル24を移動させる。カーソル24がユーザ18の希望するメニューボタンアイコンの位置に移動すると、ユーザ18は、この位置で、約2又は3秒間、手20を停止した状態を保つ。CPU16は、ボタンを押す動作として、上述の動作を判断し、メニューボタンアイコン22が表す機能を実行する。一定時間内に、何らかの動作が検出されない場合は、CPU16は時間切れと判断し、メニューボタンアイコン22を画面上から削除し、再び、所定の動作の検出を始める。
次に、本発明の第1の実施例における動作検出回路15について、説明する。まず、動作検出回路15は、2つの連続するフレーム間における各々のマクロブロックの動きベクトルを検出する。このとき、動作検出回路15は特定の閾値に満たない動きベクトルを削除する。図4は1つのビデオフレームにおけるマクロブロック全体の具体例を示す図である。なお、説明を簡潔にするため、図中のマクロブロックを実際よりも少なく、また大きく示す。動作検出回路15は、動きベクトルを検出すると、図4に示すように、ほぼ同じ方向を有する複数のベクトルを1つの領域としてグループ化する。例えば、図4は領域1及び領域2がグループ化されたことを示す図である。この時点において、動作検出回路15は、どの領域に手20の画像が属するかについては判断せず、全てのフレームに対して上述の処理を行う。
次フレーム中に、領域1とほぼ同位置に位置し、且つ、ほぼ同方向を有するベクトルから構成される領域がある場合、動作検出回路15はこの領域を上記領域1に続く領域としてグループ化する。他の領域も同様にしてグループ化される。新しい領域には、新しい名前が与えられる。前フレーム中の領域に続く領域が検出されない場合、動作検出回路15はこの領域を削除する。図5乃至図8は、動きベクトルのスナップショットを示す図であり、各々の間隔は0.5秒である。円を描く動作を行う場合、通常3秒間を要する。図6に示すように、領域1は3秒以内に消滅しているため、動作検出回路15は、領域1を手20の動作ではないと判断する。領域2は、手20の動作が属する領域の候補として残存する。全てのフレームに対して、動作検出回路15は各々の領域が以下(1)及び(2)の条件を満たすものであるかを検査する。
(1)このベクトルが時計回り又は反時計回りに1回転する。
(2)この領域が初めに位置していた位置に戻る。
ある領域が上述した2つの条件を満たすとき、動作検出回路15はこの領域を手20の画像であると判断する。
動作検出回路15は、図8に示すように、領域2が手20の画像であると判断すると、次に、図9に示すように、領域2をロックし、この動きを追跡する。動作検出回路15はCPU16に対して、手20の動きをロックしたことを知らせ、また、手20の動きについての情報をCPU16に供給する。CPU16は動作検出回路15から受信した情報をOSD回路5に供給する。OSD回路5は情報を受信すると、CRT9上にカーソル24を表示させ、手20の動きに追従させる。
動作検出回路15が手20の進路を見失った場合、動作検出回路15はCPU16にその情報を供給する。CPU16は情報を受信すると、CRT9上に「手を右に動かして下さい」というメッセージを表示する。ユーザ18がこのメッセージに従うと、次に、動作検出回路15はCPU16を制御し、CRT9上に「手を上に動かして下さい」というメッセージを表示させる。ユーザ18が、再度、このメッセージに従うと、動作検出回路15は、最初に右に移動し、次に上に移動する画像を検出することにより、手20の画像を再び判断し、ロックする。
上述した特定の手20の動作は、円を描くような動作に限定されるものではなく、その他の特定できる動作であってもよい。また、メニューボタンアイコン22を選択するときも、ユーザ18は手20を止めるだけでなく、その他の特定の動作を行うことが可能である。円を描くような動作の変形例として、ユーザ18は図10に示すように、例えば、左下から右上のように、斜め方向に、数回、手20を動かしてもよい。ユーザ18が手20を上に動かすと、図11中の領域3に示すように、動きベクトルは右上を指し、また、ユーザ18が手20を下に動かすと、図12中の領域3に示すように、動きベクトルは左下を指す。すなわち、ユーザ18が手20を動かすたびに、動きベクトルは反対方向を指すことになる。したがって、動作検出回路15は、一定の時間内で、所定の回数だけ、所定の方向から反対の方向へ指す動きベクトルを検出することにより、ユーザが特定の動作を行ったことを判断し、手20の動きをロックする。
上述した動作は、図2に示す円を描く動作に比べて、ユーザ18が行いやすい動作であり、また、動作検出回路15が検出しやすい動作である。しかしながら、この動作は、ユーザ18により、意図せずに行われることが頻繁にあり、そのため、誤って検出されることが多い。例えば、ユーザ18が脚を上下に動かしたとき、動作検出回路15はその動作を上述した動きとして、誤って検出する可能性がある。これは、トレードオフである。
カーソル24のバリエーションとして、OSD回路5はデジタルサテライトシステム・グラフィカルユーザインターフェース(digital satellite system graphical user interface)のように、メニューボタンアイコン22を強調表示してもよい。例えば、ユーザ18が手20を上に動かすと、OSD回路5は上部のメニューボタンアイコン22を強調表示する。ユーザ18は強調表示されたメニューボタンアイコン22にカーソルをあわせた状態で、手20を停止させ、このメニューボタンアイコン22を選択する。本明細書及び請求の範囲において、カーソル24は、上述したような手20の動作に対応したメニューボタンアイコン22の強調表示を含む、動作検出回路15に検出された手20の動きに追従する、表示装置上の全ての変化を意味するものとする。
本発明の実施例において、画像認識の方法は動きベクトルの検出に限定されるものではない。例えば、動作検出回路15は、手20の色が描く軌跡を追跡し、この軌跡が円を描いた場合、この色の領域を手20の画像として検出し、ロックする。本発明の第2の実施例においては、パターン照合法を、手20の画像を検出する方法として用いる。本発明において、最も重視すべき点は、ユーザは、動作検出回路15が容易に手20の動き及びその他の動きの判別できるような、所定の特定可能な動作を行うという点である。
また、本発明はデジタルテレビジョン受像器のみならず、アナログテレビジョン受像器又はパーソナルコンピュータテレビジョン電話等の、ビデオカメラ及び表示装置を備える装置全般に適用することができる。また、CRT9と同様に、例えば、液晶表示装置又はプロジェクタを用いることもできる。
テレビジョン会議及びテレビジョン電話には、MPEG又はH261ビデオエンコーダを用いる。図13はビデオエンコーダの一般的な例を示す図である。ビデオカメラ100は、減算ノード101を介して、離散コサイン変換回路102に信号を供給し、離散コサイン変換回路102は受信した信号を圧縮する。予測フレームの場合には、減算ノードがビデオカメラ100から信号を受信し、この信号を復元されたフレーム内のデータから減算した後、離散コサイン変換回路102がこの信号を離散コサイン変換処理する。量子化回路103は、離散コサイン変換処理された信号を受信し、その信号を量子化し、符号化されたストリームとして出力する。逆量子化回路104は、量子回路から信号を受信し、その信号を逆量子化し、逆離散コサイン変換回路105に供給する。逆離散コサイン変換回路105は、受信した信号を圧縮し、加算ノード106を介して、フレーム107に供給する。フレーム107は、受信した信号を格納する。予測フレームの場合には、加算ノード106が、逆離散コサイン変換回路105から信号を受信し、この信号に復元されたフレーム内のデータを加算した後、フレーム107に処理済みの信号を供給する。
動作検出回路108は、フレームメモリ107に接続しており、現フレームと前フレームを比較し、各々のマクロブロックの動きベクトルを算出する。動作検出回路108は、上述のように、動きベクトルを算出し、したがって、与えられた領域における動きベクトルを算出することにより、手20の円を描く動作を検出することができる。動作検出回路108は、手20の動作を示すデータをCPU16に供給する。ブロック1乃至12は、図1に示すブロック1乃至12と共通する。ブロック13乃至15がこのエンコーダの変形例と置き換えることができる。動作検出回路と符号化装置を一体化することにより、回路のサイズを縮小し、また、コストを削減することができる。
さらに、ビデオカメラ13が、モータ駆動されている場合、CPU16は、パン、チルト及びズームを自動的に制御し、手20の画像をビデオカメラ13の視野内において最適な位置、通常は中央に位置させる。
本発明を適用した遠隔制御装置は、色信号を必要としないため、暗所においては、赤外線カメラを用いることができる。
例えば、IEEE(Institute of Electrical and Electronics Engineers:米国電気電子技術者協会)1394インターフェース(以下、単に1394インターフェースという)等のネットワークインターフェースにCPU16を接続した場合、CPU16は、ネットワークを介して、接続する他の装置に、手20の位置に関するデータを供給し、その装置を制御することができる。
以下に説明する本発明の第2の実施例において、動作検出回路15は、RAMインターフェース回路を備える。その他、上述した第1の実施例と同じ構成要素には同一の指示符号を付して、同様の機能を有する場合、それらの説明は省略する。
CPU16は、動作検出回路15が備えるRAMインターフェース回路内の現ビデオフレームにおける各々のマクロブロックの画素値と、RAM14に格納された前ビデオフレームにおいて対応するマクロブロックの画素値を比較し、ビデオカメラ13の視野内で動作が行われたかどうか判断する。なお、各々のマクロブロックは、縦16、横16の画素から構成される。
次に、CPU16がどのように手20の画像を認識し、ロックするかについて説明する。ここでは、横352、縦288の画素から構成されるビデオフレームを例として用いる。1つのマクロブロックは、縦16、横16の画素から構成されるので、このビデオフレームは縦22、横18のマクロブロックを有する。図15は、2つの連続するビデオフレームn及びビデオフレームn−1を示す図である。MBm(n)は、フレームnにおけるm番目のマクロブロックを意味し、MBm(n)[i,j]は、MBm(n)において、横i行目、縦j列目に位置する画素を意味する。2つの連続するビデオフレームn−1及びビデオフレームnにおける、MBm(n−1)[i,j]及びMBm(n)[i,j]の差分は、以下の式で表される。なお、CPU16は、各々のマクロブロックについての差分を算出する。関数ABS(x)はxの絶対値を意味する。
j=15 i=15
差分=3 3ABS(MBm(n)[i,j]−MBm(n −1)[i,j])
j=0 i=0
CPU16は、上記式によって求めた差分が所定の閾値に満たないとき、ビデオフレームn−1及びビデオフレームn間のマクロブロックMBmにおいて動作が行われなかったと判断する。このマクロブロックを非活性マクロブロックと呼ぶ。本棚又はソファ等の静止背景の場合、差分は0又は0に近い値をとる。一方、差分が所定の閾値を超えたとき、CPU16はマクロブロックMBmにおいて、動作が行われたと判断する。このマクロブロックを活性マクロブロックと呼び、図中においては、斜線部で示す。CPU16は、2つの連続するビデオフレームnにおいて対応する各々のマクロブロックについて、画素値を算出する。CPU16は、隣接する活性マクロブロックを、1つの領域としてグループ化し、CPU16内部の記憶装置又はRAM14に、この領域を格納する。上述した算出は、前述の構成例において述べた動きベクトルの推定よりも単純である。この演算処理は、ソフトウェアにより実現できる。この演算処理は、ハードウェアを必要としない。
ユーザ18は、所定の動作を行い、表示装置上にメニューボタンアイコン22を表示させる。ユーザは、例えば、図14に示すように、20(a)の位置及び20(b)の位置間で、手20を斜め方向に2回動かす。図16及び図17は、1つのビデオフレーム内のマクロブロック全体を示す図である。なお、説明を簡潔にするため、図中のマクロブロックの数を実際よりも少なく示す。斜線部は活性マクロブロックを示す。ユーザ18が手20の移動を開始すると領域100における対応するマクロブロックが活性化する。手20が位置20(b)の方向に移動するにつれて、活性領域は、右上(領域101)に移動する。ユーザ18が手20を20(b)の位置から20(a)の位置へ戻すと、活性領域は領域100の位置に戻る。ユーザ18が上述の動作を繰り返したとき、活性領域はユーザ18の手20の動きにあわせて、領域100及び領域101間の移動を繰り返す。これにより、活性領域が上述の条件を満たすとき、CPU16は、この領域を手20の画像として判断し、手20の位置を検出する。ビデオカメラの視野内において、その他の手20の動作が行われている場合でも、CPU16は活性領域の移動を判断することにより、手20の所定の動きと手20のその他の動きを区別できる。
CPU16は、手20の位置を検出すると、続いて、OSD回路5にコマンドを供給する。OSD回路5は、このコマンドを受信して、図21に示すように、メニューボタンアイコン22を生成する。次に、CPU16は手20の動きを追跡する。図18乃至図21は、ユーザ18が、手20を、20(a)の位置から20(c)の位置に平行移動させたときの状態を示す図である。ユーザ18が上述の手20の動作を行うと、CPU16が検出した活性領域は、図19及び図20に示すように、領域100から領域102に移動する。CPU16は、手20が右に移動したと判断し、OSD回路5を制御して、カーソル24をCRT9上で30の位置から31の位置へ移動させる。上述のように、カーソル24は手20の動きに追従する。ユーザ18は、希望するメニューボタンアイコン22上でカーソル24を一定時間停止させ、メニューボタンアイコン22を選択する。CPU16は、ユーザ18が選択したメニューボタンアイコン22を認識し、対応するタスクを実行する。
CPU16は、手20を見失った場合、OSD回路5を制御して、CRT9上に「手を右に動かして下さい」というメッセージを表示させる。ユーザ18がこのメッセージに従うと、続いて、CPU16はOSD回路5を制御し、CRT9上に「手を上に動かして下さい。」というメッセージを表示させる。再び、ユーザがこのメッセージに従うと、CPU16は、初めに右に移動し、次に上に移動する画像を検出するすることにより、CPU16は、再び、手20の画像を検出し、ロックする。
所定の手20の動きは、上述したような直線状の動きに限定されるものではなく、その他の特定可能な動作であってもよい。また、メニューボタンアイコン22を選択するときも、ユーザ18は、手20の動きを止めるだけでなく、その他の特定可能な動作を行うことができる。直線状の動作の変形例として、ユーザ18は、図28に示すように、例えば、左下から右上のように、斜め方向に、数回、手20を動かしてもよい。
また、手20の検出に画像認識技術を用いてもよい。この方法は、上述した認識方法よりも、より精密な認識方法であり、手20の動きも小さい。ユーザ18は、図22に示すように、手20を広げる動作を行うか、また、図23(a)に示すように、手20を握った状態から、図23(b)に示すように、手20を広げる動作を行う。CPU16は、このような手20の動作が行われると、対応するマクロブロックを活性マクロブロックとして認識し、手20の位置を検出する。CPU16は、手20の位置を検出すると、誤って検出するのを防ぐため、手20の画像をデジタル処理によりカットアウト(cutout)し、手20の画像であるかどうか判断する。
CPU16は、図24に示すように、カットアウトした手20の画像を2値画像に変換する。広げた状態の手20は、各々の指間にV字形が形成される点を最も大きな特徴とする。CPU16は、例えば、水平走査線L1上に位置するポイントp1及びポイントq2のように、2値画像において、同一水平線上に位置する縁端点の全てを検査する。水平走査線L1よりも下に位置する水平走査線L2において、ポイントp2及びポイントq2に示すように、2つの縁端点は近づいており、最終的には一致する。CPU16は、上述のように、同一の水平走査線上に位置する各々の縁端点間の距離を算出することにより、画像の外郭がV字形を有するかどうかを判断する。CPU16は、1又は複数のV字形を検出した場合、この画像が手20の画像であると判断する。手20を検出した後、CPU16は手20の動きを追跡するが、その方法については、上述した手法と同様である。上述のような手20の画像認識は、あまり多くの演算処理を必要としないため、ソフトウェアによる処理が可能である。
また、CPU16は、手20の画像の輪郭を認識するかわりに、手20の画像照合を行うことにより、手20を検出してもよい。以下、手20の画像照合方法について、図25を参照して説明する。まず、ユーザ18は、従来の赤外線遠隔制御装置を用いて、OSD回路5に信号を送信し、ビデオカメラ13が撮影した画像、すなわち、ユーザ自身の画像を、CRT9上に表示させる。つづいて、従来のグラフィカルユーザインターフェースを用いて、手20の画像25を選択する。RAM14は画像25を格納する。必要に応じて、例えば子供の手20や、左利きの人の手20等の複数の手20の画像を格納してもよい。ユーザが手20を固定させると、CPU16は、図26に示すように、対応する領域内の画像26とRAM14に格納された手20の画像25を比較し、この両方が最も一致する位置を調査する。図27は、画像25及び画像26が最も一致した位置を示す図である。画像25及び画像26は、必ずしも、完全に一致するとは限らないが、CPU16は、前述したマクロブロック間の差分の算出と同様に、画像25及び画像26の差分の算出を行う。CPU16は、画像25及び画像26の差分が所定の閾値に満たないとき、画像26を手20であると判断し、手20の動作を追跡する。なお、図面を簡略化するため、図26及び図27においては、手20の輪郭を示したが、実際は図24に示すように、2値画像を用いる。
以上に述べたように、CPU16は様々な方法を用いて、ユーザ18の手20をロックする。本発明において、ユーザ18は、CPU16が、容易に、手20の動き及びその他の動きを判別又は手20の画像とビデオカメラ13の視野内のその他のオブジェクトを区別できるような、特定の動作を行わなければならない。
手20の移動距離は、ビデオカメラ13の視野角及びビデオカメラ13及びユーザ18間の距離に依存する。図28乃至図30は、ユーザ18が手20を斜め方向に動かしたときの状態を示す図である。ビデオカメラ13の視野角が狭いか、もしくは、ユーザ18及びビデオカメラ13間の距離が近いときと比較すると、図29に示すように、ビデオカメラ13の視野角が広いか、もしくは、ユーザ18がビデオカメラ13から離れているとき、CRT9上のカーソル24の移動距離は短くなる。また、ビデオカメラ13の視野角が狭いとき、もしくは、ユーザ18及びビデオカメラ13間の距離が近いとき、図30に示すように、手20の動きに対応するカーソル24の移動距離は長くなる。このよう場合、カーソル24の感度が一定であるとすると、前者、すなわち、ビデオカメラ13の視野角が広いか、もしくは、ユーザ18がビデオカメラ13から離れた場所にいるとき、ユーザ18が手20を大きく動かしても、カーソル24の移動距離は比較的短くなる。同様に、後者、すなわち、ビデオカメラ13の視野角が狭いか、もしくは、ユーザ18及びビデオカメラ13間の距離が近いとき、ユーザ18が小さく手20を動かしたとしても、カーソル24の移動距離は長くなる。
上述のような問題点を解決するため、CPU16は、自動カーソル感度制御機能を備える。ビデオカメラ13の視野内における手20の所定の動作が小さいとき、CPU16は、カーソル24の移動距離を長くし、一方、ビデオカメラ13の視野内における手20の所定の動作が大きいときには、カーソル24の移動距離を短くする。例えば、図29に示すように、手20の所定の動作が50画素長であるとき、CPU16は、手20が1画素長移動するのに対して、カーソル24を4画素長移動させる。すなわち、CPU16は、検出した手20の移動距離に応じて、カーソル24の移動距離を自動的に算出する。図30に示すように、手20の所定の動作が200画素長のとき、CPU16は、手20が1画素長移動するのに対して、カーソル24を1画素長移動させる。ユーザ18は、ビデオカメラ13の視野角又はビデオカメラ13からの距離を考慮する必要はなく、したがって、カーソル24をCRT9の左端から右端まで移動させるときでも、手20を大きく動かす必要はない。上述のような自動カーソル感度制御は、CPU16に組みこまれたソフトウェアプログラムを用いて行う。
図28に示すように、ユーザが手20を斜め方向に動かす所定の動作を行うと、CPU16は手20の動きを追跡し、カーソル24を表示画面において、斜め方向に移動させる。CPU16は、常に、手20のストローク距離に対するビデオフレームの斜め方向の距離の比率を算出する。カーソル24は、この比率に比例して、制御される。ユーザ18が、常に、一定距離だけ、手20を動かすと、CPU16は、この距離を検出が必要とされる最も大きい手20の動作として認識し、対応するカーソル24の移動距離を算出し、表示画面の対角線上でカーソル24を移動させる。上述のように算出された、手20の移動距離及び対応するカーソルの移動距離における基準は、以後の手20の動きについても利用される。例えば、認識された手20のストロークが10インチである場合、CPU16により手20がロックされると、ユーザ18は、斜め方向に、手20を10インチ動かすことにより、CRT9上のカーソル24を左下端から右上端まで移動させることができる。同様に、認識された斜め方向の手20のストロークが20インチである場合、ユーザ18は、斜め方向に、手20を20インチ動かすことにより、CRT9上のカーソル24を左下端から右上端まで動かすことができる。
CPU16は、カーソル24のかわりに、デジタル衛生システムグラフィカルユーザインターフェース(digital satellite system graphical user interface:DSS GUI)のように、メニューボタンアイコン22を強調表示してもよい。例えば、ユーザ18が手20を上に上げると、CPU16は上部のメニューボタンアイコン22を強調表示する。本明細書において、「カーソル」とは、例えば、ユーザ18の手20の動きに対応するメニューボタンアイコン22の強調表示等の、CPU16が検出したユーザ18の動作を追跡した結果の、テレビジョン受像器の表示装置上におけるあらゆる変化を含むものとする。
また、本装置は、3次元の手20の動作のインターフェースにおいても適用することができる。図31及び図32に示すように、第2のビデオカメラ31を、ユーザの右側又は左側に設置する。もしくは、天井に取り付けてもよい。第2のビデオカメラ31は、Z軸に示すように、表示画面に対して垂直な方向の手20の動作を感知する。図31は、本装置の構成を示すブロック図である。ブロック1乃至16は、図1に示す構成部1乃至16と共通するものであり、説明を簡潔にするため、図31では省略する。ビデオカメラ31はビデオカメラ13と同様の機能を有し、RAM32はRAM14と同様の機能を有し、また、RAMインターフェース33はRAMインターフェース15と同様の機能を有し、RAM32及びRAMインターフェース33では、Z軸上の動作を検出するために用いる。ビデオカメラ31,RAM32及びRAMインターフェース33は、ビデオカメラ13、RAM14及びRAMインターフェース15と同一の動作をする。
まず、ユーザ18が、例えば、斜め方向に手20を動かす等の、所定の動作を行うと、CPU16は、上述のように、活性領域を検査し、X−Y面上の手20の位置を検出する。また、CPU16は、ビデオカメラ31から画像信号を受信し、Y−Z面上で手20の位置を検出する。ユーザ18が、図32に示すように、20(a)の位置及び20(b)の位置間で手20を動かすと、活性領域は、図16及び図17に示すように、領域100から領域101に移動する。一方、Y−Z面上の領域は、図33に示すように、領域200及び領域201間を移動する。これらの活性領域は同時に移動するため、CPU16は、容易に、X−Y面上及びY−Z面上の手20の位置を検出することができる。また、ユーザ18が手20をCRT9に対して垂直方向に動かした場合、活性領域は、図34に示すように、領域200から領域202に移動する。このように、CPU16は、Z軸上の手20の動作を検出する。
本発明の3次元インターフェースは、様々に応用可能である。例えば、3次元インターフェースは、2次元のOSDにも適用することができる。Z軸上の動作は、メニューボタンアイコン22を選択するために用いられる。メニューボタンアイコン22を選択するとき、ユーザ18は、まず、所望のメニューボタンアイコン22上で手20を停止させる。次に、ユーザ18は、機械のボタンを押すときの動作と同じように、手20をCRT9に近づけ、そして、元の位置に戻す。CPU16は、このZ軸上の動作をメニューボタンアイコン22の選択として検出し、検出したメニューボタンアイコン22に対応する処理を実行する。
また、Z軸上の動作は、ズーミングを行うときにも、用いることができる。ユーザ18が手20をCRT9に近づけると、CPU16は、OSD回路5及びビデオデコーダ6にコマンドを送信する。OSD回路5及びビデオデコーダ6は、コマンドを受信すると、CRT9上の手20の画像を拡大する。ユーザ18が手20をCRT9から遠ざけると、手20の画像は縮小する。このような方法を用いることにより、ユーザ18は、極めて自然な感覚で、ズーミングを行うことができる。また、ユーザ18は、ズーミングを行う前に、カーソル24を用いて画像の範囲を選択したり、手20の動きにあわせてカーソル24を移動させ、ズーミングの中心を選択することができる。
ユーザ18は、3次元グラフィックスにおいて、カーソル24を制御することができるため、本発明を適用したインターフェースはコンピュータゲームにも適している。ユーザ18が、手20をCRT9に近づけると、カーソル24は小さくなり、3次元グラフィックスにおいて、遠くに位置するように見える。したがって、ユーザ18は、あるオブジェクトの背後に位置するオブジェクトを選択することができる。例えば、ユーザ18は、ファイルホルダから書類を検索し、選ぶ動作を体感することができる。このように、本発明を適用した遠隔制御装置を用いることにより、ユーザ18は、実際にものを扱ってるかのような感覚を得ることができる。
また、本発明を適用した遠隔制御装置は、デジタルテレビジョン受像器のみならず、アナログテレビジョン受像器、パーソナルコンピュータテレビジョン電話の他、ビデオカメラ及びモニタ表示装置を備えるあらゆる装置に適用できる。また、表示装置は、CRTに限定されるものではなく、液晶表示装置及びプロジェクタ等のその他の表示装置を用いることも可能である。
さらに、ビデオカメラ13が、モータ駆動されている場合、CPU16は、パン、チルト及びズームを自動的に制御し、手20の画像をビデオカメラ13の視野内において最適な位置、通常は中央に位置させる。
本発明を適用した遠隔制御装置は、色信号を必要としないため、暗所においては、赤外線カメラを用いることができる。
CPU16を、例えば、1394インターフェース等のネットワークインターフェースに接続した場合、本発明を適用した遠隔制御装置は、手の位置に関するデータを、ネットワークを介して、接続する他の装置に伝送し、その装置を制御することができる。CPU16を、テレビジョン受像器と独立して構成してもよい。
本発明の好適な実施の形態を用いて本発明を説明したが、特許請求の範囲に示す本発明の思想を逸脱することなく、上述の実施の形態を様々に変形及び修正することができる。以下の請求の範囲における全ての機能プラス手段又は機能プラスステップで示される構成要素に対応する構造、要素、動作及び等価物には、他の請求項において具体的に明示した構成要素とともに、その機能を実現するあらゆる構造、要素又は動作が含まれるものとする。

Claims (93)

  1. 電子機器1乃至12及び16用の遠隔制御装置において、
    電子機器1乃至12及び16が実行可能な処理を表す複数のアイコン22を表示する表示装置9と、
    視野内の移動オブジェクト20の第1の所定の動きを遠隔制御開始の指示として検出し、上記移動オブジェクト20の動きに追従し、上記移動オブジェクト20の動きを示すカーソル制御信号を出力する動作検出手段15と、
    上記表示装置9、上記電子機器1乃至12及び16及び上記動作検出手段15に接続し、上記カーソル制御信号を受信し、上記移動オブジェクト20の動きに追従する移動可能な視覚的指示手段24を表示させるように上記表示装置9を制御し、上記移動可能な視覚的指示手段24を用いてユーザが選択したアイコン22に対応する動作を実行させるように上記電子機器1乃至12及び16を制御する制御手段5乃至8及び13乃至16とを備える遠隔制御装置。
  2. 上記動作検出手段15は、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なったとき、上記移動オブジェクト20の第2の所定の動きを検出することにより、ユーザによるアイコン22の選択を検出することを特徴とする請求項1記載の遠隔制御装置。
  3. 上記第2の所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における上記移動オブジェクト20の動きの停止であることを特徴とする請求項2記載の遠隔制御装置。
  4. 上記動作検出手段15は、ビデオカメラ13、31を備えることを特徴とする請求項1記載の遠隔制御装置。
  5. 上記移動可能な視覚的指示手段24は、カーソルであることを特徴とする請求項1記載の遠隔制御装置。
  6. 上記電子機器1乃至12及び16は、テレビジョン受像器9であることを特徴とする請求項1記載の遠隔制御装置。
  7. 上記表示装置9は、陰極線管であることを特徴とする請求項1記載の遠隔制御装置。
  8. 上記移動オブジェクト20は、ユーザの手20であり、上記第1の所定の動きは、円を描く動作であることを特徴とする請求項1記載の遠隔制御装置。
  9. 上記動作検出手段15は、ビデオカメラ13、31を備え、上記ビデオカメラ13、31が出力する映像信号における2つの連続するビデオフレーム間の各々のマクロブロックの動きベクトルを算出することを特徴とする請求項1記載の遠隔制御装置。
  10. 上記ビデオフレームの各々は、上記移動オブジェクト20の動きを示す複数の動きベクトルを有する複数のマクロブロックから構成される領域1及び領域2を有し、上記領域1及び2において、隣接する複数の動きベクトルはほぼ同方向を指すことを特徴とする請求項9記載の遠隔制御装置。
  11. 上記動作検出手段15は、上記移動オブジェクト20を追跡するか追跡しないかを決定するとき、上記ビデオフレームの各々について、上記領域1及び2が、(a)上記動きベクトルが時計回り又は反時計回りに一回転する、(b)上記領域1及び2が初めに位置していた位置に戻るという2つの条件を満たすものであるかを判断し、上記2つの条件を満たす領域をロックすることを特徴とする請求項10記載の遠隔制御装置。
  12. 上記動作検出手段15は、カメラ100と、上記カメラ100に接続し、上記カメラ100が出力する映像信号を離散コサイン変換する離散コサイン変換手段102と、上記離散コサイン変換手段102に接続し、離散コサイン変換処理された映像信号を量子化する量子化手段103と、上記量子化手段103に接続し、離散コサイン変換処理された映像信号を逆離散コサイン変換処理する逆離散コサイン変換手段105と、上記逆離散コサイン変換手段105に接続し、上記逆離散コサイン変換部からの出力信号を格納するフレームメモリ107と、予測フレームにおいて、上記カメラ100及び上記離散コサイン変換回路102間に介在し、上記フレームメモリ107が出力する復元されたフレーム内のデータから上記カメラ100が出力する映像信号を減算する減算ノード101と、予測フレームにおいて、上記フレームメモリ及び上記逆離散コサイン変換回路105間に介在し、上記逆離散コサイン変換回路105が出力する映像信号に上記フレームメモリが出力する復元されたフレーム内のデータを加算する加算ノード106と、上記フレーム107に接続し、上記フレーム107に格納された前フレーム及び現フレームを比較し、前フレーム及び現フレーム間の各々のマクロブロックに関して動きベクトルを算出する動作検出部108とを備えることを特徴とする請求項1記載の遠隔制御装置。
  13. 上記ビデオフレームは、上記移動オブジェクト20の検出された動きを示す動きベクトルを有する複数のマクロブロックから構成される領域1及び領域2を有し、上記領域1及び領域2において、隣接する動きベクトルはほぼ同方向を示すことを特徴とする請求項12記載の遠隔制御装置。
  14. 上記動作検出手段15は、上記移動オブジェクト20を追跡するか追跡しないかを決定するとき、ビデオフレームの各々について、上記領域1及び2が、(a)上記動きベクトルが時計回り又は反時計回りに一回転する、(b)上記領域1及び領域2が初めに位置していた位置に戻るという2つの条件を満たすものであるかを判断し、上記2つの条件を満たす領域をロックすることを特徴とする請求項13記載の遠隔制御装置。
  15. 上記遠隔制御装置は、上記動作検出手段15が検出した移動オブジェクト20の移動距離に対応して、上記表示装置9上に表示される上記移動可能な視覚的指示手段24の移動距離を自動的に調整する自動カーソル感度制御手段16を備えることを特徴とする請求項1記載の遠隔制御装置。
  16. 上記自動カーソル感度制御手段16は、上記動作検出手段15が検出した上記第1の所定の動きに対応して、上記表示装置9上の上記移動可能な視覚的指示手段24の移動距離が一定となるように制御することを特徴とする請求項15記載の遠隔制御装置。
  17. 電子機器1乃至12及び16の遠隔制御方法において、
    表示装置9上に、上記電子機器1乃至12及び16の実行可能な処理を表すアイコン22を表示する表示ステップと、
    視野内の上記移動オブジェクト20の所定の動きを遠隔制御開始の指示として検出し、上記移動オブジェクト20の動きを追跡し、上記移動オブジェクト20の動きを示すカーソル制御信号を出力する動作検出ステップと、
    上記移動オブジェクト20の動きに追従する移動可能な視覚的指示手段24を表示させるように上記表示装置9を制御し、上記移動可能な視覚的指示手段24を用いてユーザが選択したアイコン22に対応する処理を実行させるように上記電子機器1乃至12及び16を制御する制御ステップと備える遠隔制御方法。
  18. ユーザによる上記アイコン22の選択を検出するステップは、上記移動可能な視覚的指示手段24及び特定のアイコン22が上記表示装置9上で重なったとき、上記移動オブジェクト20の所定の動きを検出するステップを有することを特徴とする請求項17記載の遠隔制御方法。
  19. ユーザによる上記アイコン22の選択を検出するステップは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における、上記移動オブジェクト20の動きの停止を検出するステップを有することを特徴とする請求項17記載の遠隔制御方法。
  20. 上記移動可能な視覚的指示手段24は、カーソルであることを特徴とする請求項17記載の遠隔制御方法。
  21. 上記電子機器1乃至12及び16は、テレビジョン受像器9であることを特徴とする請求項17記載の遠隔制御方法。
  22. 上記表示ステップは、陰極線管9上に表示するステップを有することを特徴とする請求項17記載の遠隔制御方法。
  23. 上記所定の動きは、上記移動オブジェクト20による円を描く動きであること特徴とする請求項17記載の遠隔制御方法。
  24. 上記動作検出ステップにおいて、ビデオカメラ13、31を用いることを特徴とする請求項17記載の遠隔制御方法。
  25. 上記動作検出ステップは、上記ビデオカメラ13、31が出力する映像信号における2つの連続するビデオフレーム間の各々のマクロブロックの動きベクトルを算出するステップを有することを特徴とする請求項24記載の遠隔制御方法。
  26. 上記ビデオフレームの各々は、上記移動オブジェクト20の動きを示す複数の動きベクトルを有する複数のマクロブロックから構成される領域1及び領域2を有し、上記領域1及び2において、隣接する複数の動きベクトルはほぼ同方向を指すことを特徴とする請求項25記載の遠隔制御方法。
  27. 上記移動オブジェクト20を追跡するか追跡しないかを決定するとき、ビデオフレームの各々について、上記領域1及び領域2が、(a)上記動きベクトルが時計回り又は反時計回りに一回転する、(b)上記領域1及び領域2が初めに位置していた位置に戻るという2つの条件を満たすものであるかを判断し、上記2つの条件を満たす領域をロックするステップを有する請求項26記載の遠隔制御方法。
  28. 上記検出ステップは、上記ビデオカメラ13,31が出力する画像信号をMPEG規格に基づいて符号化するステップに属し、上記ビデオカメラ13,31が出力する映像信号における前ビデオフレーム及び現ビデオフレーム間の各々のマクロブロック間に関して動きベクトルを算出するステップを有することを特徴とする請求項24記載の遠隔制御方法。
  29. 上記ビデオフレームは、上記移動オブジェクト20の検出された動きを示す動きベクトルを有する複数のマクロブロックから構成される領域1及び領域2を有し、上記領域1及び領域2において、隣接する動きベクトルはほぼ同方向を示すことを特徴とする請求項28記載の遠隔制御方法。
  30. 上記移動オブジェクト20を追跡するか追跡しないかを決定するとき、ビデオフレームの各々について、上記領域1及び領域2が、(a)上記動きベクトルが時計回り又は反時計回りに一回転する、(b)上記領域1及び領域2が初めに位置していた位置に戻るという2つの条件を満たすものであるかを判断し、上記2つの条件を満たす領域をロックするステップを有する請求項28記載の遠隔制御方法。
  31. 上記動作検出ステップにおいて検出された上記移動オブジェクト20の移動距離に対応して、上記表示装置9上に表示される上記移動可能な視覚的指示手段24の移動距離を自動的に調整するステップを有する請求項17記載の遠隔制御方法。
  32. 上記表示装置9上に表示される上記移動可能な視覚的指示手段24の移動距離を自動的に調整するステップは、上記動作検出ステップにおいて検出された所定の動きに対応して、上記表示装置9上の上記移動可能な視覚的指示手段24の移動距離が一定であるように調整するステップを有することを特徴とする請求項31記載の遠隔制御方法。
  33. 電子機器1乃至12及び16用の遠隔制御装置において、
    電子機器1乃至12及び16が実行可能な処理を表す複数のアイコン22を表示する表示装置9と、
    視野内の移動オブジェクトの動きを検出する動作検出手段15であって、視野内の移動オブジェクト20を遠隔制御開始の指示として検出し、上記移動オブジェクト20の動きに追従し、上記移動オブジェクト20の動きを示すカーソル制御信号を出力する動作検出手段15と、
    上記表示装置9、上記電子機器1乃至12及び16及び上記動作検出手段15に接続し、上記カーソル制御信号を受信し、上記移動オブジェクト20の動きに追従する移動可能な視覚的指示手段24を表示させるように上記表示装置9を制御し、上記移動可能な視覚的指示手段24を用いてユーザが選択したアイコン22に対応する動作を実行させるように上記電子機器1乃至12及び16を制御する制御手段5乃至8及び13乃至16とを備える遠隔制御装置。
  34. 上記動作検出手段15は、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なったとき、上記移動オブジェクトの所定の動きを検出することにより、ユーザによるアイコン22の選択を検出することを特徴とする請求項33記載の遠隔制御装置。
  35. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における上記移動オブジェクト20の動きの停止であることを特徴とする請求項34記載の遠隔制御装置。
  36. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における、上記移動オブジェクト20の上記表示装置9に対する垂直軸上の動きであることを特徴とする請求項33記載の遠隔制御装置。
  37. 上記動作検出手段15は、初めに、視野内の上記移動オブジェクト20の所定の動きを遠隔制御開始の指示として検出することを特徴とする請求項33記載の遠隔制御装置。
  38. 上記動作検出手段15は、少なくとも1つのビデオカメラ13を備えることを特徴とする請求項33記載の遠隔制御装置。
  39. 上記動作検出手段15は、上記ビデオカメラ13が出力する画像信号における、時間的に連続する2つのビデオフレームn−1及びビデオフレームn間の互いに対応する各々のマクロブロックMBm(n−1)、MBm(n)の画素値を比較し、上記マクロブロックMBmに関して、2つのビデオフレームn−1及びビデオフレームn間の画素値の差が所定の閾値を超えるとき、上記マクロブロックMBmにおいて動作が行われたと判断し、上記マクロブロックMBmを活性領域であると判断することを特徴する請求項38記載の遠隔制御装置。
  40. 上記動作検出手段15は、上記移動オブジェクト20を検出するとき、時間的に連続する2つのビデオフレームn−1及びビデオフレームnにおける各々のマクロブロックMBm(n−1)、MBm(n)を検査し、1つのビデオフレーム内の隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性領域化する所定のパターンを示すものであるかを判断することを特徴とする請求項39記載の遠隔制御装置。
  41. 上記動作検出手段15は、上記移動オブジェクト20を検出するとき、1つのビデオフレーム内の隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性化領域する所定のパターンを示すものであることを判断した後、現活性領域が有する画像及び格納された画像を比較し、上記現活性領域が有する画像及び上記格納された画像が一致するとき、上記ビデオカメラ13が出力する画像の現活性領域は上記移動オブジェクト20であることを判断することを特徴とする請求項40記載の遠隔制御装置。
  42. 上記動作検出手段15は、上記移動オブジェクト20を検出するとき、上記ビデオカメラ13が出力する画像においてユーザが選択した画像部分25及び格納された画像を比較し、上記ビデオカメラ13が出力する画像においてユーザが選択した画像部分25と格納された画像が一致するとき、上記画像部分25を上記移動オブジェクト20であると判断することを特徴とする請求項38記載の遠隔制御装置。
  43. 上記移動可能な視覚的指示手段24は、カーソルであることを特徴とする請求項33記載の遠隔制御装置。
  44. 上記電子機器1乃至12及び16は、テレビジョン受像器9であることを特徴とする請求項33記載の遠隔制御装置。
  45. 上記表示装置9は、陰極線管であることを特徴とする請求項33記載の遠隔制御装置。
  46. 上記遠隔制御装置は、上記動作検出手段15が検出した移動オブジェクト20の移動距離に対応して、上記表示装置9上に表示される上記移動可能な視覚的指示手段24の移動距離を自動的に調整する自動カーソル感度制御手段16を備えることを特徴とする請求項33記載の遠隔制御装置。
  47. 上記自動カーソル感度制御手段16は、上記動作検出手段15が検出した上記第1の所定の動きに対応して、上記表示装置9上の上記移動可能な視覚的指示手段24の移動距離が一定となるように制御することを特徴とする請求項46記載の遠隔制御装置。
  48. 上記動作検出手段15は、互いに直角をなすように設置され、ユーザを監視する2つのビデオカメラ13、31を備えることを特徴とする請求項33記載の遠隔制御装置。
  49. 上記動作検出手段15は、上記ビデオカメラ13、31が出力する画像信号における、時間的に連続する2つのビデオフレームn−1及びビデオフレームn間の互いに対応する各々のマクロブロックMBm(n−1)、MBm(n)の画素値を比較し、上記マクロブロックMBmに関して、2つのビデオフレームn−1及びビデオフレームn間の画素値の差が所定の閾値を超えるとき、上記マクロブロックMBmにおいて動作が行われたと判断し、上記マクロブロックMBmを活性領域であると判断することを特徴する請求項48記載の遠隔制御装置。
  50. 上記動作検出手段15は、上記移動オブジェクト20を検出するとき、上記ビデオカメラ13、31が出力する画像信号における、時間的に連続する2つのビデオフレームn−1及びビデオフレームn間の互いに対応する各々のマクロブロックMBm(n−1)、MBm(n)を検査し、1つのビデオフレーム内の隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性領域化する所定のパターンを示すものであるかを判断することを特徴とする請求項49記載の遠隔制御装置。
  51. 上記動作検出手段15は、移動オブジェクト20を検出するとき、上記ビデオカメラ13、31の各々が出力する1つのビデオフレーム内の隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性化領域する所定のパターンを示すものであることを判断した後、上記ビデオカメラ13、31の両方が出力する画像の活性領域を活性領域としてロックすることを特徴とする請求項50記載の遠隔制御装置。
  52. 上記動作検出手段15は、上記移動オブジェクト20を検出するとき、1つのビデオフレーム内の隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性化領域する所定のパターンを示すものであることを判断した後、現活性領域が有する画像及び格納された画像を比較し、上記現活性領域が有する画像及び上記格納された画像が一致するとき、上記ビデオカメラ13、31が出力する画像の現活性領域は上記移動オブジェクト20であることを判断することを特徴とする請求項50記載の遠隔制御装置。
  53. 上記動作検出手段15は、上記移動オブジェクト20を検出するとき、上記ビデオカメラ13、31が出力する画像においてユーザが選択した画像部分25及び格納された画像を比較し、上記ビデオカメラ13、31が出力する画像においてユーザが選択した画像部分25と格納された画像が一致するとき、上記画像部分25を上記移動オブジェクト20であると判断することを特徴とする請求項48記載の遠隔制御装置。
  54. 上記動作検出手段15は、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なったとき、上記移動オブジェクト20の所定の動きを検出することにより、ユーザによるアイコン22の選択を検出することを特徴とする請求項48記載の遠隔制御装置。
  55. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における上記移動オブジェクト20の動きの停止であることを特徴とする請求項54記載の遠隔制御装置。
  56. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における、上記移動オブジェクト20の上記表示装置9に対する垂直軸上の動きであることを特徴とする請求項54記載の遠隔制御装置。
  57. 電子機器1乃至12及び16の遠隔制御方法において、
    表示装置9上に、上記電子機器1乃至12及び16の実行可能な処理を表すアイコン22を表示する表示ステップと、
    視野内の移動オブジェクトの動きを検出する動作検出ステップであって、上記移動オブジェクト20を遠隔制御開始の指示として検出し、上記移動オブジェクト20の動きを追跡し、上記移動オブジェクト20の動きを示すカーソル制御信号を出力する動作検出ステップと、
    上記移動オブジェクト20の動きに追従する移動可能な視覚的指示手段24を表示させるように上記表示装置9を制御し、上記移動可能な視覚的指示手段24を用いてユーザが選択したアイコン22に対応する処理を実行させるように上記電子機器1乃至12及び16を制御する制御ステップと備える遠隔制御方法。
  58. 上記動作検出ステップは、上記移動可能な視覚的指示手段24と上記特定のアイコン22が上記表示装置9上で重なったとき、上記移動オブジェクト20の所定の動きを検出することにより、ユーザが上記アイコン22を選択したことを判断するステップを有することを特徴とする請求項57記載の遠隔制御方法。
  59. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における上記移動オブジェクト20の動きの停止であることを特徴とする請求項57記載の遠隔制御方法。
  60. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における、上記移動オブジェクト20の上記表示装置9に対する垂直軸上の動きであることを特徴とする請求項57記載の遠隔制御方法。
  61. 上記動作検出ステップは、初めに、視野内の上記移動オブジェクト20の所定の動きを遠隔制御開始の指示として検出するステップを有することを特徴とする請求項57記載の遠隔制御方法。
  62. 上記動作検出ステップは、上記ビデオカメラ13を用いて、視野内の画像を生成するステップを有することを特徴とする請求項57記載の遠隔制御方法。
  63. 上記動作検出ステップは、上記ビデオカメラ13が出力する画像信号における時間的に連続する2つのビデオフレーム間の各々の対応するマクロブロックの画素値を比較し、上記マクロブロックにおける2つのビデオフレーム間の差分が所定の閾値を超えたとき、上記マクロブロックにおいて動作が行われたと判断し、上記マクロブロックが活性領域であると判断するステップを有することを特徴とする請求項62記載の遠隔制御方法。
  64. 上記動作検出ステップは、上記移動オブジェクト20を検出するとき、時間的に連続する2つのビデオフレームにおける各々対応する上記マクロブロックを検査し、1つのビデオフレーム内において、隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性領域化する所定のパターンを示すものであるかを判断するステップを有することを特徴とする請求項63記載の遠隔制御方法。
  65. 上記動作検出ステップは、上記移動オブジェクト20を検出するとき、上記ビデオカメラ13、31の各々が出力する1つのビデオフレーム内において、隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性領域化する所定のパターンを示すことを判断した後、現活性領域が有する画像及び格納された画像を比較し、上記現活性領域が有する画像と格納された画像が一致するとき、上記ビデオカメラ13、31が出力する画像の現活性領域は上記移動オブジェクト20であることを判断するステップを有することを特徴とする請求項63記載の遠隔制御方法。
  66. 上記動作検出ステップは、上記移動オブジェクト20を検出するとき、1つのビデオフレーム内において、隣接する複数のマクロブロックの集合が活性領域化し、続いて非活性領域化する所定のパターンを示すことを判断した後、現活性領域が有する画像と格納された画像を比較し、現活性領域が有する画像と格納された画像が一致するとき、上記ビデオカメラ13が出力する画像の現活性領域は上記移動オブジェクト20であることを判断するステップを有することを特徴とする請求項65記載の遠隔制御方法。
  67. 上記動作検出ステップは、上記移動オブジェクト20を検出するとき、上記ビデオカメラ13が出力する画像においてユーザが選択した画像部分及び格納された画像を比較し、上記ビデオカメラ13が出力する画像においてユーザが選択した画像部分と上記格納された画像が一致するとき、ユーザが選択した画像部分は上記移動オブジェクト20であることを判断するステップを有することを特徴とする請求項66記載の遠隔制御方法。
  68. 上記移動可能な視覚的指示手段24は、カーソルであることを特徴とする請求項57記載の遠隔制御方法。
  69. 上記電子機器1乃至12及び16は、テレビジョン受像器であることを特徴とする請求項57記載の遠隔制御方法。
  70. 上記表示装置9は、陰極線管であることを特徴とする請求項57記載の遠隔制御方法。
  71. 上記動作検出ステップにおいて検出された上記移動オブジェクト20の移動距離に対応して、上記表示装置9上に表示される上記移動可能な視覚的指示手段24の移動距離を自動的に調整するステップを有する請求項57記載の遠隔制御方法。
  72. 上記表示装置9上に表示される上記移動可能な視覚的指示手段24の移動距離を自動的に調整するステップは、上記動作検出ステップにおいて検出された所定の動きに対応して、上記表示装置9上の上記移動可能な視覚的指示手段24の移動距離が一定であるように調整するステップを有することを特徴とする請求項71記載の遠隔制御方法。
  73. 上記動作検出ステップは、互いに直角をなすよう設置され、ユーザを監視する上記ビデオカメラ13、31を用いて、同時に2つの画像を生成するステップを有することを特徴とする請求項57記載の遠隔制御方法。
  74. 上記動作検出ステップは、上記ビデオカメラ13、31が出力する画像信号における時間的に連続する2つのビデオフレーム間の各々の対応するマクロブロックの画素値を比較し、上記マクロブロックにおける2つのビデオフレーム間の差分が所定の閾値を超えたとき、上記マクロブロックにおいて動作が行われたと判断し、上記マクロブロックが活性領域であると判断するステップを有することを特徴とする請求項73記載の遠隔制御方法。
  75. 上記動作検出ステップは、上記移動オブジェクト20を検出するとき、ビデオカメラ13、31が出力する画像信号における時間的に連続する2つのビデオフレーム内のマクロブロックを検査し、1つのビデオフレーム内において、隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性領域化する所定のパターンを示すものであるかを判断するステップを有することを特徴とする請求項74記載の遠隔制御方法。
  76. 上記動作検出ステップは、上記移動オブジェクト20を検出するとき、上記ビデオカメラ13、31の各々が出力する1つのビデオフレーム内において、隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性領域化する所定のパターンを示すことを判断した後、現活性領域が有する画像及び格納された画像を比較し、上記現活性領域が有する画像と格納された画像が一致するとき、上記ビデオカメラ13、31が出力する画像の現活性領域は上記移動オブジェクト20であることを判断するステップを有することを特徴とする請求項45記載の遠隔制御方法。
  77. 上記動作検出ステップは、上記移動オブジェクト20を検出するとき、上記ビデオカメラ13、31が出力する画像においてユーザが選択した画像部分及び格納された画像を比較し、上記ビデオカメラ13、31が出力する画像においてユーザが選択した画像部分と上記格納された画像が一致するとき、ユーザが選択した画像部分は上記移動オブジェクト20であることを判断するステップを有することを特徴とする請求項73記載の遠隔制御方法。
  78. 上記動作検出ステップは、上記移動可能な視覚的指示手段24及び特定のアイコン22が上記表示装置上で重なったとき、上記移動オブジェクト20の所定の動きを検出することにより、ユーザによるアイコンの選択を検出するステップを有することを特徴とする請求項73記載の遠隔制御方法。
  79. 上記第2の所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における上記移動オブジェクト20の動きの停止であることを特徴とする請求項78記載の遠隔制御方法。
  80. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後のある一定時間内における、上記移動オブジェクト20の上記表示装置9に対する垂直軸上の動きであることを特徴とする請求項33記載の遠隔制御方法。
  81. 電子機器1乃至12及び16用の遠隔制御装置において、
    電子機器1乃至12及び16の実行可能な動作を表すアイコン22を表示する表示装置9と、
    視野内のユーザの体の一部20を遠隔制御開始の指示として検出し、続いて、体の一部20の動きを追跡し、上記ユーザの体の一部20の動きを示すカーソル制御信号を出力する動作検出手段15と、
    上記表示装置9、上記電子機器1乃至12及び16及び上記動作検出手段15に接続し、上記カーソル制御信号を受信し、上記ユーザの体の一部20の動きに追従する移動可能な視覚的指示手段24を表示させるように上記表示装置9を制御し、上記移動可能な視覚的指示手段24を用いてユーザが選択した上記アイコン22に対応する動作を実行させるように上記電子機器1乃至12及び16を制御する制御手段5乃至8及び13乃至16とを備え、
    上記動作検出手段15は、ビデオカメラ13と、ランダムアクセスメモリ(random access memory)14と、上記ビデオカメラ13が出力する画像信号を上記ランダムアクセスメモリ14に格納するランダムアクセスメモリインターフェース15と、上記ランダムアクセスメモリインターフェース15に接続し、上記ビデオカメラ13が出力する画像信号における、時間的に連続した2つのビデオフレームn−1及びビデオフレームn間の互いに対応する各々のマクロブロックMBm(n−1)、MBm(n)の画素値を比較し、マクロブロックMBmに関して、上記2つのビデオフレームn−1及びビデオフレームn間の画素値の差が所定の閾値を超えたとき、上記マクロブロックMBmにおいて動作が行われたと判断し、上記マクロブロックMBmを活性領域であると判断する中央制御装置16とを備え、
    上記制御手段5乃至8及び13乃至16は、上記中央処理装置16が制御する分離表示画面回路5を備えることを特徴とする遠隔制御装置。
  82. 上記動作検出手段15は、視野内の上記ユーザの体の一部20の所定の動きを遠隔制御開始の指示として検出することを特徴とする請求項81記載の遠隔制御装置。
  83. 上記中央処理装置16は、上記ユーザの体の一部20を検出するとき、時間的に連続する2つのビデオフレームにおける各々の対応するマクロブロックを検査し、1つのビデオフレーム内の隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性領域化する所定のパターンを示すものであるかを判断することを特徴とする請求項82記載の遠隔制御装置。
  84. 上記中央処理装置16は、上記ユーザの体の一部20を検出するとき、1つのビデオフレーム内の隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性領域化する所定のパターンを示すものであることを判断した後、現活性領域が有する画像及び上記ランダムアクセスメモリ14に格納された画像を比較し、上記現活性領域が有する画像及び上記ランダムアクセスメモリ14に格納された画像が一致するとき、上記ビデオカメラ13が出力する画像の現活性領域は上記ユーザの体の一部20であると判断することを特徴とする請求項83記載の遠隔制御装置。
  85. 上記中央処理装置16は、上記ユーザの体の一部20を検出するとき、上記ビデオカメラ13が出力する画像においてユーザが選択した画像部分25及び格納された画像を比較し、上記ビデオカメラ13が出力する画像においてユーザが選択した上記画像部分25と格納された画像が一致するとき、上記画像部分25は上記ユーザの体の一部20であると判断することを特徴とする請求項82記載の遠隔制御装置。
  86. 上記中央処理装置16は、上記移動可能な視覚的指示手段24及び特定のアイコン22が上記表示装置9上で重なったとき、上記ユーザの体の一部20の所定の動きを検出することにより、ユーザによる上記アイコン22の選択を検出することを特徴とする請求項81記載の遠隔制御装置。
  87. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後の、ある一定時間内における上記ユーザの体の一部20の動きの停止であることを特徴とする請求項86記載の遠隔制御装置。
  88. 上記所定の動きは、上記移動可能な視覚的指示手段24と特定のアイコン22が上記表示装置9上で重なった後の、ある一定時間内における、上記ユーザの体の一部20の上記表示装置9に対する垂直軸上の動きであることを特徴とする請求項86記載の遠隔制御装置。
  89. 上記動作検出手段15は、第1のビデオカメラ13と、上記第1のビデオカメラ13に対して垂直方向に設置され、ユーザを監視する第2のビデオカメラ31と、第2のランダムアクセスメモリ32と、第2のランダムアクセスメモリインターフェース33とを備えることを特徴とする請求項81記載の遠隔制御装置。
  90. 上記中央処理装置16は、上記ビデオカメラ13、31の各々が出力する画像信号における、時間的に連続する2つのビデオフレーム間の互いに対応する各々のマクロブロックMBm(n−1)、MBm(n)の画素値を比較し、第1のマクロブロックに対応する2つのランダムアクセスメモリ14、32のうち、第1のランダムアクセスメモリに格納された2つのビデオフレーム間の差分が、所定の閾値を超えたとき、上記第1のマクロブロックにおいて動作が行われたと判断し、上記第1のマクロブロックを活性領域として判断し、第2のマクロブロックに対応する2つのランダムアクセスメモリ14、32のうち、第2のランダムアクセスメモリに格納された2つのビデオフレーム間の差分が、所定の閾値を超えたとき、上記第2のマクロブロックにおいて動作が行われたと判断し、上記第2のマクロブロックを活性領域として判断することを特徴とする請求項88記載の遠隔制御装置。
  91. 上記中央処理装置16は、上記ユーザの体の一部20を検出するとき、上記ビデオカメラ13、31が出力する画像信号における時間的に連続する2つのビデオフレーム内の各々対応するマクロブロックを検査し、1つのビデオフレーム内において、隣接する複数のマクロブロックの集合が、活性領域化し、続いて、非活性領域化する所定のパターンを示すものであるかを判断することを特徴とする請求項90記載の遠隔制御装置。
  92. 上記中央処理装置16は、上記ユーザの体の一部20を検出するとき、1つのビデオフレーム内の隣接する複数のマクロブロックの集合が、活性領域化し、続いて非活性化領域する所定のパターンを示すものであることを判断した後、現活性領域が有する画像及び格納された画像を比較し、上記現活性領域が有する画像及び格納された画像が一致するとき、上記ビデオカメラ13、31が出力する画像の現活性領域は上記ユーザの体の一部20であることを判断することを特徴とする請求項91記載の遠隔制御装置。
  93. 上記中央処理装置16は、上記ユーザの体の一部20を検出するとき、ビデオカメラ13、31が出力する画像においてユーザが選択した画像部分25及び上記ランダムアクセスメモリ14、32のどちらか一方のランダムアクセスメモリに格納された画像を比較し、上記ビデオカメラ13、31が出力する画像においてユーザが選択した画像部分25と上記ランダムアクセスメモリ14、32のどちらか一方のランダムアクセスメモリに格納された画像が一致するとき、上記画像部分25は上記ユーザの体の一部20であると判断することを特徴とする請求項92記載の遠隔制御装置。
JP2011062985A 1998-10-13 2011-03-22 動作検知インターフェース Expired - Lifetime JP5222376B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US09/170,871 US6501515B1 (en) 1998-10-13 1998-10-13 Remote control system
US09/170871 1998-10-13
US09/193594 1998-11-17
US09/193,594 US6498628B2 (en) 1998-10-13 1998-11-17 Motion sensing interface

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP29153999A Division JP5048890B2 (ja) 1998-10-13 1999-10-13 動作検知インターフェース

Publications (2)

Publication Number Publication Date
JP2011170866A true JP2011170866A (ja) 2011-09-01
JP5222376B2 JP5222376B2 (ja) 2013-06-26

Family

ID=22621622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011062985A Expired - Lifetime JP5222376B2 (ja) 1998-10-13 2011-03-22 動作検知インターフェース

Country Status (2)

Country Link
US (2) US6501515B1 (ja)
JP (1) JP5222376B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196391A (ja) * 2012-03-19 2013-09-30 Fujitsu Ltd 情報処理装置、メニュー選択プログラム、及びメニュー選択方法
JP2015103073A (ja) * 2013-11-26 2015-06-04 京セラドキュメントソリューションズ株式会社 操作表示装置
JP2017027098A (ja) * 2015-07-15 2017-02-02 株式会社東芝 操作認識装置、操作認識方法及びプログラム
JP2017084003A (ja) * 2015-10-26 2017-05-18 船井電機株式会社 入力装置

Families Citing this family (381)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8381126B2 (en) 1992-12-14 2013-02-19 Monkeymedia, Inc. Computer user interface with non-salience deemphasis
US5623588A (en) 1992-12-14 1997-04-22 New York University Computer user interface with non-salience deemphasis
US20080158261A1 (en) 1992-12-14 2008-07-03 Eric Justin Gould Computer user interface for audio and/or video auto-summarization
US6947571B1 (en) * 1999-05-19 2005-09-20 Digimarc Corporation Cell phones with optical capabilities, and related applications
US9513744B2 (en) 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US8482534B2 (en) 1995-06-29 2013-07-09 Timothy R. Pryor Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US8228305B2 (en) 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8202094B2 (en) * 1998-02-18 2012-06-19 Radmila Solutions, L.L.C. System and method for training users with audible answers to spoken questions
US7148909B2 (en) * 1998-05-27 2006-12-12 Canon Kabushiki Kaisha Image display system capable of displaying and scaling images on plurality of image sources and display control method therefor
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
US7212197B1 (en) * 1999-02-01 2007-05-01 California Institute Of Technology Three dimensional surface drawing controlled by hand motion
US20060061551A1 (en) * 1999-02-12 2006-03-23 Vega Vista, Inc. Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection
US20060279542A1 (en) * 1999-02-12 2006-12-14 Vega Vista, Inc. Cellular phones and mobile devices with motion driven control
US10051298B2 (en) 1999-04-23 2018-08-14 Monkeymedia, Inc. Wireless seamless expansion and video advertising player
US6621980B1 (en) * 1999-04-23 2003-09-16 Monkeymedia, Inc. Method and apparatus for seamless expansion of media
US6393158B1 (en) 1999-04-23 2002-05-21 Monkeymedia, Inc. Method and storage device for expanding and contracting continuous play media seamlessly
US8874244B2 (en) * 1999-05-19 2014-10-28 Digimarc Corporation Methods and systems employing digital content
US7406214B2 (en) 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US7760905B2 (en) 1999-06-29 2010-07-20 Digimarc Corporation Wireless mobile phone with content processing
US20020032734A1 (en) 2000-07-26 2002-03-14 Rhoads Geoffrey B. Collateral data combined with user characteristics to select web site
US7233312B2 (en) * 2000-07-31 2007-06-19 Panaseca, Inc. System and method for optimal viewing of computer monitors to minimize eyestrain
US6592223B1 (en) * 1999-10-07 2003-07-15 Panaseca, Inc. System and method for optimal viewing of computer monitors to minimize eyestrain
FR2799916A1 (fr) * 1999-10-15 2001-04-20 Yves Jean Paul Guy Reza Ensemble d'interface entre un utilisateur et un dispositif electronique
US6901561B1 (en) * 1999-10-19 2005-05-31 International Business Machines Corporation Apparatus and method for using a target based computer vision system for user interaction
US6608648B1 (en) * 1999-10-21 2003-08-19 Hewlett-Packard Development Company, L.P. Digital camera cursor control by sensing finger position on lens cap
US8391851B2 (en) * 1999-11-03 2013-03-05 Digimarc Corporation Gestural techniques with wireless mobile phone devices
US8482535B2 (en) 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US8576199B1 (en) 2000-02-22 2013-11-05 Apple Inc. Computer control systems
US7466843B2 (en) * 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US6944315B1 (en) * 2000-10-31 2005-09-13 Intel Corporation Method and apparatus for performing scale-invariant gesture recognition
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US6750801B2 (en) 2000-12-29 2004-06-15 Bellsouth Intellectual Property Corporation Remote control device with directional mode indicator
US7653926B2 (en) * 2000-12-29 2010-01-26 At&T Intellectual Property I, L.P. Remote control device with event notifier
US6903655B2 (en) * 2000-12-29 2005-06-07 Bellsouth Intellectual Property Corp. Remote control device with illumination
US6946970B2 (en) * 2000-12-29 2005-09-20 Bellsouth Intellectual Property Corp. Remote control device with smart card capability
US20020174426A1 (en) * 2001-05-15 2002-11-21 Koninklijke Philips Electronics N.V Method and apparatus for activating a media player based on user behavior
JP4366886B2 (ja) * 2001-05-24 2009-11-18 コニカミノルタビジネステクノロジーズ株式会社 画像認識のための装置と方法
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
JP3811025B2 (ja) * 2001-07-03 2006-08-16 株式会社日立製作所 ネットワーク・システム
EP1428171B1 (de) * 2001-09-07 2011-11-09 Me-In GmbH Bedienvorrichtung
JP4974319B2 (ja) * 2001-09-10 2012-07-11 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
US7023499B2 (en) * 2001-09-21 2006-04-04 Williams Cassandra S Television receiver with motion sensor
KR100426174B1 (ko) * 2001-10-29 2004-04-06 삼성전자주식회사 영상압축 알고리즘을 이용한 카메라 제어방법
US20030095154A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Method and apparatus for a gesture-based user interface
US6564144B1 (en) * 2002-01-10 2003-05-13 Navigation Technologies Corporation Method and system using a hand-gesture responsive device for collecting data for a geographic database
US20030132913A1 (en) * 2002-01-11 2003-07-17 Anton Issinski Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20030179249A1 (en) * 2002-02-12 2003-09-25 Frank Sauer User interface for three-dimensional data sets
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7782297B2 (en) 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US20070015559A1 (en) * 2002-07-27 2007-01-18 Sony Computer Entertainment America Inc. Method and apparatus for use in determining lack of user activity in relation to a system
DE10236937A1 (de) * 2002-08-12 2004-02-26 BSH Bosch und Siemens Hausgeräte GmbH Elektrisches Gerät
US6654001B1 (en) * 2002-09-05 2003-11-25 Kye Systems Corp. Hand-movement-sensing input device
US7358963B2 (en) 2002-09-09 2008-04-15 Apple Inc. Mouse having an optically-based scrolling feature
US8245252B2 (en) * 2002-09-10 2012-08-14 Caption Tv, Inc. System, method, and computer program product for selective replacement of objectionable program content with less-objectionable content
US6996460B1 (en) 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US7030856B2 (en) * 2002-10-15 2006-04-18 Sony Corporation Method and system for controlling a display device
KR100575906B1 (ko) * 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
JP2004173003A (ja) * 2002-11-20 2004-06-17 Toshiba Corp 放送受信装置とコード信号出力装置及びその制御方法
AU2003296487A1 (en) * 2002-12-09 2004-06-30 Adam Kaplan Method and apparatus for user interface
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US20040119682A1 (en) * 2002-12-18 2004-06-24 International Business Machines Corporation Self-correcting autonomic mouse
US20040196400A1 (en) * 2003-04-07 2004-10-07 Stavely Donald J. Digital camera user interface using hand gestures
CN1938672A (zh) * 2003-04-14 2007-03-28 皇家飞利浦电子股份有限公司 电气设备以及该设备与用户之间进行交流的方法
US20040252101A1 (en) * 2003-06-12 2004-12-16 International Business Machines Corporation Input device that detects user's proximity
US20050018172A1 (en) * 2003-07-23 2005-01-27 Neil Gelfond Accepting user control
US20050115816A1 (en) * 2003-07-23 2005-06-02 Neil Gelfond Accepting user control
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP4306397B2 (ja) * 2003-10-08 2009-07-29 株式会社日立製作所 認識処理システム
EP1676442A2 (en) 2003-10-24 2006-07-05 Reactrix Systems, Inc. Method and system for managing an interactive video display system
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US20050104850A1 (en) * 2003-11-17 2005-05-19 Chia-Chang Hu Cursor simulator and simulating method thereof for using a limb image to control a cursor
US6969964B2 (en) * 2004-01-26 2005-11-29 Hewlett-Packard Development Company, L.P. Control device and method of use
FR2866181B1 (fr) * 2004-02-09 2006-03-31 Canon Europa Nv Procede et dispositif de distribution d'un signal audiovisuel dans un reseau de communication, procede et dispositif de validation correspondants.
JP2005242694A (ja) * 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置
JP3746060B2 (ja) * 2004-07-20 2006-02-15 コナミ株式会社 ゲーム装置、コンピュータの制御方法及びプログラム
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
KR20070059107A (ko) * 2004-09-03 2007-06-11 파나세카 인코포레이티드 비전 센터 키오스크
JP4419768B2 (ja) * 2004-09-21 2010-02-24 日本ビクター株式会社 電子機器の制御装置
US20060152482A1 (en) 2005-01-07 2006-07-13 Chauncy Godwin Virtual interface and control device
EP1851750A4 (en) * 2005-02-08 2010-08-25 Oblong Ind Inc SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US7415352B2 (en) * 2005-05-20 2008-08-19 Bose Corporation Displaying vehicle information
US8427426B2 (en) * 2005-05-27 2013-04-23 Sony Computer Entertainment Inc. Remote input device
US7548230B2 (en) * 2005-05-27 2009-06-16 Sony Computer Entertainment Inc. Remote input device
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
KR100724939B1 (ko) * 2005-06-20 2007-06-04 삼성전자주식회사 카메라부를 이용한 유저 인터페이스 구현 방법 및 이를위한 이동통신단말기
WO2007003195A1 (en) * 2005-07-04 2007-01-11 Bang & Olufsen A/S A unit, an assembly and a method for controlling in a dynamic egocentric interactive space
US20070035411A1 (en) * 2005-08-10 2007-02-15 Nokia Corporation Service selection
US20070045257A1 (en) * 2005-08-30 2007-03-01 United Technologies Corporation Laser control system
US20070045250A1 (en) * 2005-08-30 2007-03-01 United Technologies Corporation Method for manually laser welding metallic parts
US20070057912A1 (en) * 2005-09-14 2007-03-15 Romriell Joseph N Method and system for controlling an interface of a device through motion gestures
US7746985B2 (en) * 2005-09-14 2010-06-29 Sorenson Communications, Inc. Method, system and device for relay call transfer service
US7746984B2 (en) * 2005-09-14 2010-06-29 Sorenson Communications, Inc. Method and system for call initiation in a video relay service
US7742068B2 (en) * 2005-09-14 2010-06-22 Sorenson Communications, Inc. Method and system for auto configuration in a video phone system
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
KR100800998B1 (ko) 2005-12-24 2008-02-11 삼성전자주식회사 홈 네트워크 기기 제어 장치 및 방법
US8077147B2 (en) 2005-12-30 2011-12-13 Apple Inc. Mouse with optical sensing surface
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8407725B2 (en) * 2007-04-24 2013-03-26 Oblong Industries, Inc. Proteins, pools, and slawx in processing environments
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
DE102006037156A1 (de) * 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
JP4692371B2 (ja) * 2006-04-26 2011-06-01 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
JP5028038B2 (ja) * 2006-07-06 2012-09-19 クラリオン株式会社 車載表示装置および車載表示装置の表示方法
US8781151B2 (en) * 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) * 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8144121B2 (en) * 2006-10-11 2012-03-27 Victor Company Of Japan, Limited Method and apparatus for controlling electronic appliance
US20080098448A1 (en) * 2006-10-19 2008-04-24 Sony Computer Entertainment America Inc. Controller configured to track user's level of anxiety and other mental and physical attributes
US20080096654A1 (en) * 2006-10-20 2008-04-24 Sony Computer Entertainment America Inc. Game control using three-dimensional motions of controller
SG143087A1 (en) * 2006-11-21 2008-06-27 Turbine Overhaul Services Pte Laser fillet welding
US8508472B1 (en) 2006-11-28 2013-08-13 James W. Wieder Wearable remote control with a single control button
US20080134102A1 (en) * 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
US8489544B2 (en) * 2007-06-04 2013-07-16 John P. Ford System and method for prioritization and display of aggregated data
US7889175B2 (en) 2007-06-28 2011-02-15 Panasonic Corporation Touchpad-enabled remote controller and user interaction methods
CA2591808A1 (en) * 2007-07-11 2009-01-11 Hsien-Hsiang Chiu Intelligent object tracking and gestures sensing input device
US8031272B2 (en) * 2007-07-19 2011-10-04 International Business Machines Corporation System and method of adjusting viewing angle for display
TW200910147A (en) * 2007-08-24 2009-03-01 Univ Nat Chiao Tung Control apparatus and method
CN101378456B (zh) * 2007-08-28 2010-06-02 鸿富锦精密工业(深圳)有限公司 电子影像感测装置及其遥控控制方法
US9335912B2 (en) 2007-09-07 2016-05-10 Apple Inc. GUI applications for use with 3D remote controller
KR101141087B1 (ko) 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
TWI372645B (en) * 2007-10-17 2012-09-21 Cywee Group Ltd An electronic game controller with motion-sensing capability
US8031175B2 (en) * 2008-04-21 2011-10-04 Panasonic Corporation Touch sensitive remote control system that detects hand size characteristics of user and adapts mapping to screen display
US10146320B2 (en) 2007-10-29 2018-12-04 The Boeing Company Aircraft having gesture-based control for an onboard passenger service unit
US20090109036A1 (en) * 2007-10-29 2009-04-30 The Boeing Company System and Method for Alternative Communication
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
JP4670860B2 (ja) 2007-11-22 2011-04-13 ソニー株式会社 記録再生装置
US8780278B2 (en) * 2007-11-30 2014-07-15 Microsoft Corporation Motion-sensing remote control
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8115877B2 (en) * 2008-01-04 2012-02-14 International Business Machines Corporation System and method of adjusting viewing angle for display based on viewer positions and lighting conditions
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
CN102339147A (zh) * 2008-04-10 2012-02-01 江国庆 一种运算装置及其应用
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US20130076616A1 (en) * 2008-04-24 2013-03-28 Ambrus Csaszar Adaptive tracking system for spatial input devices
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
TWI363491B (en) * 2008-04-28 2012-05-01 Chihwei Wang A sensing controller
TWI366780B (en) * 2008-05-16 2012-06-21 Tatung Co A video based apparatus and method for controlling the cursor
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
EP2304527A4 (en) * 2008-06-18 2013-03-27 Oblong Ind Inc GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES
CN108664156B (zh) 2008-07-01 2022-02-25 Idhl控股公司 3d定位器映射
US8154428B2 (en) * 2008-07-15 2012-04-10 International Business Machines Corporation Gesture recognition control of electronic devices using a multi-touch device
TWI369899B (en) * 2008-07-21 2012-08-01 Ind Tech Res Inst Method and system for tracking human extremity positions
US8305345B2 (en) * 2008-08-07 2012-11-06 Life Technologies Co., Ltd. Multimedia playing device
US8473979B2 (en) 2008-09-30 2013-06-25 Echostar Technologies L.L.C. Systems and methods for graphical adjustment of an electronic program guide
US8572651B2 (en) 2008-09-22 2013-10-29 EchoStar Technologies, L.L.C. Methods and apparatus for presenting supplemental information in an electronic programming guide
US8937687B2 (en) 2008-09-30 2015-01-20 Echostar Technologies L.L.C. Systems and methods for graphical control of symbol-based features in a television receiver
US9357262B2 (en) * 2008-09-30 2016-05-31 Echostar Technologies L.L.C. Systems and methods for graphical control of picture-in-picture windows
US8582957B2 (en) 2008-09-22 2013-11-12 EchoStar Technologies, L.L.C. Methods and apparatus for visually displaying recording timer information
US8763045B2 (en) 2008-09-30 2014-06-24 Echostar Technologies L.L.C. Systems and methods for providing customer service features via a graphical user interface in a television receiver
US8397262B2 (en) * 2008-09-30 2013-03-12 Echostar Technologies L.L.C. Systems and methods for graphical control of user interface features in a television receiver
US8793735B2 (en) 2008-09-30 2014-07-29 EchoStar Technologies, L.L.C. Methods and apparatus for providing multiple channel recall on a television receiver
US8133119B2 (en) * 2008-10-01 2012-03-13 Microsoft Corporation Adaptation for alternate gaming input devices
PT104205A (pt) * 2008-10-03 2010-04-05 Exva Experts In Video Analisys Método e sistema de interacção entre actores e superfícies pela detecção de movimento
KR20100039017A (ko) * 2008-10-07 2010-04-15 한국전자통신연구원 메뉴 마크업 언어를 이용한 원격 제어 장치
US9100614B2 (en) 2008-10-31 2015-08-04 Echostar Technologies L.L.C. Graphical interface navigation based on image element proximity
US8502787B2 (en) 2008-11-26 2013-08-06 Panasonic Corporation System and method for differentiating between intended and unintended user input on a touchpad
US20100134409A1 (en) * 2008-11-30 2010-06-03 Lenovo (Singapore) Pte. Ltd. Three-dimensional user interface
US20120202569A1 (en) * 2009-01-13 2012-08-09 Primesense Ltd. Three-Dimensional User Interface for Game Applications
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
WO2010087796A1 (en) 2009-01-30 2010-08-05 Thomson Licensing Method for controlling and requesting information from displaying multimedia
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8294767B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Body scan
JP5364925B2 (ja) * 2009-02-27 2013-12-11 現代自動車株式会社 車載機器の入力装置
KR20100101389A (ko) * 2009-03-09 2010-09-17 삼성전자주식회사 사용자 메뉴를 제공하는 디스플레이 장치 및 이에 적용되는ui제공 방법
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8340432B2 (en) * 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
KR101821418B1 (ko) * 2009-05-04 2018-01-23 오블롱 인더스트리즈, 인크 데이터의 표현, 조작 및 교환을 포함하는 제스처-기반 시스템
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8379101B2 (en) * 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8625837B2 (en) * 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US7914344B2 (en) * 2009-06-03 2011-03-29 Microsoft Corporation Dual-barrel, connector jack and plug assemblies
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
KR20110007806A (ko) 2009-07-17 2011-01-25 삼성전자주식회사 카메라를 이용하여 손동작을 인식하는 장치 및 방법
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
DE102009037316A1 (de) * 2009-08-14 2011-02-17 Karl Storz Gmbh & Co. Kg Steuerung und Verfahren zum Betreiben einer Operationsleuchte
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
JP5343773B2 (ja) * 2009-09-04 2013-11-13 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
US8878779B2 (en) * 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
KR101038323B1 (ko) * 2009-09-24 2011-06-01 주식회사 팬택 영상인식기법을 이용한 화면 프레임 제어장치
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US20140053115A1 (en) * 2009-10-13 2014-02-20 Pointgrab Ltd. Computer vision gesture based control of a device
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
JP5529568B2 (ja) * 2010-02-05 2014-06-25 キヤノン株式会社 画像処理装置、撮像装置、制御方法及びプログラム
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
CN101783865A (zh) * 2010-02-26 2010-07-21 中山大学 基于数字机顶盒智能化鼠标控制方法及数字机顶盒
BR112012026354A8 (pt) * 2010-04-13 2018-05-08 Nokia Corp aparelho, método, programa de computador e interface de usuário
KR101121746B1 (ko) 2010-04-19 2012-03-22 한국전자통신연구원 3차원 사용자 인터페이스를 위한 손동작 기반 사용자 인터랙션 방법 및 장치
US8593402B2 (en) 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
TW201138437A (en) * 2010-04-30 2011-11-01 Hon Hai Prec Ind Co Ltd System and method for remotely switching TV channels
US9310887B2 (en) 2010-05-06 2016-04-12 James W. Wieder Handheld and wearable remote-controllers
US8457353B2 (en) * 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US20110310010A1 (en) * 2010-06-17 2011-12-22 Primesense Ltd. Gesture based user interface
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
CN102959616B (zh) 2010-07-20 2015-06-10 苹果公司 自然交互的交互真实性增强
US9167289B2 (en) 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8957856B2 (en) 2010-10-21 2015-02-17 Verizon Patent And Licensing Inc. Systems, methods, and apparatuses for spatial input associated with a display
RU2581013C2 (ru) * 2010-11-01 2016-04-10 Томсон Лайсенсинг Способ и устройство для обнаружения вводов при помощи жестов
KR20120046973A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 움직임 정보 생성 방법 및 장치
CN102469293A (zh) * 2010-11-17 2012-05-23 中兴通讯股份有限公司 一种在视频业务中获取用户输入信息的实现方法及装置
US20120139827A1 (en) * 2010-12-02 2012-06-07 Li Kevin A Method and apparatus for interacting with projected displays using shadows
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
KR20120080072A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
KR101795574B1 (ko) 2011-01-06 2017-11-13 삼성전자주식회사 모션에 의해 제어되는 전자기기 및 그 제어 방법
KR101858531B1 (ko) 2011-01-06 2018-05-17 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
WO2012107892A2 (en) 2011-02-09 2012-08-16 Primesense Ltd. Gaze detection in a 3d mapping environment
US20120206348A1 (en) * 2011-02-10 2012-08-16 Kim Sangki Display device and method of controlling the same
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
KR101151962B1 (ko) * 2011-02-16 2012-06-01 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR101381928B1 (ko) * 2011-02-18 2014-04-07 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치 및 방법
DE102011011802A1 (de) * 2011-02-19 2012-08-23 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle, insbesondere in einem Fahrzeug
US8730162B1 (en) 2011-04-07 2014-05-20 Google Inc. Methods and apparatus related to cursor device calibration
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
KR20120119440A (ko) * 2011-04-21 2012-10-31 삼성전자주식회사 전자기기에서 사용자의 제스처를 인식하는 방법
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US20120288251A1 (en) * 2011-05-13 2012-11-15 Cyberlink Corp. Systems and methods for utilizing object detection to adaptively adjust controls
KR20120130466A (ko) * 2011-05-23 2012-12-03 삼성전자주식회사 휴대단말기에서 외부장치의 데이터를 제어할 수 있는 장치 및 방법
US8769409B2 (en) 2011-05-27 2014-07-01 Cyberlink Corp. Systems and methods for improving object detection
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
KR101789683B1 (ko) * 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
KR101235432B1 (ko) * 2011-07-11 2013-02-22 김석중 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
KR20130078490A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 전자 장치 및 그의 제어 방법
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9336456B2 (en) 2012-01-25 2016-05-10 Bruno Delean Systems, methods and computer program products for identifying objects in video data
US20130194180A1 (en) * 2012-01-27 2013-08-01 Lg Electronics Inc. Device and method of controlling the same
JP5509227B2 (ja) 2012-01-31 2014-06-04 株式会社コナミデジタルエンタテインメント 移動制御装置、移動制御装置の制御方法、及びプログラム
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US20130249793A1 (en) * 2012-03-22 2013-09-26 Ingeonix Corporation Touch free user input recognition
WO2013144807A1 (en) 2012-03-26 2013-10-03 Primesense Ltd. Enhanced virtual touchpad and touchscreen
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
JP6316540B2 (ja) 2012-04-13 2018-04-25 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びその制御方法
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
JP5900161B2 (ja) * 2012-05-29 2016-04-06 ソニー株式会社 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体
TWI470565B (zh) * 2012-06-15 2015-01-21 Sheng Fang Huang 非接觸式醫療導覽系統及其控制方法
TW201403497A (zh) * 2012-07-09 2014-01-16 Alpha Imaging Technology Corp 電子裝置及數位顯示裝置
US9195310B2 (en) 2012-07-09 2015-11-24 Samsung Electronics Co., Ltd. Camera cursor system
TWI492176B (zh) * 2012-09-14 2015-07-11 Utechzone Co Ltd Image Playing System with Customer Preference Product Analysis Capability and Its Method
US9838573B2 (en) * 2012-09-18 2017-12-05 Samsung Electronics Co., Ltd Method for guiding controller to move to within recognizable range of multimedia apparatus, the multimedia apparatus, and target tracking apparatus thereof
CN103702058B (zh) * 2012-09-27 2015-09-16 珠海扬智电子科技有限公司 解交错运算的宏块状态辨识方法与影像处理装置
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
KR101416378B1 (ko) * 2012-11-27 2014-07-09 현대자동차 주식회사 영상 이동이 가능한 디스플레이 장치 및 방법
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
SE536902C2 (sv) * 2013-01-22 2014-10-21 Crunchfish Ab Skalbar inmatning från spårat objekt i beröringsfritt användargränssnitt
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9524028B2 (en) 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US9704350B1 (en) 2013-03-14 2017-07-11 Harmonix Music Systems, Inc. Musical combat game
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
KR20140113137A (ko) * 2013-03-15 2014-09-24 삼성전자주식회사 디스플레이장치 및 그 제어방법
TWI524213B (zh) * 2013-04-02 2016-03-01 宏達國際電子股份有限公司 控制方法及電子裝置
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
TWI486815B (zh) * 2013-04-08 2015-06-01 鴻海精密工業股份有限公司 顯示設備及其控制系統和方法
US9749541B2 (en) * 2013-04-16 2017-08-29 Tout Inc. Method and apparatus for displaying and recording images using multiple image capturing devices integrated into a single mobile device
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
FR3006477B1 (fr) * 2013-05-29 2016-09-30 Blinksight Dispositif et procede de detection de la manipulation d'au moins un objet
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
CN104424649B (zh) * 2013-08-21 2017-09-26 株式会社理光 检测运动物体的方法和系统
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9857971B2 (en) * 2013-12-02 2018-01-02 Industrial Technology Research Institute System and method for receiving user input and program storage medium thereof
JP6231869B2 (ja) * 2013-12-12 2017-11-15 キヤノン株式会社 撮像装置、通信機器およびそれらの制御方法、プログラム
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US11221680B1 (en) * 2014-03-01 2022-01-11 sigmund lindsay clements Hand gestures used to operate a control panel for a device
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
WO2015146813A1 (ja) 2014-03-28 2015-10-01 株式会社ソニー・コンピュータエンタテインメント オブジェクトの操作方法、オブジェクトの操作プログラム、及び情報処理装置
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10194163B2 (en) * 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9696813B2 (en) * 2015-05-27 2017-07-04 Hsien-Hsiang Chiu Gesture interface robot
US10341544B2 (en) * 2014-07-23 2019-07-02 Orcam Technologies Ltd. Determining a matching score between users of wearable camera systems
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
US10055850B2 (en) 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
WO2016048262A1 (en) * 2014-09-22 2016-03-31 Hewlett-Packard Development Company, L.P. Cursor control using images
TWI540462B (zh) * 2014-11-17 2016-07-01 緯創資通股份有限公司 手勢辨識方法及其裝置
KR102339839B1 (ko) * 2014-12-26 2021-12-15 삼성전자주식회사 제스처 입력 처리 방법 및 장치
US9977565B2 (en) 2015-02-09 2018-05-22 Leapfrog Enterprises, Inc. Interactive educational system with light emitting controller
CN104941203A (zh) * 2015-06-03 2015-09-30 赵旭 一种基于手势轨迹识别的玩具及其识别、控制方法
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
JP6702746B2 (ja) * 2016-02-10 2020-06-03 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
JP6688990B2 (ja) * 2016-04-28 2020-04-28 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび記録媒体
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US10423237B2 (en) * 2016-08-15 2019-09-24 Purple Communications, Inc. Gesture-based control and usage of video relay service communications
US10506192B2 (en) * 2016-08-16 2019-12-10 Google Llc Gesture-activated remote control
GB2560344A (en) * 2017-03-08 2018-09-12 Lancaster Univ Business Enterprises Ltd Lubel Method of control
WO2019120290A1 (zh) * 2017-12-22 2019-06-27 北京市商汤科技开发有限公司 动态手势识别方法和装置、手势交互控制方法和装置
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
KR20210063118A (ko) * 2019-11-22 2021-06-01 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어방법
JP7454383B2 (ja) * 2020-01-18 2024-03-22 アルパイン株式会社 操作装置
CN112150781A (zh) * 2020-10-27 2020-12-29 中图云创智能科技(北京)有限公司 一种便捷式操控显示荧幕的方法
US12019847B2 (en) 2021-10-11 2024-06-25 James Christopher Malin Contactless interactive interface
CN115291733B (zh) * 2022-09-28 2022-12-27 宁波均联智行科技股份有限公司 一种光标控制方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
JP2873338B2 (ja) * 1991-09-17 1999-03-24 富士通株式会社 動物体認識装置
JP3727954B2 (ja) * 1993-11-10 2005-12-21 キヤノン株式会社 撮像装置
JP3419050B2 (ja) * 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5473364A (en) * 1994-06-03 1995-12-05 David Sarnoff Research Center, Inc. Video technique for indicating moving objects from a movable platform
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
KR19990008158A (ko) * 1995-04-28 1999-01-25 모리시타요우이치 인터페이스 장치
JPH1091795A (ja) * 1996-09-12 1998-04-10 Toshiba Corp 移動物体検出装置及び移動物体検出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128141A (ja) * 1995-11-07 1997-05-16 Sony Corp 制御装置および制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196391A (ja) * 2012-03-19 2013-09-30 Fujitsu Ltd 情報処理装置、メニュー選択プログラム、及びメニュー選択方法
JP2015103073A (ja) * 2013-11-26 2015-06-04 京セラドキュメントソリューションズ株式会社 操作表示装置
JP2017027098A (ja) * 2015-07-15 2017-02-02 株式会社東芝 操作認識装置、操作認識方法及びプログラム
JP2017084003A (ja) * 2015-10-26 2017-05-18 船井電機株式会社 入力装置

Also Published As

Publication number Publication date
US6498628B2 (en) 2002-12-24
US6501515B1 (en) 2002-12-31
JP5222376B2 (ja) 2013-06-26
US20020057383A1 (en) 2002-05-16
US20010042245A1 (en) 2001-11-15

Similar Documents

Publication Publication Date Title
JP5222376B2 (ja) 動作検知インターフェース
JP5048890B2 (ja) 動作検知インターフェース
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
US8400506B2 (en) Camera control apparatus, method for controlling camera, and storage medium
US7280753B2 (en) Display apparatus, image processing apparatus, and image processing system
US20210406574A1 (en) Mobile surveillance apparatus, program, and control method
US20130176219A1 (en) Display apparatus and controlling method thereof
US20090219415A1 (en) Imaging apparatus provided with panning mode for taking panned image
US20030202102A1 (en) Monitoring system
US20040258152A1 (en) System and method for using motion vectors for object tracking
JP6622650B2 (ja) 情報処理装置及びその制御方法、撮影システム
JP2006235771A (ja) 遠隔操作装置
JP2006229321A (ja) 自動追尾撮像装置及び自動追尾撮像方法、並びにプログラム
JP2005512411A (ja) Tv画面の一部に関連付けられるコンテンツの関連装置へのストリーミング
JP2008040576A (ja) 画像処理システム及び該システムを備えた映像表示装置
US20160084932A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
JP2003316510A (ja) 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
KR20190016900A (ko) 정보 처리장치, 정보 처리방법 및 기억매체
JP2012257021A (ja) 表示制御装置および方法、プログラム、並びに記録媒体
KR101503017B1 (ko) 모션 검출 방법 및 장치
JP2006309617A (ja) コンテンツ送信装置、コンテンツ表示装置、コンテンツ送信装置制御方法およびコンテンツ表示装置制御方法
KR100651292B1 (ko) 카메라가 탑재된 티브이 및 그 티브이의 영상 정보 제공방법과 그 시스템
JP2000224457A (ja) 監視システムおよびその制御方法およびそのプログラムを記憶した記憶媒体
JP2001005975A (ja) 機器制御装置及び方法
US11785342B2 (en) Method of activating an object-specific action

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121015

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130115

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5222376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term