JP2011528819A - ユーザインターフェース制御のためのカメラジェスチャ - Google Patents

ユーザインターフェース制御のためのカメラジェスチャ Download PDF

Info

Publication number
JP2011528819A
JP2011528819A JP2011513067A JP2011513067A JP2011528819A JP 2011528819 A JP2011528819 A JP 2011528819A JP 2011513067 A JP2011513067 A JP 2011513067A JP 2011513067 A JP2011513067 A JP 2011513067A JP 2011528819 A JP2011528819 A JP 2011528819A
Authority
JP
Japan
Prior art keywords
movement
feature points
camera
shift
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011513067A
Other languages
English (en)
Other versions
JP5312578B2 (ja
Inventor
コン ワン
リャン チャン
シー ユエンチュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2011528819A publication Critical patent/JP2011528819A/ja
Application granted granted Critical
Publication of JP5312578B2 publication Critical patent/JP5312578B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

デジタルカメラから取り込まれた画像を使用して、3次元ユーザインターフェースの操作を制御するためのシステムおよび方法。一連の画像は、カメラにより取り込まれた画像の連続フレームを追跡するための特徴点を特定すべく解析されうる。カメラが適所でシフトまたは回転される場合の、画像における特徴点の期待挙動に基づいて、複数の分類子を使用して、シフトジェスチャと回転ジェスチャとを判別してもよい。種々の分類子は、シフトジェスチャおよび回転ジェスチャについて投票値を生成してもよく、システムは、履歴ジェスチャ情報を使用して、現在のジェスチャのカテゴリ化を支援することができる。
【選択図】図2

Description

本願は、主にユーザインターフェース制御のためのカメラジェスチャに関する。
背景
人間は、視覚的な合図に依存するところが大きい。パーソナルコンピュータのグラフィカルユーザインターフェースは、パーソナルコンピュータが幅広い支持を得るのに一役買っており、ハイパーテキストマークアップランゲージ(HyperText Markup Language; HTML)は、そのデータのグラフィック提示により、インターネットについて同様の役割を果たしている。
これらのビジュアルインターフェースの主要な構成要素は、ユーザ入力のための機構である。ハンドヘルドコンピュータマウス、トラックボール、タッチパッド等の機器は、ビジュアルインターフェースにおいてスクリーン上のカーソルの直感的な移動を可能にするために使用される。しかし、これらは、コンピュータディスプレイ上の2次元ユーザインターフェースへの入力の提供に有用な2次元入力デバイスである。
コンピュータ処理能力が増加するにつれて、3次元的な特徴を組み込むユーザインターフェースがますます増えている。残念ながら、現在使用されているマウスやトラックボール、タッチパッドは、3次元環境の操作には理想的とは言えない。したがって、3次元インターフェースの操作に対する改善された手法の必要性が存在する。
概要
本明細書に説明する一定の特徴は、3次元環境の操作に対する新しい手法を提供する。この手法の種々の実施形態では、カメラを操作デバイスとして使用する。ある実施形態では、現在使用されているカメラ(例えば多くの携帯電話機に組み込まれているデジタルカメラ)が、例えば、コンピュータ上の3次元仮想空間においてカーソルを移動させるために、3次元操作ツールとして使用されうる。
ある実施形態では、システムは、カメラからの現在のビデオ画像において複数の特徴点を特定し、前記特徴点の位置と、前記カメラからの過去のビデオ画像における前記特徴点の位置とを比較し、前記特徴点の前記位置の変化から、前記カメラの3次元移動を判断し、前記カメラの前記3次元移動の識別をジェスチャ出力として出力してもよい。
ある実施形態では、前記判断することは、前記現在の画像と前記過去の画像との間の前記特徴点の位置の差に複数の分類子(classifier)を適用することによって、前記カメラのシフトジェスチャと回転ジェスチャとを区別する。
前記分類子は、複数の特徴点が共通の移動距離を共有するか否かに基づく第1の分類子と、前記特徴点のうち異なる特徴点は異なる距離を移動したか否かに基づく第2の分類子と、前記特徴点の平均移動速度に基づく第3の分類子と、新しい特徴点が必要とされた頻度に基づく第4の分類子とを含んでもよい。
ある実施形態では、所定の範囲の特徴点が動作に必要とされうる。ある実施形態では、記録されたジェスチャの履歴ファイルを記録する。実施形態によっては、あるジェスチャは前記履歴においてシフトとして記録されるが、インターフェースアプリケーションには回転として出力されうる(反対も同様である)。
ある実施形態では、携帯電話機カメラは、パーソナルコンピュータ上の3次元ユーザインターフェースを操作するために使用されうる。
他の特徴や側面について、以下に説明する。
添付の図面を考慮して以下の説明を参照することによって、本明細書に説明する特徴及びその利点をより詳しく理解することができる。図面において、同一の参照数字は同一の特徴を表す。
本明細書に説明する特徴が実装されうるコンピューティングシステムの基本構成要素を図示する。 例示的景色を写しているハンドヘルドカメラの例示的実施形態を図示する。 図2におけるカメラの例示的な移動の種類を図示する。 3次元操作ツールとしてカメラを使用する例示的方法を図示する。 図2の例示的景色を図示するが、例示的特徴点が特定されている。 図5の例示的特徴点だけを画素座標とともに図示する。 ジェスチャをズームとして分類するための、移動距離の比較を図示する。 シフト移動を回転移動と区別可能である分類子についての移動距離の比較を図示する。 シフト移動を回転移動と区別可能である第2の分類子についての移動距離の比較を図示する。
実施形態の詳細な説明
以下の説明において、説明の一部を形成する添付の図面を参照する。これらの図面において、使用されうる種々の特徴が例示される。本出願の範囲および精神から逸脱することなく、他の実施形態を利用してもよいこと、および構造的および機能的な修正を加えうることを理解されたい。
図1は、本明細書に説明する一側面において、本明細書に説明される特徴が実装されうるコンピューティングシステムの基本構成要素を図示する。システム100は、パーソナルコンピュータ等の汎用コンピュータの形式をとり得る。代替として、システム100は、モバイル携帯電話機、モバイル通信機器、携帯情報端末(personal data assistant; PDA)、ポケットベル、TV機器、音楽プレーヤ、AM/FM/デジタル無線受信機、ビデオプレーヤ、カメラ等の任意の据置型電子機器またはモバイル電子機器として実装されてもよい。
システム100は、プログラマブル論理機器または多目的マイクロプロセッサ等の1つ以上のプロセッサ101であって、本明細書に説明する特徴を提供するように命令を実行してもよいプロセッサ101を備えてもよい。これらの命令は、メモリ機器102等の、1つ以上のコンピュータ可読媒体または電子ストレージ媒体上にコンピュータ可読命令として格納されてもよく、メモリ機器102は、動的および/または静的ランダムアクセスメモリ(random access memory; RAM)、読み取り専用メモリ(read-only memory; ROM)、磁気ディスクもしくは光ディスク、または任意の他の所望のコンピュータ可読ストレージ機器であってもよい。また、システム100は、本明細書に説明するデータ(例えばコンピュータ可読命令、以下に説明するデータ等)のいずれかを格納しうる1つ以上のリムーバブルメディアも備えてもよい。リムーバブルメディア103は、リムーバブルFLASHメモリ、ディスクドライブ、光ディスクまたは磁気ディスク等の、任意の所望の種類であってもよい。
システム100は、情報およびフィードバックをユーザに提供するために、1つ以上の出力機器を備えてもよい。これらの出力機器にはディスプレイ104等のビデオ出力機器が含まれてもよい。ディスプレイ104は、メニュー選択、対話型ディスプレイ、ビデオ、または任意の他の視覚的情報をユーザに表示することができる。また出力機器には、1つ以上のスピーカ105が含まれてもよく、スピーカ105は、ユーザに音声トラックまたは歌を再生するために使用可能である。
また、システム100は、1つ以上のユーザ入力デバイス106を備えてもよい。ユーザ入力デバイス106は、例えば、キーボード(例えばデスクトップ型コンピュータのキーボード、携帯電話機のキーパッド等)上の英数字押しボタン、ノート型パソコン上のタッチセンサー式および/または容量感応性パッド、コンピュータマウス、トラックボール、感知入力範囲またはディスプレイ上のスタイラス等であってもよい。
システム100は、一体型システムとして図示されるが、必要に応じて、種々の個別の構成要素に分離されてもよい。例えば、カメラ107は、有線および/または無線インターフェースを介してシステムに通信可能に接続される、外付け型のハンドヘルドカメラであってもよい。すなわち例えば、携帯電話機等のカメラであってもよい。例えば、カメラ107は、(例えばBluetooth(登録商標)接続を介して)ローカルデスクトップ型コンピュータと通信する携帯電話機の一部であってもよい。プロセッサ101は、このようなコンピュータシステムのプロセッサであってもよく、またはカメラ107と同じ機器内に設けられるものであってもよい。別の実施形態として、カメラ107は、システム100への有線接続により接続される、コンピュータマウス等のハンドヘルド入力デバイスであってもよい。
図2に図示するように、カメラ107は、景色201を撮影し、その景色に対応するデータをプロセッサ101に返送してもよい。データは、*.jpg、*.pdf、*.bmp等の任意の所望のビデオ画像フォーマットであってもよい。景色201自体は、木202、家203、雲204等に例示される種々の要素を有してもよく、撮影された要素中の特徴の特定は、以下に説明するように行われる。
カメラ107は経時的に様々な形態で移動しうる。図3は、3つの主要な移動形態を図示する。図示するように、カメラは、Z軸に一致する視線によって示される。1つの移動形態は、ズーム移動であり、これは、撮影される景色に近づくか離れるかするZ軸に沿った移動を伴う。第2の移動形態は、シフト移動であり、これは、X-Y平面における移動を伴う(100%のシフト移動であれば、Z要素またはズーム要素を含まない)。第3の移動形態は、回転移動である。図示するように、回転は、Y軸を中心に回転することであってもよい。また、回転は、X軸中心またはZ軸中心であってもよいが、本明細書における説明は、X軸中心またはY軸中心の回転に焦点を合わせる。また、Z軸中心の回転を、シフトの種類として調べてもよい。後述のように、本明細書に説明するシステムは、撮影される画像における変化に基づいてカメラの移動を判別し、その移動を使用して、3次元ユーザインターフェース等のインターフェースとインタラクトすることができる。例えば、3次元ユーザインターフェースは、対象の3次元グラフィックシミュレーションを含み、この空間の操作は、従来のコンピュータインターフェースのように、上/下/左/右に移動するだけでなく、インターフェースの内外に移動することも伴い得る。
図4は、カメラ107をジェスチャ入力デバイスとして使用して、ズーム、シフト、および回転入力を、プロセッサ101上で実行する3次元ユーザインターフェースアプリケーションに提供しうる例示的方法を図示する。最初に、ステップ401において、ビデオ画像がカメラ107から取り込まれる。ビデオ画像は、1秒当たり30フレーム等の、任意の所望の速度でサンプリングされうる。速度は、カメラ107が画像を実際に提供する速度と同一であってもよいか、実装形態によっては、システムは、(例えば5フレーム毎に1つ等)カメラ107が提供する画像の一部だけをサンプリングしてもよい401。
ステップ402において、画像は、既知の特徴点を特定するために処理される。特徴点は、複数の画像において追跡可能である画像における点である。任意の所望のパターン認識プロセスを使用して、特徴点を特定してもよい。図5は、図2の例示的景色201と、いくつかの例示的特徴点501とを図示する。点は、色の対比、深さ、形状、または所望のパターン認識方法により認識可能なあらゆる特徴もしくはパターンに基づいて識別されうる。例示的なパターン認識プロセスが、次の非特許文献1,2に説明されている。
Jianbo Shi et al., "Good Features to Track", Proc. EEEE Comput. Soc. Conf.Comput. Vision and Pattern Recogn., pp. 593-600, 1994 Bouguet, J.V., "Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the Algorithm," Intel Corp. Microprocessor Research Labs, 1999
図6は、図5の特徴点501の組の例を取り出して図示したものである。これらの特徴点を特定する際、システムは、2次元X-Y座標値を、視野内における点の位置に割り当て得る。例えば、カメラ画像が、320×240ピクセルに対応する場合、システムは、320×240画素座標系を使用して、視野内における点の位置を記述することができる。図6の例において、点501aの視野上の位置を(50ピクセル,10ピクセル)と表してもよい。
システムは、過去の画像から追跡された所定数の既知の特徴点を必要とするように構成されうる。例えば、システムは、現在の画像における特徴点のうち、過去の画像にも見られた特徴点を、最小で5個、最大で30個、必要としてもよい。これらの既知の点または追跡点の移動を使用して、カメラ107の運動を解釈する。ステップ402の初めに、過去の追跡点が存在しない場合、システムは、パターン認識プロセスを使用して、所望の最大数の特徴点(例えば30個)を特定し、特定した特徴点を反映するデータをメモリに格納してもよい。ステップ402の後続の処理において、カメラ107が移動して、特徴点が視野の内外に移動する際、システムは、特に追跡点だけを見るようにしてもよい。これらの後続処理402において、システムは、最近検出された特徴点を特定するデータを、前に格納された特徴点情報と比較して、追跡に用いる既知の特徴点を決定してもよい。
ステップ403において、システムは、現在の画像において十分な数の追跡点が検出されたか否かを判断してもよい。この十分性は、任意の所望の範囲であってもよい。例えば、システムは、追跡点の最小数を例えば5個と、追跡点の最大数を例えば30個と、することとしてもよい。特定された追跡点の数が、この範囲外である場合(例えば5個未満の追跡点しか検出されない)、システムは、新しい特徴点を入手して、使用する追跡点を更新するために、ステップ404に進んでもよい。ステップ404において、パターン認識プロセスを実行して、メモリに格納される追跡点の組を置換するために現在の画像から追加の特徴点を決定するか、または単に、既存の追跡点を補充するために追加の追跡点を識別して、総数を所望のレベル(例えば元々の最大数の30個)まで戻してもよい。新しい組の追跡点が適所にある状態で、システムは、次の画像を取り込むためにステップ401に戻ってもよい。
ステップ403において、現在の画像において十分な追跡点が検出された場合、処理はステップ405に移動し、移動が少しでも検出されるか否かを判断してもよい。これは、追跡点のうちの1つ(またはそれ以上)が所定の距離よりも移動したかを調べることによって実行されうる。例えば、システムは、種々の追跡点について移動した平均距離を探索して確認してもよく、その平均距離が2画素以下である場合、システムは、実際の移動またはジェスチャがまだ発生していないとみなしてもよい。この所定の距離は、ユーザの手が不安定であることを考慮しうる任意の距離であってよい。移動が検出されない場合、処理は次の画像を取り込むためにステップ401に戻ってもよい。
ステップ405において、移動ジェスチャが発生したと判断される場合、処理はステップ406に進み、カメラ107によりズームジェスチャが行われたか否かを判断してもよい。図3に図示するように、ズームジェスチャは、景色に向かうように、または景色から離れるように、Z軸に沿ってカメラを移動させることを伴う。このようなジェスチャによって、特徴点は、画像の外周に向かって、または外周から離れるように移動する。図7A〜図7Bは、この移動を図示する。図7Aでは、6個の追跡点が、過去の画像においては位置A〜Fに示され、現在の画像においてはA1〜F1の位置に示されている。新しい位置A1〜F1は、カメラが景色に向かって(景色に近づくように)移動した結果として、画像の外周に近づいている。また、これらの点は、景色の中心点から離れるように移動する。図7Bは、異なるズーム、つまり、カメラが景色から離れるように移動するズームを示し、特徴点は、画像の外周701から離れるように(または中心点に向かって)移動する。
ステップ406において、システムは、視野における追跡点の位置の変化を使用して、ズームジェスチャが実行されたか否かを判断してもよい。これは、多種多様の方式で実行可能である。一例では、システムは、特徴点(例えば図7A〜図7Bの例における点A、B、D、E、F)の選択された部分集合を結合することによって多角形を画定し、視野において多角形の総面積が増加または減少したか否かを判断してもよい。増加した場合、カメラ107は、景色に向かってズームしているが、総面積が減少した場合はその反対が当てはまる。別の例として、システムは、特徴点が画像における視野の外周701に近づいているか、外周から遠ざかっているかを調べてもよい。追跡された特徴点が、周囲701の各端に近づいている点を含む場合(例えば少なくとも1つの点が左端に近づいており、少なくとも1つの点が上端に近づいており、少なくとも1つの点が右端に近づいており、少なくとも1つの点が底端に近づいている場合)、カメラ107は、景色に近付いてしてズームしている。代替として、追跡された特徴点が外周から遠ざかっている場合、または中心点に近づいている場合、カメラ107は、景色から離れるように遠くへズームされている。
ステップ406において、カメラ107がズームジェスチャを実行したことが判断される場合、ステップ407においてズーム標示が出力される。この出力は、単に、カメラ107がズームしたというプロセッサ101からの信号であってもよい。ズーム出力信号は、ソフトウェアプロセス(例えばプロセッサ101上で実行する別のプロセス)に提供されてもよく、このソフトウェアプロセスは、独自の処理においてズームジェスチャを使用することができる。例えば、3次元ユーザインターフェースアプリケーションは、メモリ102またはリムーバブルメディア103に格納されてもよく、ズームジェスチャを使用して3次元ユーザインターフェースにおいて対応するズームを実行するようにプロセッサ101上で実行されうる。このように、カメラの移動によって、3次元ユーザインターフェースアプリケーションにおいて対応するカーソルの移動を生じさせ、3次元要素が操作されてもよい。
ステップ408において、ズームジェスチャが行われたという事実を、システムが検出した種々のジェスチャを記録する履歴ファイル(例えばメモリ102)に加えることができる。履歴ファイルは、カメラ107により行われたジェスチャに対応するデータを記録し、過去における所定の時間帯のデータを記録することができる。例えば、履歴は、処理された最後の5フレームのデータを格納してもよい。5〜10フレームのいずれか等の他の時間帯を使用してもよい。データは、ズームが発生したことを単に示すものであってもよいが、ジェスチャの時間、検出されたズームの量、追跡点と中心点および/または外周との間の距離、ズームの分類に使用する追跡点の数および識別情報、画定される多角形(存在する場合)およびその画定に使用する特徴点、多角形の計算された面積等の、より具体的な情報を含んでもよい。履歴ファイルは、時間帯内に行われた全てのジェスチャを記録してもよく、また、移動が検出されなかった取り込み画像の情報も格納してもよい(例えばステップ405において、移動が検出されない場合、履歴は、移動ジェスチャの欠如を示すために「静的なジェスチャ」を記録することができる)。履歴ファイルを更新した後、システムは、次の画像を取り込むためにステップ401に戻ってもよい。
ステップ406において、ズームジェスチャが行われなかったことをシステムが判断した場合、システムはステップ409に進み、シフトジェスチャまたは回転ジェスチャが行われたかを判断するために分類子を処理してもよい。種々の分類子を使用して、この区別を行ってもよい。各分類子は、カメラがシフトまたは回転ジェスチャを受信したかについて投票的に処理するような、撮影された画像の所定の側面を分析するプロセスまたはプログラムであってもよい。
異なる分類子およびそれらについて考慮すべき側面について説明する。その全ては、投票的なプロセスであってもよい。例えば、一方の分類子は、ジェスチャがシフトであると考えられることを示してもよいが、別の分類子は、ジェスチャが回転であると考えられることを示してもよい。システムは、メモリにおける集計実行において各々について投票を総計し、最終結果(例えばジェスチャがシフトであったという結論を下す)を出力として提供してもよい。
ある実施形態では、各分類子ルーチンは、シフトまたは回転のいずれかに単一の票を投じ得る。他の実施形態では、種々の分類子ルーチンは、その信頼水準に基づいて重み付け票を投じ得る。したがって、例えば、1つの分類子ルーチンが、ジェスチャがシフトである可能性が高いと判断し、別の分類子の不同意が弱かった場合、結果として生じる集計は、ジェスチャがシフトである可能性が高いことを反映することができる。重み付け可能性の例について、分類子とともに説明する。
第1の「全点移動」分類子は、特徴点のうちの全て、またはそのうちの少なくとも所定数が、過去の画像におけるその位置から同じ大きさの距離を移動したか否かを判断することに基づき得る。図8Aに図示するように、視野における全ての点が同じ大きさだけ移動する場合、ジェスチャは、シフトであった可能性が高い。それに反して、図8Bに図示するように、ジェスチャが回転である場合、カメラから遠くに位置する特徴点(例えば図8Bにおける特徴点B)は、近くにある点(例えば図8Bにおける特徴点A)よりも、視野内において多くの距離を移動しうる。従って、ジェスチャが回転である場合、各特徴点は、カメラ107に対するその近接性に応じて異なる距離を移動することが期待されうる。
この分類子を実装するために、システムは、まず、追跡された特徴点が視野において移動した距離(例えば200画素)と、移動方向(30度の角度)とを判断してもよい。次いで、システムは、追跡された特徴点のうちの所定数の検出された移動量が同一(シフトジェスチャが行われたことを示唆する)であるか否かを調べてもよく、または回転ジェスチャであるような十分な違いが存在するかを調べてもよい。例えば、システムは、追跡された特徴のうちの全てが同一の移動量を有するか否かを判断することができる。この場合、分類子は、シフトに投票してもよい。同一の移動量を有する点の数が所定数より少ない場合(例えば追跡された点のうちの90%未満)、または追跡された点の移動量が、閾値(例えば距離および/または角度における10%の差)を超えて異なった場合、分類子は、シフトに投票しないことを決定し、回転に投票してもよい。
また、「全点移動」分類子は、重み付けされてもよい。例えば、90%の点しか同一の距離を移動しない場合、分類子は、シフトに対して若干弱い票を投じ得る(例えば0.8の票)。また、移動の距離や角度が若干変動する場合(例えば5%)、分類子は、シフトに対して弱い票を投じ得る。同様に、距離が、別の所定量を超えて異なった場合、または多くの点が異なる移動を有した場合、分類子は、回転に対して強い票を投じ得るが、いくつかの点の移動距離が同じ(例えば10%)である場合、またはいくつかの点(例えば点のうちの10%)の移動が同じである場合、分類子は、回転に対して、より弱い票を投じ得る。
第2の分類子、または「相対位置変化」分類子は、近接する特徴点の間の相対位置について調査する。この分類子は、第1の分類子と同様に、図8Aおよび図8Bに図示するような、遠い特徴点および近い特徴点に関する移動量の期待差に基づく。しかしながら、特徴点の移動を個々に調査する代わりに、第2の分類子は、ペアとなる特徴点間の距離における変化を調べる。図9Aおよび図9Bにこの概念を図示する。図9Aに示すように、カメラが位置をシフトする場合、先の画像における位置AおよびBにおける特徴点は、位置A1およびB1にある場合に相互にその相対位置を維持すると期待されうる。これらの特徴点(例えば図9Aにおける四角形)を有する物理的対象は、同一の比率のままである。言い換えると、AとBとの間の距離は、A1とB1との間の距離と同一であるはずである。しかし、カメラが回転する場合、対象の見え方が異なり、特徴点間の位置が変化すると期待されうる。したがって、図9Bに図示するように、AとBとの間の距離は、A1とB1との間の距離と同一ではなく、その角度関係も異なる(AとBとの間では平坦な水平線であるが、A1とB1との間では角度のある線である)。
この分類子は多数の方式で実装されうる。例えば、特徴点の座標間の差は、軸毎に計算されうる。したがって、例えば、点A、B、A1、B1が座標(XA, YA)、(XB, YB)、(XA1, YA1)、(XB1, YB1)をそれぞれ有する場合、分類子ルーチンは、X方向およびY方向における位置間の差を計算してもよい。したがって、元の画像では、X方向の距離ΔX = XB - XAであり、一方、Y方向の距離ΔY = YB - YAであってもよい。新しい画像では、その差はΔX1 = XB1 - XA1およびΔY1 = YB1 - YA1であり、差が同一である場合、または相互に近い場合、点は、その相対位置を維持しており、分類子は、回転の代わりにシフトに投票してもよい。したがって、例えば、X軸における距離の変化が、所定値ε(εは10画素等の小さい値である)未満であり、|ΔX - ΔX1| < εであり、Y軸方向においても同様である場合、相対距離は同一であるとしてもよい。反対に、2つの特徴点間のX軸またはY軸距離における差が所定の量ζ(例えば100画素)を超える場合、分類子は、回転が図9Bに図示するように相対位置を変更することから、回転ジェスチャに対する投票を登録してもよい。
この「相対位置変化」分類子プロセスは、2つの点だけについて実行されうるが、代替として、追跡された特徴点の全ての可能なペアについて実行されてもよい。各可能な対は、その特定のペアがその相対位置を保持するか否かに応じて、独自の投票(シフトまたは回転)を登録してもよく、この第2の分類子からの全体の投票は、ペア毎の個々の投票に基づき得る。例えば、10個の追跡された特徴点(P1〜P10)が存在する場合、この相対位置計算は、点の全ての可能なペアについて実行可能であり、以下のような表がもたらされる。
Figure 2011528819
上記例において、可能なペアのうちの36対は、その相対位置を維持した(すなわちシフトジェスチャが発生したという結論を支持している)が、可能な対のうちの9対は、その相対位置を変更した(すなわち回転ジェスチャが発生したという結論を支持している)。本例により、ペアの80%(36/45)はシフトが発生したことを示唆しており、20%(9/45)は回転を示唆している。この第2の分類子の最終投票は、単に、多い方の結果(この場合、シフト)の完全投票であってもよく、または投票は、分割(例えばシフトに対する0.8投票)を反映するように重み付けされてもよい。
第3の分類子である「更新速度」分類子は、システムがステップ404において更新を生成する必要のある頻度に基づき得る。上述のように、更新は、現在の画像に発見されうる追跡された特徴点の数が不十分である場合と、新しい/追加の特徴点が必要とされる場合とに必要とされる。一般に、回転は新しい特徴点を必要とする可能性が高いため(回転中、特徴点は、シフト中よりも視野中を速く移動する)、システムが更新を極めて頻繁に行う場合、それはカメラ107が回転中であることを示唆する。一実施形態では、この頻度は、取り込まれた画像に関して測定されうる。例えば、最近の5つの処理フレームの中で1以上の更新が行われた場合、この分類子は、現フレームにおいて回転ジェスチャへの票を生成してもよい。
判断が所定数の処理画像に基づくことに対する代わりに、システムは、単に、更新が実行される時間を記録してもよい。この第3の分類子は、各更新後に、所定の時間量(例えば500ms)について回転への票を生成してもよい。
また、第4の分類子、または「平均移動速度」分類子を使用してもよい。この第4の分類子は、全ての追跡された特徴点について平均移動速度を計算することと、特徴点がシフト中よりも回転中に視野において速く移動する傾向にあるという事実を踏まえることとを伴い得る。平均速度が第1の所定値(例えば320×240画素フレームにおいて、30fpsでフレーム当たり18画素)を超える場合、分類子は、回転が発生したことを判断する。平均速度が、第2の所定値(例えば320×240画素フレームにおいて、30fpsでフレーム当たり13画素)を下回る場合、この第4の分類子は、シフトが発生したという結論を下してもよい。平均速度がこれらの値の間(例えば例示的環境において13画素と18画素との間)にある場合、分類子は、単に投票を控える。
種々の分類子の全てが画像を処理すると、これらの分類子によりシフトまたは回転に投じられた票の全てがメモリに格納される。次いで、プロセスは、この全てを使用して、現在のジェスチャを解釈する出力を生成し、記録されたジェスチャの履歴を更新する。
ステップ410において、この履歴を確認して、履歴が空であるか否かを判断する。履歴が空である場合(例えば履歴の期間中にジェスチャが登録されていない場合)、プロセスは、ステップ411に移動し、適用した分類子から最高投票数を有するジェスチャ(シフトまたは回転)を特定するエントリにより履歴ファイルを更新してもよい。また、履歴に記録されたジェスチャは、3次元インターフェースアプリケーションによる使用のために、検出されたジェスチャとして出力されうる。出力(および履歴ファイルエントリ)は、シフトまたは回転が検出されたかを単に識別することに加え、シフトの距離(例えば画素)、シフトの方向(例えば角度)、回転の角度方向(例えば時計回り)、または回転の角度量(例えば回転軸に対する角度)を識別する情報を含んでもよい。出力がシフトである場合、システムは、上述の「相対位置変化」分類子において生成された測定および計算に基づいて、シフトの距離および方向を判断してもよい。出力が回転である場合、回転の方向も、「相対位置変化」分類子において生成されたデータから判断可能である(例えば点が右に移動した場合、カメラは左に回転している)。
ステップ410において、履歴が空でない場合、プロセスは、ステップ412へと移動し、シフトへの票と回転への票とでどちらが多かったかを判断してもよい。シフトに多く投票されていた場合、プロセスは、ステップ413に移動し、シフトジェスチャの注記を履歴に追加する。
次いで、ステップ414において、システムは、前に出力されたジェスチャもシフトであったか否かを判断してもよい。上述のように、履歴ファイルは、システムが検出したジェスチャを示す情報を格納してもよい。以下に説明するように、あるジェスチャが出力されるものの、履歴に記録されるジェスチャは異なるケースがあってもよい。したがって、履歴ファイルは、履歴に記録された前のエントリに加え、実際に出力された最後のジェスチャを示す情報も格納してもよい(または別のファイルに格納してもよい)。シフトであった場合、プロセスは、ステップ415に移動し、ステップ415において、シフトは、検出されたジェスチャとして出力される。次いで、プロセスは、次の画像を処理するためにステップ401に戻ってもよい。
しかしながら、ステップ414において前に出力されたジェスチャがシフトでなかった場合、プロセスは、シフトまたは回転のどのジェスチャが履歴においてより頻繁に出現するかを判断するために、ステップ416に移動してもよい。シフトが多く登録されている場合、プロセスはステップ415に移動し、シフトを出力する。一方、回転が多く登録されている場合、または回転とシフトが同数登録されている場合、プロセスはステップ417に移動し、ステップ417において回転を出力する。この興味深い事象の転換、つまり、シフトを履歴に記録するが、回転ジェスチャを出力することは、境界上の状況においてシフトの解釈と回転の解釈との間を頻繁に行き来することを防止するのに有用でありうる。出力を行った後、プロセスは、次の画像を処理するためにステップ401に戻ってもよい。
ステップ412に戻って、現在の集計において回転に対する投票が多い場合、プロセスは、ステップ418に移動し、回転を履歴に記録してもよい。ステップ419において、前に出力されたジェスチャも回転であった場合、プロセスは、ステップ417に移動し、回転ジェスチャを出力する。ステップ419において、前に出力されたジェスチャが回転でなかった場合、プロセスは、シフトまたは回転のどのジェスチャが履歴においてより頻繁に出現するかを判断するためにステップ420に移動する。
回転が多く出現する場合、または回転とシフトが同数出現する場合、プロセスは、ステップ417に移動し、回転を出力する。シフトが多く出現する場合、プロセスは、ステップ415に移動し、シフトを出力する。前述のように、この状況、つまり、回転を履歴に記録するがシフトを出力することは、境界状況について2つの解釈の間を頻繁に行き来することを防止するのに役立つ。
上述の特徴により、デジタルカメラを入力デバイスまたは操作デバイスとして使用した、3次元ユーザインターフェースのための自然で直感的なインターフェースが実現される。ある実施形態では、通常のハンドヘルドコンピュータマウスにカメラを装備することができ、そのマウスを取り付けたパーソナルコンピュータ上の追加ソフトウェアにより、ユーザは、典型的な2次元インターフェースアプリケーションのためには通常のマウスとしてそのデバイスを使用し、3次元インターフェースアプリケーションの使用時にはマウスを持ち上げて、カメラを入力デバイスとして使用することが可能になり得る。別の例では、プロセッサ101は、汎用パーソナルコンピュータプロセッサであってもよく、カメラは、携帯電話機の一部であってもよい。このような構成では、ユーザは、自身の携帯電話機を使用して、パーソナルコンピュータに(例えば無線接続を介して)接続し、携帯電話機カメラを使用して、3次元ユーザインターフェースを操作してもよい。例えば、携帯電話機は、Bluetooth無線接続を使用して、パーソナルコンピュータに接続することができる。
上述の種々の実施形態および特徴は例示であり、必要に応じて変更を加えてもよい。例えば、図1に示す物理的構成は、単なる構成例である。種々の構成要素を別のように配置してもよく、細分化もしくは組み合わせてもよく、または修正してもよいが、依然として本明細書の範囲内にある。
また、図4に示すプロセスは例示であるが、必要に応じて変更を加えてもよい。本明細書の範囲に含まれる所望の結果を達成すべく、ステップの位置を交換したり、いずれかのステップを省略または追加したりしてもよい。
上述の特徴は例である。本特許の範囲は、全ての説明された特徴を必要とするように限定されるべきではなく、むしろ、以下の特許請求の範囲によってのみ限定されるべきである。

Claims (36)

  1. カメラからの現在のビデオ画像において複数の特徴点を特定することと;
    前記特徴点の位置と、前記カメラからの過去のビデオ画像における前記特徴点の位置とを比較することと;
    前記特徴点の前記位置の変化から、前記カメラの3次元移動を判断することと;
    前記カメラの前記3次元移動の識別をジェスチャ出力として出力することと;
    を含む、方法。
  2. 前記判断することは、前記現在の画像と前記過去の画像との間の前記特徴点の位置の差に複数の分類子を適用することによって、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項1に記載の方法。
  3. 前記複数の分類子は、複数の特徴点が共通の移動距離を共有するか否かに基づく第1の分類子を含む、請求項2に記載の方法。
  4. 前記複数の分類子は、前記特徴点のうち異なる特徴点は異なる距離を移動したか否かに基づく第2の分類子を含む、請求項2または3に記載の方法。
  5. 前記複数の分類子は、前記特徴点の平均移動速度に基づく第3の分類子を含む、請求項2から4のいずれか1項に記載の方法。
  6. 前記現在のビデオ画像において特定された特徴点のうち前記過去のビデオ画像にも見られた特徴点の数を数えることと;
    前記特定された特徴点の数を、予め定められた、特徴点の最小数と比較することと;
    前記特定された特徴点の数が前記予め定められた最小数を下回る場合に、前記現在のビデオ画像において1つ以上の新しい特徴点を特定することによって、前記特徴点を更新することと;
    をさらに含む、請求項1から5のいずれか1項に記載の方法。
  7. 前記判断することは、前記更新を実行する頻度に基づいて、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項6に記載の方法。
  8. 前記カメラの移動がシフト移動または回転移動であったことを判断することと;
    対応するシフト移動または回転移動を前記カメラの移動履歴に記録するが、前記移動履歴に記録された前記移動とは異なるジェスチャを出力することと;
    をさらに含む、請求項1から6のいずれか1項に記載の方法。
  9. 前記移動がシフト移動であると判断された場合、前記出力することにおいて前記移動を回転移動と識別し、
    前記移動が回転移動であると判断された場合、前記出力することおいて前記移動をシフト移動と識別する、
    請求項8に記載の方法。
  10. 前記複数の分類子は、
    前記複数の特徴点が共通の移動距離を有するか否かに基づく第1の分類子と;
    前記特徴点のうちの2つの移動距離における差に基づく第2の分類子と;
    新しい特徴点が必要とされる頻度に基づく第3の分類子と;
    前記特徴点の平均移動速度に基づく第4の分類子と;
    を含む、請求項2に記載の方法。
  11. コンピュータ上の3次元ユーザインターフェースを操作するために、携帯電話機カメラを使用すること;
    をさらに含む、請求項1から10のいずれか1項に記載の方法。
  12. 前記判断することは、前記3次元移動がズーム移動であることを判断する、請求項1から11のいずれか1項に記載の方法。
  13. カメラからビデオ画像データを受信するように構成されるビデオ入力部と、プロセッサとを備える装置であって、前記プロセッサが:
    前記カメラからの現在のビデオ画像において複数の特徴点を特定することと;
    前記特徴点の位置と、前記カメラからの過去のビデオ画像における前記特徴点の位置とを比較することと;
    前記特徴点の前記位置の変化から、前記カメラの3次元移動を判断することと;
    前記カメラの前記3次元移動の識別をジェスチャ出力として出力することと;
    を実行するように構成される、装置。
  14. 前記判断することは、前記現在の画像と前記過去の画像との間の前記特徴点の位置の差に複数の分類子を適用することによって、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項13に記載の装置。
  15. 前記複数の分類子は、複数の特徴点が共通の移動距離を共有するか否かに基づく第1の分類子を含む、請求項14に記載の装置。
  16. 前記複数の分類子は、前記特徴点のうち異なる特徴点は異なる距離を移動したか否かに基づく第2の分類子を含む、請求項14から15のいずれか1項に記載の装置。
  17. 前記複数の分類子は、前記特徴点の平均移動速度に基づく第3の分類子を含む、請求項14から16のいずれか1項に記載の装置。
  18. 前記プロセッサは、さらに、
    前記現在のビデオ画像において特定された特徴点のうち前記過去のビデオ画像にも見られた特徴点の数を数えることと;
    前記特定された特徴点の数を、予め定められた、特徴点の最小数と比較することと;
    前記特定された特徴点の数が前記予め定められた最小数を下回る場合に、前記現在のビデオ画像において1つ以上の新しい特徴点を特定することによって、前記特徴点を更新することと;
    を実行するように構成される、請求項13から17のいずれか1項に記載の装置。
  19. 前記判断することは、前記更新を実行する頻度に基づいて、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項18に記載の装置。
  20. 前記プロセッサは、さらに、
    前記カメラの移動がシフト移動または回転移動であったことを判断することと;
    対応するシフト移動または回転移動を前記カメラの移動履歴に記録するが、前記移動履歴に記録された前記移動とは異なるジェスチャを出力することと;
    を実行するように構成される、請求項13から19のいずれか1項に記載の装置。
  21. 前記移動がシフト移動であると判断された場合、前記出力することにおいて前記移動を回転移動と識別し、
    前記移動が回転移動であると判断された場合、前記出力することおいて前記移動をシフト移動と識別する、
    請求項20に記載の装置。
  22. 前記複数の分類子は、
    複数の前記特徴点が共通の移動距離を有するか否かに基づく第1の分類子と;
    前記特徴点のうちの2つの移動距離における差に基づく第2の分類子と;
    新しい特徴点が必要とされる頻度に基づく第3の分類子と;
    前記特徴点の平均移動速度に基づく第4の分類子と;
    を含む、請求項14に記載の装置。
  23. 前記装置は、前記カメラに通信可能に接続されるコンピュータであり、前記カメラはコンピュータマウス入力デバイスの一部である、請求項13から22のいずれか1項に記載の装置。
  24. 前記判断することは、前記3次元移動がズーム移動であることを判断する、請求項13から23のいずれか1項に記載の装置。
  25. カメラからの現在のビデオ画像において複数の特徴点を特定することと;
    前記特徴点の位置と、前記カメラからの過去のビデオ画像における前記特徴点の位置とを比較することと;
    前記特徴点の前記位置の変化から、前記カメラの3次元移動を判断することと;
    前記カメラの前記3次元移動の識別をジェスチャ出力として出力することと;
    を実行するための、コンピュータにより実行可能な命令を格納する、コンピュータ可読媒体。
  26. 前記判断することは、前記現在の画像と前記過去の画像との間の前記特徴点の位置の差に複数の分類子を適用することによって、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項25に記載のコンピュータ可読媒体。
  27. 前記複数の分類子は、複数の特徴点が共通の移動距離を共有するか否かに基づく第1の分類子を含む、請求項26に記載のコンピュータ可読媒体。
  28. 前記複数の分類子は、前記特徴点のペアにおける相対位置の変化に基づく第2の分類子を含む、請求項26から27のいずれか1項に記載のコンピュータ可読媒体。
  29. 前記複数の分類子は、前記特徴点の平均移動速度に基づく第3の分類子を含む、請求項26から28のいずれか1項に記載のコンピュータ可読媒体。
  30. 前記現在のビデオ画像において特定された特徴点のうち前記過去のビデオ画像にも見られた特徴点の数を数えることと;
    前記特定された特徴点の数を、予め定められた、特徴点の最小数と比較することと;
    前記特定された特徴点の数が前記予め定められた最小数を下回る場合に、前記現在のビデオ画像において1つ以上の新しい特徴点を特定することによって、前記特徴点を更新することと;
    をさらに実行するための、コンピュータにより実行可能な命令を格納する、請求項25から29のいずれか1項に記載のコンピュータ可読媒体。
  31. 前記判断することは、前記更新を実行する頻度に基づいて、前記カメラのシフトジェスチャと回転ジェスチャとを区別する、請求項30に記載のコンピュータ可読媒体。
  32. 前記カメラの移動がシフト移動または回転移動であったことを判断することと;
    対応するシフト移動を前記カメラの移動履歴に記録するが、前記出力することにおいて前記移動を回転移動として識別することと;
    をさらに実行するための、コンピュータにより実行可能な命令を格納する、請求項25から31のいずれか1項に記載のコンピュータ可読媒体。
  33. 前記複数の分類子は、
    複数の前記特徴点が共通の移動距離を有するか否かに基づく第1の分類子と;
    前記特徴点のペアにおける相対位置における差に基づく第2の分類子と;
    新しい特徴点が必要とされる頻度に基づく第3の分類子と;
    前記特徴点の平均移動速度に基づく第4の分類子と;
    を含む、請求項26に記載のコンピュータ可読媒体。
  34. 前記カメラの前記移動がズーム移動であったことを判断すること;
    をさらに実行するための、コンピュータにより実行可能な命令を格納する、請求項25から33のいずれか1項に記載のコンピュータ可読媒体。
  35. 前記カメラの移動がシフト移動または回転移動であったことを判断することと;
    対応するシフト移動または回転移動を前記カメラの移動履歴に記録するが、前記移動履歴に記録された前記移動とは異なるジェスチャを出力することと;
    をさらに実行するためのコンピュータにより実行可能な命令を格納する、請求項25から34のいずれか1項に記載のコンピュータ可読媒体。
  36. 前記コンピュータにより実行可能な命令により、実行時に、
    前記移動がシフト移動であると判断された場合、前記出力することにおいて前記移動を回転移動と識別することと;
    前記移動が回転移動であると判断された場合、前記出力することおいて前記移動をシフト移動と識別することと;
    をさらに生じさせる、請求項35に記載のコンピュータ可読媒体。
JP2011513067A 2008-06-11 2009-06-11 ユーザインターフェース制御のためのカメラジェスチャ Expired - Fee Related JP5312578B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/137,202 US8269842B2 (en) 2008-06-11 2008-06-11 Camera gestures for user interface control
PCT/IB2009/005913 WO2009150522A1 (en) 2008-06-11 2009-06-11 Camera gestures for user interface control

Publications (2)

Publication Number Publication Date
JP2011528819A true JP2011528819A (ja) 2011-11-24
JP5312578B2 JP5312578B2 (ja) 2013-10-09

Family

ID=41414251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011513067A Expired - Fee Related JP5312578B2 (ja) 2008-06-11 2009-06-11 ユーザインターフェース制御のためのカメラジェスチャ

Country Status (8)

Country Link
US (1) US8269842B2 (ja)
EP (1) EP2304534A4 (ja)
JP (1) JP5312578B2 (ja)
KR (1) KR101247991B1 (ja)
CN (1) CN102089738B (ja)
BR (1) BRPI0915357A2 (ja)
CA (1) CA2727213C (ja)
WO (1) WO2009150522A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013133129A1 (ja) * 2012-03-06 2013-09-12 日産自動車株式会社 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
WO2014207940A1 (ja) * 2013-06-28 2014-12-31 楽天株式会社 表示システム、表示方法、及びプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL172995A (en) * 2006-01-05 2011-07-31 Gadi Royz Method and device for making a virtual film for use in browsing the site
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US8760432B2 (en) 2010-09-21 2014-06-24 Visteon Global Technologies, Inc. Finger pointing, gesture based human-machine interface for vehicles
KR101799270B1 (ko) * 2010-12-29 2017-11-21 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
EP2682841B1 (en) * 2011-03-03 2016-11-23 Omron Corporation Gesture input device and method for controlling gesture input device
US9423876B2 (en) 2011-09-30 2016-08-23 Microsoft Technology Licensing, Llc Omni-spatial gesture input
KR101926563B1 (ko) * 2012-01-18 2018-12-07 삼성전자주식회사 카메라 추적을 위한 방법 및 장치
SE537366C2 (sv) * 2012-09-25 2015-04-14 Jonas Patrik Graphenius Säkerhetsanordning och förfarande för detektering av förflyttning av en dörr samt övervakning av rörelse i ett område
US8933882B2 (en) 2012-12-31 2015-01-13 Intentive Inc. User centric interface for interaction with visual display that recognizes user intentions
US9105550B2 (en) 2013-01-11 2015-08-11 Digimarc Corporation Next generation imaging methods and systems
US9164653B2 (en) 2013-03-15 2015-10-20 Inspace Technologies Limited Three-dimensional space for navigating objects connected in hierarchy
US10031586B2 (en) * 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
US10234955B2 (en) * 2015-09-28 2019-03-19 Nec Corporation Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
CN109948511A (zh) * 2019-03-14 2019-06-28 广东美的白色家电技术创新中心有限公司 手势识别方法及装置
DE112019007277T5 (de) * 2019-05-03 2022-05-12 Toyota Motor Europe Bilderfassungseinrichtung zur Verfolgung eines Objekts
EP3963476A1 (en) * 2019-05-03 2022-03-09 Verily Life Sciences LLC Predictive classification of insects
WO2020226933A2 (en) 2019-05-03 2020-11-12 Verily Life Sciences Llc Insect singulation and classification

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005119591A1 (ja) * 2004-06-04 2005-12-15 Matsushita Electric Industrial Co., Ltd. 表示制御方法および装置、プログラム、並びに携帯機器
JP2007095030A (ja) * 2005-09-29 2007-04-12 Lg Electronics Inc 携帯用端末機のグラフィック信号表示装置及び方法
JP2008084287A (ja) * 2006-08-28 2008-04-10 Sony Corp 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム
JP2008527854A (ja) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド オプティカルフローに基づく傾きセンサー

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1701351A (zh) * 2000-09-07 2005-11-23 卡尼斯塔公司 检测和定位用户-对象与虚拟传送设备的交互作用的准三维方法和装置
US6944315B1 (en) * 2000-10-31 2005-09-13 Intel Corporation Method and apparatus for performing scale-invariant gesture recognition
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
FI20045300A (fi) 2004-08-17 2006-02-18 Nokia Corp Elektroninen laite ja menetelmä elektronisen laitteen toimintojen ohjaamiseksi sekä ohjelmatuote menetelmän toteuttamiseksi
NO20044073D0 (no) 2004-09-27 2004-09-27 Isak Engquist Informasjonsbehandlingssystem og fremgangsmate
GB0503253D0 (en) * 2005-02-17 2005-03-23 Univ Northumbria Newcastle User control of a hand-held device
US7620316B2 (en) * 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
FI20051283A (fi) 2005-12-13 2007-06-14 Elcoteq Se Menetelmä ja sovitelma graafisen käyttöliittymän hallitsemiseksi sekä graafisella käyttöliittymällä varustettu kannettava laite
US20070222746A1 (en) * 2006-03-23 2007-09-27 Accenture Global Services Gmbh Gestural input for navigation and manipulation in virtual space
US9317124B2 (en) 2006-09-28 2016-04-19 Nokia Technologies Oy Command input by hand gestures captured from camera
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005119591A1 (ja) * 2004-06-04 2005-12-15 Matsushita Electric Industrial Co., Ltd. 表示制御方法および装置、プログラム、並びに携帯機器
JP2008527854A (ja) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド オプティカルフローに基づく傾きセンサー
JP2007095030A (ja) * 2005-09-29 2007-04-12 Lg Electronics Inc 携帯用端末機のグラフィック信号表示装置及び方法
JP2008084287A (ja) * 2006-08-28 2008-04-10 Sony Corp 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013133129A1 (ja) * 2012-03-06 2013-09-12 日産自動車株式会社 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
CN104204726A (zh) * 2012-03-06 2014-12-10 日产自动车株式会社 移动物体位置姿态估计装置和移动物体位置姿态估计方法
WO2014207940A1 (ja) * 2013-06-28 2014-12-31 楽天株式会社 表示システム、表示方法、及びプログラム

Also Published As

Publication number Publication date
EP2304534A1 (en) 2011-04-06
CA2727213A1 (en) 2009-12-17
CN102089738B (zh) 2013-05-08
EP2304534A4 (en) 2014-06-04
US20090309765A1 (en) 2009-12-17
KR101247991B1 (ko) 2013-03-27
BRPI0915357A2 (pt) 2015-11-03
US8269842B2 (en) 2012-09-18
KR20110016994A (ko) 2011-02-18
JP5312578B2 (ja) 2013-10-09
WO2009150522A1 (en) 2009-12-17
CN102089738A (zh) 2011-06-08
CA2727213C (en) 2017-12-05

Similar Documents

Publication Publication Date Title
JP5312578B2 (ja) ユーザインターフェース制御のためのカメラジェスチャ
US10379733B2 (en) Causing display of a three dimensional graphical user interface with dynamic selectability of items
US10254849B2 (en) Cursor mode switching
US11443453B2 (en) Method and device for detecting planes and/or quadtrees for use as a virtual substrate
US10163261B2 (en) Selecting two-dimensional imagery data for display within a three-dimensional model
JP5665140B2 (ja) 入力装置、入力方法、及びプログラム
US9268407B1 (en) Interface elements for managing gesture control
US20130091462A1 (en) Multi-dimensional interface
CN104487915A (zh) 维持扩增的连续性
US11501505B2 (en) Traversing photo-augmented information through depth using gesture and UI controlled occlusion planes
Takahashi et al. Human gesture recognition system for TV viewing using time-of-flight camera
CN104081307A (zh) 图像处理装置、图像处理方法和程序
US11429985B2 (en) Information processing device calculating statistical information
WO2014194148A2 (en) Systems and methods involving gesture based user interaction, user interface and/or other features
EP3767435A1 (en) 6-dof tracking using visual cues
US20150309681A1 (en) Depth-based mode switching for touchless gestural interfaces
US20130249807A1 (en) Method and apparatus for three-dimensional image rotation on a touch screen
Mooser et al. Large document, small screen: a camera driven scroll and zoom control for mobile devices
TW202206984A (zh) 用於模擬滑鼠的電子裝置
Babaei et al. The optimization of interface interactivity using gesture prediction engine

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130702

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371