JP6394190B2 - 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法 - Google Patents

遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法 Download PDF

Info

Publication number
JP6394190B2
JP6394190B2 JP2014175266A JP2014175266A JP6394190B2 JP 6394190 B2 JP6394190 B2 JP 6394190B2 JP 2014175266 A JP2014175266 A JP 2014175266A JP 2014175266 A JP2014175266 A JP 2014175266A JP 6394190 B2 JP6394190 B2 JP 6394190B2
Authority
JP
Japan
Prior art keywords
detection pixel
gesture
detection
user
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014175266A
Other languages
English (en)
Other versions
JP2015179491A (ja
Inventor
タン ハオ
タン ハオ
パトリック チィーウ
チィーウ パトリック
チョン リュウ
リュウ チョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/218,891 external-priority patent/US9411432B2/en
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2015179491A publication Critical patent/JP2015179491A/ja
Application granted granted Critical
Publication of JP6394190B2 publication Critical patent/JP6394190B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、一般的に計算機装置のユーザインタフェースに関し、より具体的には、遮蔽パターンの検出に基づくジェスチャ制御を可能とするシステムと方法に関する。
ジェスチャ入力は現在では計算機システムを操作する一般的な方法である。ユーザ操作のためにジェスチャを利用する装置の例としては、スマートフォンやタブレットのタッチスクリーンやゲームシステムのエアモード・タッチレスジェスチャコントローラがある。カメラを使用した投影表示面に対する簡単で低コストのジェスチャ操作機能を提供するシステム例は、例えば、Kane,S.K.,D.Avrahami,J.O.Wobbrock,B.Harrison,A.D.Rea,M.Philipose,及びA.LaMarcaによる「Bonfire: a nomadic system for hybrid laptop−tabletop interaction(ボンファイア:ラップトップとテーブルトップのハイブリッド操作のためのノマディックシステム)」(Proc. of UIST ’09, pp.129−138)と、Kjeldsen,R.,C.,Pingali,G.,Hartman,J.,Levas,T.,及びPodlaseck,M,による「Interacting with steerable projected displays(操作可能な投影ディスプレイの操作)」(Intl. Conf. on Automatic Face and Gesture Recognition (FGR ’02), pp.402−407)がある。
タッチレスのユーザインタフェースがより望ましい別の状況は、例えば、Aviv,A.,Gibson,K.,Mossop,E.,Blaze,M.,及びSmith,J.による「Smudge attacks on smartphone touch screens(スマートフォンのタッチスクリーンへの汚れ攻撃)」(Proc. of 4th USENIX Workshop on Offensive Technologies(WOOT ’10))に記述されている。
米国特許出願第13/865,990号明細書には、指または手の追跡に代わって、グラフィカルユーザインタフェース・ウィジェットを監視するためにカメラを利用した、面へのタッチ及びタッチレス操作を可能とする手法が開示されている。ウィジェットにはホットスポットが設計されており、ユーザがウィジェット上でジェスチャをすると、システムがホットスポット上(より正確には、ホットスポット内の複数の検出用画素上)の遮蔽パターンを探す。ホットスポットは視覚的に目立っており、ユーザにフィードバックを与えるように設計されている。また、上記の米国特許出願第13/865,990号明細書に記載のシステムは、個別のイベント(ボタンのクリックなど)を生成するためのユーザ操作・ウィジェットのみをサポートしている。
米国特許出願第13/865,990号明細書
Kane,S.K.,D.Avrahami,J.O.Wobbrock,B.Harrison,A.D.Rea,M.Philipose,及びA.LaMarcaによる「Bonfire:a nomadic system for hybrid laptop−tabletop interaction(ボンファイア:ラップトップとテーブルトップのハイブリッド操作のためのノマディックシステム)」(Proc.of UIST ’09, pp.129−138) Kjeldsen,R.,C.,Pingali,G.,Hartman,J.,Levas,T.,及びPodlaseck,M,による「Interacting with steerable projected displays(操作可能な投影ディスプレイとの操作)」(Intl. Conf. on Automatic Face and Gesture Recognition (FGR ’02), pp. 402−407) Aviv,A.,Gibson,K.,Mossop,E.,Blaze,M.,及びSmith,J.による「Smudge attacks on smartphone touch screens(スマートフォンのタッチスクリーンへの汚れ攻撃)」(Proc. of 4th USENIX Workshop on Offensive Technologies(WOOT ’10)) Celluon Magic Cube projection keyboard (http://celluon.com/products.php、 閲覧日:2014年3月14日) Harrison,C,Benko,及びH.,Wilson,A.による「OmniTouch:wearable multitouch interaction everywhere(オム二タッチ:装着可能なマルチタッチでの操作をどこでも可能に)」(Proc.UIST’11,pp.441−450,Santa Barbara,CA) Liao,C. et al.「Fine−grained cross−media interaction with documents via a portable hybrid paper−laptop interface(携帯ペーパーラップトップインタフェースによりドキュメントと精細なクロスメディア操作を行う)」(Proc.ofACM Multimedia 2010, pp.361−370) Liao,C. et al.「MixPad:Augmenting interactive paper with mice & keyboards for fine−grained cross−media interaction with documents(ミックスパッド:ドキュメントとの精細なクロスメディア操作のために操作可能ペーパーにマウスとキーボードを付加する)」(UbiComp 2011 (demo),pp.539−540) Wachs, J. et al.「A gesture−based tool for sterile browsing of radiology images(放射線画像を無菌状態でブラウズするための身ぶり手ぶりに基づくツール)」(J.American Medical Informatics Assoc., 15(3) 321−323 (2008)) Wellner, P.「The DigitalDesk calculator: tangible manipulation on a desk top display(デジタルデスク計算機:デスクトップ表示において接触型操作を行う)」(Proc. UIST’91,pp.27−33) Wilson,A.D. 「Using a depth camera as a touch sensor(深度カメラをタッチセンサとして用いる)」(Proc.ITS’10,pp.69−72,2010年11月7日−10日、Saabrucken,Germany)
本明細書において記述する実施形態は、ユーザインタフェース実装の従来方法に関する1つ又は複数の上記及びその他の問題を実質的に取り除くための方法及びシステムに係わる。
本発明の第1の態様は、中央処理ユニットとカメラとメモリを備える電子システムが実行する、ユーザが行うジェスチャを複数の検出用画素塊を含むユーザインタフェースを用いて検出する為の方法であって、方法は、カメラが、複数の検出用画素塊の画像を取得し、中央処理ユニットが、取得した複数の検出用画素塊の画像において、ユーザが行うジェスチャによる複数の検出用画素塊の内の少なくとも一部の遮蔽を識別し、中央処理ユニットが、識別された複数の検出用画素塊の少なくとも一部の遮蔽に基づいて、ユーザが行うジェスチャを検出する、ことを含む。
本発明の第2の態様は、本発明の第1の態様において、プロジェクタが、複数の検出用画素塊を表示面上に投影し、プロジェクタが、表示面上にコンテンツを投影する、ことを更に含み、投影された複数の検出用画素塊は実質的にすべての投影されたコンテンツと重なり合う。
本発明の第3の態様は、本発明の第1の態様において、電子表示装置が、複数の検出用画素塊を表示し、電子表示装置が、コンテンツを表示する、ことを更に含み、表示された複数の検出用画素塊は実質的に表示されたコンテンツ全体と重なり合う。
本発明の第4の態様は、本発明の第1の態様において、複数の検出用画素塊の少なくとも一部の遮蔽は、取得された複数の検出用画素塊の画像内の検出用画素塊に対応する位置における色値に基づいて識別される。
本発明の第5の態様は、本発明の第1の態様において、複数の検出用画素塊の少なくとも一部の識別された遮蔽が所定の遮蔽パターンに一致し、かつ識別された遮蔽が所定の時間間隔の間存続するという条件に基づいて押し操作イベントを検出することを更に含む。
本発明の第6の態様は、本発明の第5の態様において、複数の検出用画素塊が表示面上に表示または投影され、かつジェスチャの検出が押し操作イベントの検出に応答して実行される。
本発明の第7の態様は、本発明の第5の態様において、押し操作イベントの検出に応答して、複数の検出用画素塊を表示面上に表示するか又は複数の検出用画素塊を表示面上に投影することを更に含み、複数の検出用画素塊が最初は検出された押し操作イベントの周りに配置される。
本発明の第8の態様は、本発明の第7の態様において、複数の検出用画素塊は最後に識別されたユーザ生成イベントの位置を中心に円盤形状に配置される。
本発明の第9の態様は、本発明の第5の態様において、押し操作イベントが以前に検出されていて、かつ複数の検出用画素塊の少なくとも一部の識別された遮蔽は、第2の所定の時間間隔の間には発生しないか、又は複数の検出用画素塊の少なくとも一部の識別された遮蔽は、第3の所定の時間間隔の間、押し操作イベントの場所において発生する、という条件に基づいてリリース操作イベントを検出することを更に含む。
本発明の第10の態様は、本発明の第9の態様において、リリース操作イベントの検出に応答して、前記ジェスチャの検出を中止することを更に含む。
本発明の第11の態様は、本発明の第1の態様において、ユーザのジェスチャの検出に応答して、ジェスチャに関連するコマンドを発行することを更に含む。
本発明の第12の態様は、本発明の第11の態様において、ジェスチャに関連するコマンドは、画像のパンコマンド及び画像のズームコマンド、画像の回転コマンドから成る群より選択される。
本発明の第13の態様は、本発明の第11の態様において、ユーザのジェスチャの方向を検出することを更に含み、発行されるコマンドは、少なくとも部分的にジェスチャの検出された方向に基づく。
本発明の第14の態様は、本発明の第11の態様において、ユーザのジェスチャの速度を検出することを更に含み、発行されるコマンドは、少なくとも部分的にジェスチャの検出された速度に基づく。
本発明の第15の態様は、本発明の第1の態様において、ジェスチャは、複数の検出用画素塊を表示する面への物理的接触なしにユーザによって実行される。
本発明の第16の態様は、本発明の第1の態様において、取得された複数の検出用画素塊の画像において複数の検出用画素塊のそれぞれに対応する位置を識別することによって較正操作を実行し、かつ識別された位置に情報を格納することを更に含む。
本発明の第17の態様は、本発明の第1の態様において、複数の検出用画素塊はグリッド状に配置され、ジェスチャの検出は、ユーザ生成イベントを検出することを含み、ユーザ生成イベントは、グリッド状配置における第1の検出用画素塊と、第1の検出用画素塊に隣接する少なくとも1つの第2の検出用画素塊が所定の遮蔽パターンに従って遮蔽される条件に基づいて検出され、ユーザ生成イベントの位置は第1の検出用画素塊の位置である。
本発明の第18の態様は、本発明の第1の態様において、複数の検出用画素塊はグリッド状に配置され、ジェスチャの検出は、ユーザ生成イベントを検出することを含み、ユーザ生成イベントは、グリッド状配置における第1の検出用画素塊と、第1の検出用画素塊に隣接する少なくとも1つの第2の検出用画素塊とが遮蔽され、かつグリッド状検出用画素塊配置の少なくとも1つの第3の検出用画素塊が遮蔽されないという条件に基づいて検出され、第1、第2、第3の検出用画素塊は、所定の遮蔽パターンに従っており、かつジェスチャの位置は第1の検出用画素塊の位置である。
本発明の第19の態様は、本発明の第1の態様において、ジェスチャは所定の時間間隔内の2つの異なる時間において識別された2つの遮蔽に基づいて検出される。
本発明の第20の態様は、本発明の第19の態様において、 2つの識別された遮蔽は相互に所定の距離内で起きる。
本発明の第21の態様は、本発明の第1の態様において、検出されたジェスチャは連続的なジェスチャである。
本発明の第22の態様は、本発明の第1の態様において、ジェスチャウィジェットを提供することを更に含み、複数の検出用画素塊が表示面上に表示または投影され、かつジェスチャの検出は、ユーザにより提供されたジェスチャウィジェットの作動の検出に応答して実行される。
本発明の第22の態様は、中央処理ユニットと、カメラと、メモリとを備える電子システムに、ユーザが行うジェスチャを複数の検出用画素塊を用いて検出させる、一組のコンピュータ実行可能命令を包含するプログラムであって、プログラムは、カメラに、複数の検出用画素塊の画像を取得させ、中央処理ユニットに、取得された複数の検出用画素塊の画像において、ユーザが行うジェスチャによる、複数の検出用画素塊の内の少なくとも一部の遮蔽を識別させ、中央処理ユニットに、識別された複数の検出用画素塊の少なくとも一部の遮蔽に基づいて、ユーザが行うジェスチャを検出させる。
本発明の第23の態様は、複数の検出用画素塊を備えるユーザインタフェースをユーザに提供するためのユーザインタフェース生成モジュールと、ユーザインタフェースの画像を取得するためのカメラと、ユーザインタフェースの取得された画像において、ユーザが行うジェスチャによる、複数の検出用画素塊の少なくとも一部の遮蔽を識別するための、遮蔽識別モジュールと、識別された複数の検出用画素塊の少なくとも一部の遮蔽に基づいて、ユーザが行うジェスチャを検出するための、ジェスチャ検出モジュールと、を含む電子システムである。
本発明に関するその他の態様は、以下の説明で部分的に説明され、また説明から部分的に明白であり、又は本発明の実行により習得することができる。本発明の態様は、以下の詳細な説明及び添付の特許請求の範囲において特に指摘された要素及び種々の要素と態様との組合せによって、実現及び達成することができる。
上記及び以下の記述はいずれも、単に例示及び説明を目的とするものであり、特許請求の範囲に記載の発明もしくはその適用を限定することは全く意図していないことを理解されたい。
本明細書に組み込まれ、本明細書の一部をなす添付の図面が、本発明の実施形態を例示し、説明と相俟って本発明の概念の説明及び例示に供する。
ビューポート・ウィジェットに対するジェスチャ操作を可能とするシステムの例示的実施形態を示す図である。 ユーザジェスチャ検出のためにユーザインタフェース・検出用画素塊を使用するシステムの別の例示的実施形態を示す図である。 ユーザジェスチャ検出のためにユーザインタフェース・検出用画素塊を使用するシステムの更に別の例示的実施形態を示す図である。 カメラで取得した画像における、コンテンツと重なる検出用画素塊から成る検出グリッドの例示的拡大像を示す図である。 遮蔽パターンのいくつかの例示的実施形態を示す図である。 検出用画素塊の遮蔽に基づくユーザジェスチャ検出の操作プロセス手順を例示的に示す図である。 実際の場面における、ジェスチャと上記のジェスチャベースのユーザインタフェースとのインタラクションプロセスの例示的ステップを示す図である。 実際の場面における、ジェスチャと上記のジェスチャベースのユーザインタフェースとのインタラクションプロセスの例示的ステップを示す図である。 実際の場面における、ジェスチャと上記のジェスチャベースのユーザインタフェースとのインタラクションプロセスの例示的ステップを示す図である。 実際の場面における、ジェスチャと上記のジェスチャベースのユーザインタフェースとのインタラクションプロセスの例示的ステップを示す図である。 コンテンツと重なる検出用画素塊の動的な遮蔽パターンの解析によりユーザジェスチャを検出する電子システムの例示的実施形態を示す図である。 映像処理モジュールの例示的実施形態を示す図である。
以下の詳細な記述においては添付図面を参照する。ここで同一の機能的要素は同様の参照番号で示される。前述の添付図面は、本発明の原理に整合する特定の実施形態及び実装を例示するものであり、それに限定するものではない。これらの実装形態は、当業者による本発明の実行を可能とすべく詳細に記述される。また、他の実装も利用可能であること、及び本発明の範囲及び精神から逸脱することなく様々な要素の構造上の変更及び/又は代替が行われてもよいことを理解されたい。従って、以下の詳細な記述は本発明を制限するものとして解釈されるべきではない。更に、記述される本発明の様々な実施形態は、汎用コンピュータ上で実行されるソフトウェア、専用ハードウェア、あるいはソフトウェアとハードウェアの組合せ、のいずれの形態において実施されてもよい。
従来の技術に関する上記及びその他の課題に対処するために、本明細書において記述する一つ又は複数の実施形態は、グラフィカルユーザインタフェース(GUI)ライブラリにおいてビューポート・ウィジェットに対するジェスチャ操作を可能とする手法を実装する。一つ又は複数の実施形態において、記述するシステムと方法によって可能となるジェスチャ操作には、指(又はスタイラスやその他の好適な物体)でビューポートのコンテンツの、パンやズーム、回転などを行う連続的なユーザ生成イベントが含まれてよい。本明細書における、ユーザ生成イベントという用語は、連続的ユーザ生成イベント並びにその他の例えばある特定の位置にユーザの指やその他の好適な物体が単に置かれているようなイベントの両方を含む。従ってこの用語は、ユーザと上記のインタフェースとの任意の双方向型操作を包含する。一つ又は複数の実施形態において、前述のジェスチャ操作は、ビューポート上に描画された検出グリッド内の遮蔽パターン(occlusion pattern)をカメラで検出することによって可能となる。検出グリッドは検出用画素塊(sensor blob)から成り、これは他と区別できる色をした画素の小さな集合であってよい。検出用画素塊は、ビューポート座標系及びカメラ座標系の双方においてその位置が知られており、指(又はスタイラスやその他の好適な物体)で遮蔽された場合にその位置において遮蔽イベントにトリガを掛ける。さらに一つ又は複数の実施形態において、意図しないジェスチャを排除し、操作に関するビジュアルガイドとフィードバックを与え、検出グリッドとビューポートのコンテンツとの視覚干渉を最小化する強固な手法が提供される。
図1はビューポート・ウィジェットに対するジェスチャ操作を可能とするシステムの例示的実施形態100を示す図である。図示した実施形態100には、コンテンツ107と複数の検出用画素塊105とを含むグラフィカルユーザインタフェース表示を、プロジェクタ101の照射範囲106内に位置する表示面104上に投影する、プロジェクタ101が組み込まれている。図1に示すように、検出用画素塊105は表示面104上のコンテンツ107と重なる。カメラ102は表示面104が視野の中に入るように配置されて、表示面104上に投影されるグラフィカルユーザインタフェースの映像を取得し、表示された検出用画素塊105との関連で、ユーザ108の手によって行われるジェスチャを検出する。一つ又は複数の実施形態において、カメラ102はプロジェクタ101の隣又はその近くに配置されてよい。一つ又は複数の実施形態において、プロジェクタ101とカメラ102は、市場で容易に入手可能な普通の既製部品である。
上記のように、プロジェクタ101によって表示面104上に投影されたグラフィカルユーザインタフェースは、以下で詳細を述べるように、一つ又は複数の検出用画素塊105を含んでもよい。一実施形態において、表示面104は、机またはテーブルの頂面などの水平面であってよい。この構成において、プロジェクタ101とカメラ102は表示面104の上方に取り付けられている。別の実施形態においては、表示面104は垂直に配向されてもよい。カメラ102によって取得された映像はコンピュータシステム103送信され、そこで図11に関連して詳細を説明する映像処理モジュール1118によって処理されて、表示面104上に表示された検出用画素塊105の遮蔽パターンに基づいて、ユーザの手108かスタイラスなどの他の任意の物体によるユーザのジェスチャが検出される。一実施形態において、ユーザは一つ又は複数の指又は他の任意の好適な物体を用いて、図1の例示的実施形態100に関連して利用可能なジェスチャを実行してよい。一つ又は複数の実施形態において、コンピュータシステム103は更に、図1に示すようなプロジェクタ101を制御するように構成されていてもよい。ユーザのジェスチャを検出すると、コンピュータシステム103が対応する操作を遂行するように構成されていてもよい。一つ又は複数の実施形態において検出用画素塊105は、赤外領域の光のようなユーザには見えない光を用いて表示面104上に投影される。この構成においては、これらの検出用画素塊の遮蔽を検出するために赤外線に感応するカメラ102が使用されてもよい。
図2はユーザジェスチャ検出のためにユーザインタフェース・検出用画素塊を使用するシステムの別の例示的実施形態200を示す図である。実施形態200において、図1のプロジェクタ101と表示面104に代わって電子表示パネル201が用いられ、その面202上にグラフィカルユーザインタフェースが表示される。一つ又は複数の実施形態において、電子表示パネル201は、LCDパネルやプラズマ表示パネル、当業者には周知の他の任意の種類の電子情報表示装置であってよい。実施形態100と同様に、カメラ102は電子表示パネル201の表示面202がその視野に入るように配置されて、表示パネル201に表示されたグラフィカルユーザインタフェース、並びにユーザの手108または別の物体で行われるジェスチャの映像を取得する。
図3は、ユーザジェスチャ検出のためにユーザインタフェース・検出用画素塊を使用するシステムの更に別の例示的実施形態300を示す図である。図3に示す実施形態300は発光アレイ301を更に含み、複数の検出用画素塊105を表示面104上に投影するようになっている。プロジェクタ101で表示面104上に投影されたコンテンツ107が発光アレイ301で投影される検出用画素塊105によって覆われるように、発光アレイ301が配置、配向される。実施形態100と同様に、カメラ102はコンテンツ107と検出用画素塊105とを視野内に収めるように配置される。一つ又は複数の実施形態において、発光アレイ301は半導体レーザアレイまたは発光ダイオードアレイである。一つ又は複数の実施形態において、発光アレイ301は好適な光学系を備えて、投射される検出用画素塊105が適切にフォーカシングされるようになっていてもよい。一つ又は複数の実施形態において検出用画素塊105は、赤外領域の光のようなユーザには見えない光を用いて発光アレイ301により表示面104上に投影される。
更に別の実施形態において、検出用画素塊105は、紙やその他の物体、媒体などの平坦面上に永続的に印刷されていてもよい。この実施形態ではカメラは、検出用画素塊の印刷された紙を視野内に収めるように配置され、検出用画素塊と、印刷された検出用画素塊に関連するユーザのジェスチャの映像を取得する。本明細書で記述する本発明の概念は、ユーザのジェスチャの検出に関連して利用可能な検出用画素塊を表示または具現化する、いかなる特定の媒体にも限定されるものではないことを理解されたい。ユーザの体の一部または他の物体による、投影または表示、印刷された検出用画素塊の動的な遮蔽情報を提供できるシステムであれば、任意のものがここで記述するジェスチャ検出機能を実装するために利用可能である。
一つ又は複数の実施形態において検出用画素塊105は、コンテンツ107の全体に描画された、他と区別できる色をした画素の小さな集合である。様々な実施形態において、複数の検出用画素塊105は、同一または異なる色を持っている。同一の検出用画素塊内で異なる色が使われてもよい。コンピュータシステム103は各検出用画素塊105の位置座標を、ビューポート座標系とカメラの座標系の両方で格納する。検出用画素塊のこれらの位置座標105は、以下で詳細を説明する較正手順を利用して取得してもよい。カメラ102を利用してコンピュータシステム103が検出用画素塊の位置に発生する色の変化を検出し、その検出された色の変化に基づいて、対応位置での遮蔽イベントにトリガを掛ける。検出用画素塊の大きさは、ハードウェア装置の小さな変位に対してシステムがどれだけの性能を有するか、また、目視可能な検出用画素塊の存在で視覚的なコンテンツ107のどれだけが遮蔽されるかということに影響する。一つ又は複数の実施形態において、検出用画素塊105の大きさは上記の因子をバランスさせるように経験的に設定されるが、その最適値は簡単な較正手順で決定されてもよい。
一つ又は複数の実施形態において検出グリッドは、コンテンツ107と重なる、均等に配置された検出用画素塊105のMxNのグリッドである。一つ又は複数の実施形態において、検出グリッド内の各検出用画素塊105は独立して機能し、位置情報が付加された遮蔽イベントの全てがコンピュータシステム103内に集積される。検出グリッドの大きさが、システムの検出能力の空間分解能と、表示された視覚コンテンツ107と検出用画素塊105との視覚干渉の度合いに影響する。検出グリッド内での隣接する検出用画素塊105同士の間隔の決定には、人の指の幅が重要な指標となる。検出グリッドに関する前述の全てのパラメータは経験的に決定されることが多いが、単純な較正手順で自動的に計算されてもよい。さらに、その較正手順には、ビューポート内の検出用画素塊105の正確な位置を決定するために、カメラ102で取得した静止画像及び/又はビデオフレームに対する画像解析の実行が含まれてもよい。
図4は、カメラ102で取得した画像における、コンテンツ107と重なる検出用画素塊105で構成される検出グリッドの拡大像の一例を示す。この図では、検出用画素塊404と405が遮蔽されている。一つ又は複数の実施形態において、遮蔽された検出用画素塊404または405を検出した後、コンピュータシステム103は近隣領域402と403内のそれぞれについて、隣接する画素塊が遮蔽されているかどうかをチェックし、後で詳細を述べる所定の検出用画素塊遮蔽パターンを検出するように構成されている。
一つ又は複数の実施形態において、遮蔽パターン(OP)とは、遮蔽イベントが発生する検出グリッドにおける特別に設計された検出用画素塊の位置パターンである。遮蔽パターンは検出されると、その遮蔽パターンの中心位置に指(又はスタイラスあるいは他の好適な物体)が存在することを表す。一実施形態において遮蔽パターンは、3x3の検出用画素塊のブロックで定義され、その中心の検出用画素塊が遮蔽イベントを起動させ、また同時に最大でも所定数(例えば2つ)の他の検出用画素塊もまた遮蔽イベントを起動させる。そしてこれらの検出用画素塊同士は(たがいに隣接して)接続されていなければならない。このように一般的には、検出用画素塊のブロック内での遮蔽された検出用画素塊の最小数と、遮蔽された検出用画素塊の最大数と、その他の制約条件、例えば、遮蔽された検出用画素塊が(たがいに隣接して)接続されていなければならないというような制約条件とに基づいて、遮蔽パターンが検出されてよい。一つ又は複数の実施形態において遮蔽パターンとしては、検出用画素塊のブロックの中心の画素塊から一つ又は複数の端部の画素塊へ連続的に検出用画素塊が遮蔽されていることが要求される場合もある。一般的に言えば遮蔽パターンは、物体(指など)による検出用画素塊のブロック内の検出用画素塊の遮蔽に一致してよい。本発明は、遮蔽パターンの検出に使用される例示的な3x3の検出用画素塊のブロックに限られるものではなく、他の任意の検出用画素塊のブロックが利用され得ることを理解されたい。また、ユーザのジェスチャの検出には多様な遮蔽パターンが利用され得る。
図5は、いくつかの遮蔽パターンの例示的実施形態501、502、503、504、505、506を示している。図5に示す各パターンの例は、遮蔽された検出用画素塊405と遮蔽されていない検出用画素塊105とを含んでいる。上で述べたように、本発明の概念はここに示した遮蔽パターンに限られるものではなく、他の多くの遮蔽パターンの使用も可能である。一つ又は複数の実施形態において、複数の遮蔽パターンが検出グリッド内に同時に検出されてもよい。これは指(または他の好適な物体)がコンテンツ107上にある場合などのような、複数の位置でのユーザ生成イベントの同時検出を可能とする。当業者には理解されるように、このことによって、本説明のシステムが複数の指(好適な物体)による操作機能を可能とするとともに、複数ユーザによる操作の検出の可能性ももたらす。
当業者には理解されるように、本発明システムで認識できる遮蔽パターンには他の多くの設計があり得る。一つ又は複数の実施形態において、遮蔽パターンは、指(またはスタイラスや他の好適な物体)がパターンの特定の位置(通常は中心)に存在するような、ユーザ生成イベントの発生を表す。潜在的には、指(またはスタイラスや他の好適な物体)による遮蔽を、(指やポインタやスタイラスのような形状ではない)他の物体による遮蔽から区別することのできる任意のパターンを、遮蔽パターンとしての使用に適しているとしてよい。そのようなパターンは通常、指の形に似た薄く細長いストリップ形状をしている。すなわちこのパターンでは、塗りつぶされた円が通常薄く長いストリップを形成し、その周りに中空の円がある。ただしパターンのパラメータ(パターンの全体形状、パターン内の塗りつぶされた円の数、など)は、システム構成やユーザの指(または他の好適な物体)の幅に強く影響され、大部分は実験によって決定される。発明者らによって行われた実験では、前述の3x3のブロックパターンが最も良好な結果をもたらすことが分かった。
一つ又は複数の実施形態において、ユーザ生成のイベントにより起動された例示的ビューポートのジェスチャ操作には、検出された指の動きに基づく、ビューポートのコンテンツのパンやズーム、回転が含まれてよい。様々な実施形態においてシステムは、1つの指または手と、2つの指または手のジェスチャの両方を検出できるようになっていてもよい。2本の指(2つの手)によるジェスチャを検出する場合、システムは、ビューポート上の2つの異なる位置における2つの個別の遮蔽パターンを検出することにより、2つの指の動的な位置を検出する。一つ又は複数の実施形態において、動的な遮蔽パターンを経時的に解析することで、一連の指の運動イベントにトリガをかけ、ビューポートがパンやズーム、回転操作を実装することを可能とする。一実装において、第1の遮蔽パターンが検出された後、所定の時間間隔(例えば200ミリ秒)内に第2の遮蔽パターンが検出され、かつ、第1と第2の遮蔽が相互に所定の空間距離内にある場合に、ユーザジェスチャが認識される。言い換えれば、複数の検出された遮蔽が時間と位置に関する所定の制約を満足すれば、ユーザジェスチャとして認識される。
一つ又は複数の実施形態において、意図しないジェスチャを排除し、ジェスチャ操作の間における検出グリッドとビュアーポートのコンテンツとの間の視覚的な干渉を最小化するための堅牢な技術がいくつか提供される。一つ又は複数の実施形態において、意図しないジェスチャを排除するこの技術は、“押し操作”イベントと“リリース操作”イベントを含んでもよい。一般的にこれらの2つのイベントは、偶然によって作動させられる可能性が低い。一実施形態において、指が同一位置に所定の時間(例えば200ミリ秒)の間連続的に置かれている場合に、押し操作イベントが発生する。一実施形態において、パンやズーム、回転操作のいずれかが行われる前には、押し操作イベントが検出されなければならないようにシステムが構成されている。
一つ又は複数の実施形態において、前述の押し操作イベントが特定のユーザの指に関して前以って検出されていて、それに加えて次の2つの条件の内の1つが満たされた場合に、リリース操作イベントが発生したと判定される。1)この指が同一の位置に連続的に存在する状態がある所定の時間(例えば200ミリ秒)の間続くこと、または2)この指が連続的に存在しない状態が所定の時間(例えば200ミリ秒)の間続くこと、である。一実施形態において、リリース操作イベントが検出されると、パンやズーム、回転操作のいずれもが終了したことを表す。当業者には理解されるように、説明した実施形態においては、パンやズーム、回転操作は常に押し操作イベントによって開始され、リリース操作イベントによって終了されなければならないので、ビューポートのコンテンツを混乱させるような意図しないジェスチャは全て排除される。
一つ又は複数の実施形態において、検出用画素塊105のグリッドと、ビューポートに表示されたコンテンツ107との視覚的な干渉が最小化される技術も提供される。具体的には、前述の押し操作イベントが起きる前には、検出グリッドの全検出用画素塊が見えていて、ビューポートの最大領域が与えられる。押し操作イベントが発生すると、押し操作イベントの位置から特定の距離内にある検出用画素塊のみが見えて、他の全ての検出用画素塊は見えなくなる。すなわち、検出用画素塊グリッドが指の位置付近を中心とする検出用画素塊円盤に変化する。図9、10の要素901を参照されたい。この手法により、ジェスチャ操作の間、検出用画素塊とビューポートのコンテンツとの視覚的な干渉が最小化される。視覚的な検出用画素塊の円盤はまた、ユーザの指の動作に対する視覚的ガイドとフィードバックとして作用する。円盤の半径によってユーザがどこまで、またどれだけ早く指を動かせるかが決定される。リリース操作イベントが起きると、検出グリッド内の全検出用画素塊が再び見えるようになり、ビューポートの最大範囲が与えられる。
一つ又は複数の実施形態において、押し操作イベントを検出した場合、ユーザの指が引き続き移動すれば、検出円盤が指に沿って移動し、その時の指の位置の周りに中心があるようにする。一実施形態において検出円盤の大きさは、システム設計によって前以って決定される。当業者には理解されるように、検出円盤の大きさは、ユーザがどれだけ早く指を移動させることができるかということと、目に見える検出用画素塊によってどれだけ多くのビューポートコンテンツが干渉を受けるか、ということに影響する。一般的に、検出円盤が大きいほど、ユーザは指をより速く移動させることができ、より効率的な操作を行うことができる。ただし、検出円盤が大きければ、より大きなビューポート部分が覆われて、ビューポートコンテンツの大きな部分と干渉する。
一つ又は複数の実施形態において、この問題を克服するためにシステムはその大きさを動的に変化させることのできる検出円盤を生成するようになっている。この目的を達成するための例示的アルゴリズムを次に簡単に記述する。
1.このシステムはまず、指の位置の周りのビューポートコンテンツを解析する。考えられるコンテンツ解析の方法としては、当業者には周知の、関心点の検出と特徴解析がある。
2.次いでこのシステムは、指の位置の周りのビューポートコンテンツの重要度を判定する。
3.最後に、システムは、指位置の周りのビューポートコンテンツの重要度に基づいて、指位置付近に中心を持つ検出円盤の大きさを決定する。
一つ又は複数の実施形態において、図9の検出円盤901の大きさは一般的に、その時の指位置の周りのビューポートコンテンツの重要度に逆比例する。重要なコンテンツの領域において、重要領域の大部分を覆わないようにするために検出円盤はより小さいことが望ましい。さらに、重要なコンテンツの領域において、ユーザは詳細を見ようとして、通常指を高速では動かそうとしない。その一方で、ユーザは重要でない領域ではより効率的な操作をするために指をより高速で動かすことが多いので、重要でないコンテンツ領域においては検出円盤がより大きいことが望ましい。さらには、コンテンツの重要な領域の大部分と重なることよりも、コンテンツの重要でない部分の大部分をより大きなサイズの円盤で覆うことが受け入れやすい。
一実施例においてコンテンツ領域の重要さは、当業者には周知の画像解析技術を利用して特定可能な、その領域内の視覚的特徴の数によって判定される。例えば、コンテンツの空白領域は識別できる画像特徴を持たない。そのため重要ではないと見なされるであろう。その一方で、より多くの生地構造を持つコンテンツ部分は、より多くの識別し得る画像特徴を含んでいるので、より重要であると見なされるであろう。
一つ又は複数の実施形態において、検出グリッドによる視覚干渉をより小さくするために、検出グリッドはユーザがジェスチャ操作を実行しているときにだけ見えるようにできる。一実装においては、ユーザが検出グリッドを随時オン、オフすることができる。検出グリッドがオフのときは、ビューポートのジェスチャ操作機能が無効にされる。様々な実施形態において、上記のシステムは、以下のアルゴリズムの1つに従って運転されてもよい。
1.ユーザは、図7のジェスチャボタン701などの、ビューポートの外部にあるウィジェット(例えばジェスチャボタン)を用いて検出グリッドをオンしてもよい。検出グリッドは、ビューポートの外部にあるウィジェット(例えばジェスチャボタン701)を用いてユーザがオフするまではオンのままである。検出グリッドがオンの間に、ユーザはビューポートでジェスチャ操作を実行してよい。
2.ユーザはビューポートの外部にあるウィジェット(例えばジェスチャボタン701)を用いて検出グリッドをオンしてもよい。次にユーザはジェスチャ操作の実行に進む。ジェスチャ操作が完了すると、検出グリッドが自動的にオフとなる。
図6は、検出用画素塊の遮蔽に基づくユーザジェスチャ検出の操作プロセス手順600を例示的に示す。先ずステップ601においてシステムが、プロジェクタ101と表示面104、または電子表示装置201のいずれかによりビューポートにコンテンツ107を表示する。ステップ602においてシステムは外部トリガ信号の検出を試みる。ステップ603において、システムは上記の外部トリガ信号の有無を確認する。例えば、ユーザがビューポートの外部にあるボタンを押した場合にはトリガ信号が存在する。ステップ603においてシステムがトリガ信号を検出できなかった場合には、操作はステップ601に戻る。そうでない場合には操作はステップ604へ進む。
ステップ604において、システムは検出用画素塊のグリッドをビューポートコンテンツ107の上に重ねて表示する。ステップ605において、システムはカメラ102を用いてカメラの視野に遮蔽イベントが発生していないかどうかを判定する。遮蔽イベントの有無はステップ606で確認される。ステップ606において遮蔽イベントが発生していないと判定されると、操作はステップ601に戻る。そうでない場合には、操作はステップ607に進む。ステップ607において、検出された遮蔽イベントに基づいてシステムは所定の遮蔽パターンがないかどうか検出を試みる。ステップ608においてシステムは、所定の遮蔽パターンが検出されたかどうかを判定する。ステップ608において遮蔽パターンのないことが検出されると、操作はステップ601に戻る。そうでない場合には、操作は次のステップ609に進む。このステップ609において、システムは検出された遮蔽パターンに基づいて指の位置を検出する。
ステップ610においてシステムは、詳細を上述した押し操作イベントがないかどうかの検出を試みる。ステップ611において、システムは押し操作イベントが実際に発生しているかどうかを検査する。押し操作イベントが発生していれば、押し操作イベントが発生している検出用画素塊位置の辺りに中心を持つ検出円盤の中に検出グリッドが収縮する。ステップ612を参照されたい。次に操作はステップ613に移る。そうでない場合には、操作は直接ステップ613に移る。
ステップ613において、システムはジェスチャ操作が検出されたかどうかを判定する。例えば、1本の指だけが配置されその指の移動が検出された場合、パン操作が起動される。別の例では、2本の指が配置されてその指の内の少なくとも1つの移動が検出されると、ズーム操作が起動される。ステップ614において、システムは検出されたジェスチャ操作を実行する。そこにはビューポートコンテンツ107の操作も含まれてよい。次いでステップ615において、システムはリリース操作イベントの発生の有無を検出しようとする。ステップ616においてリリース操作イベントが発生していると判定されると、ステップ617に見られるように検出円盤は全面の検出グリッドに戻る。それによりシステム操作はステップ601に戻って、操作手順600が繰り返される。
図7、8、9、10は、実際の場面における上記のジェスチャベースのユーザインタフェースとジェスチャの操作プロセスの例示的ステップを示す。図7に示す場面700では、コンテンツ107が表示面104に表示され、検出グリッドは見えない。ここでは表示されたコンテンツ107とのジェスチャによる操作はできない。一つ又は複数の実施形態においてビューポートの外部にジェスチャボタン701があって、ユーザが前述したジェスチャ操作機能を始動させるための外部トリガを発生させることが可能である。図8に示す場面800では、ユーザの手108によって作動可能である、ビューポート外部のジェスチャボタン701を用いて、ユーザが検出用画素塊105のグリッドを作動させる。図9の場面900では、ユーザが、検出用画素塊位置を所定の時間、例えば200ミリ秒だけ手108の指で指示して、押し操作イベントを起動する。これに応答して検出用画素塊105のグリッドが、検出用画素塊円盤901内に収縮する。最後に図10の場面1000において、ユーザは指を移動させて表示された地図上でパン操作を実行する。この時検出用画素塊円盤901の中心はユーザの指の位置に追従する。上で説明した操作場面並びに上記の特定のユーザのジェスチャは例示でしかなく、本明細書に記載の概念に基づいてもっと多くの操作機能とサポートされるユーザジェスチャを実装できることに留意されたい。
コンテンツと重なる検出用画素塊の遮蔽の動的パターンを解析することによりユーザジェスチャを検出する電子システム1100の例示的実施形態を図11に示す。一つ又は複数の実施形態において、電子システム1100は、当業者には周知のデスクトップコンピュータのフォームファクタ内に実装されてもよい。代替の実施形態では、電子システム1100は、ラップトップまたはノートブックコンピュータをベースとして実装されてもよい。
電子システム1100には、電子システム1100の様々なハードウェア部品全体に亘り、あるいは部品同士の間で情報を交換するための、データバス1104またはその他の相互接続や通信機構と、そのデータバス1104に電気的に連結されて情報を処理し、その他の計算や制御タスクを実行するための中央処理ユニット(CPUまたは単にプロセッサ)1101とが、含まれていてよい。また電子システム1100には、データバス1104に連結されて様々な情報やプロセッサ1101で実行される命令を格納するための、ランダムアクセスメモリ(RAM)や他の動的記憶装置などのメモリ1112も含まれる。メモリ1112にはまた、磁気ディスク、光学ディスク、固体フラッシュメモリ装置や、その他の不揮発性固体記憶装置などの、持続性記憶装置が含まれてもよい。
一つ又は複数の実施形態においてメモリ1112は、プロセッサ1101により命令を実行する際の一時的な変数やその他の中間情報を格納するために利用されてもよい。任意選択により、電子システム1100には更に、データバス1104に連結された読み出し専用メモリ(ROMまたはEPROM)1102やその他の静的記憶装置が含まれていて、電子システム1100の運転に必要なファームウェアや基本入出力システム(BIOS)、並びに電子システム1100の様々な設定パラメータなどのプロセッサ1101のための静的な情報や命令が格納されてもよい。
一つ又は複数の実施形態において、電子システム1100には表示装置201が組み込まれていてもよい。これはまたデータバス1104に電気的に連結されて、本明細書に記載の検出用画素塊105のグリッドを組み込んだユーザインタフェースなどの、電子システム1100のユーザへの様々な情報を表示してもよい。代替の実施形態において、表示装置201はグラフィックコントローラ及び/又はグラフィックプロセッサ(図示せず)に関連付けられていてもよい。表示装置201は、いずれも当業者にはよく知られている、例えば薄膜トランジスタ(TFT)技術を利用して製造された液晶ディスプレイ(LCD)や、有機発光ダイオード(OLED)として実装されていてもよい。様々な実施形態において、表示装置201は電子システム1100の他の部品とともに、同一の全体筐体の中に組み込まれてもよい。これとは別の実施形態では、表示装置201はそのような筐体の外側、例えばテーブルまたは机の上に配置されてもよい。一つ又は複数の実施形態において、電子システム1100には更に、本明細書に記載の検出用画素塊を組み込んだユーザインタフェースなどのような情報を、表示面104上に投影するように構成されたプロジェクタまたはミニプロジェクタ101が組み込まれていてもよい(図1参照)。
一つ又は複数の実施形態において、電子システム1100は更にデータバス1104に電気接続された音声再生装置1125を組み込んでいて、MPEG−3ファイルや、例えばMPEG−4などの様々な映像ファイルの音声トラックなどの、当業者にはよく知られた種々の音声ファイルを再生するように構成されていてもよい。そのために、電子システム1100は波形または音声プロセッサまたは類似の装置(図示せず)を組み込んでいてもよい。
一つ又は複数の実施形態において、電子システム1100は、方向情報やコマンド選択をプロセッサ1101に知らせ、またディスプレイ201上でカーソル移動を制御するための、マウス、トラックボール、タッチパッド、カーソル方向キーなどの、マウス/ポインティングデバイス1110のような一つ又は複数の入力装置を含んでいてもよい。この入力デバイスは一般的に、第1の軸(たとえばx軸)及び第2の軸(例えばy軸)の2つ軸における自由度2を有しており、これにより平面上の位置を特定することができる。
電子システム1100は更に、静止画像と、本明細書に記述の検出グリッドの映像を含む様々な物体の映像を取得するためのカメラ103、並びにキーボード1106を組み込んでいてよい。これらはすべて、データバス1104に連結されて、これに限定されないが画像や映像、更に(ジェスチャを含む)ユーザコマンドを含む情報をプロセッサ1101に通信するようになっていてもよい。
一つ又は複数の実施形態において、電子システム1100はさらに、データバス1104に連結されたネットワークインタフェース1105のような通信インタフェースを含んでもよい。ネットワークインタフェース1105は、電子システム1100と、WIFIインタフェース1107、セルラーネットワーク(GSM(登録商標)またはCDMA)アダプタ1108及び/又はローカルエリアネットワーク(LAN)アダプタ1109の少なくとも1つを利用するインターネット1124との間の接続を確立するように構成されていてもよい。ネットワークインタフェース1105は電子システム1100とインターネット1124の間の双方向データ通信を可能とするようになっていてもよい。WIFIアダプタ1107は、当業者には周知の、802.11a、802.11b、802.11g及び/又は802.11nプロトコル並びにブルートゥースプロトコルに準拠して動作してよい。電子システム1100のLANアダプタ1109は、例えば、総合デジタル通信網(ISDN)カードまたはモデムを利用して実装されて、インターネットサービスプロバイダのハードウェア(図示せず)を利用してインターネット1124に接続された対応する種類の電話線とのデータ通信接続を提供してもよい。別の例としては、LANアダプタ1109は、ローカルエリアネットワーク・インタフェースカード(LAN NIC)であって、互換性のあるLAN及びインターネット1124へのデータ通信接続を提供してもよい。例示的実施形態において、WIFIアダプタ1107、セルラーネットワーク(GSM(登録商標)またはCDMA)アダプタ1108及び/又はLANアダプタ1109は、様々な種類の情報を表すデジタルデータストリームを搬送する電気信号または電磁信号を送受信する。
一つ又は複数の実施形態において、インターネット1124は典型的には一つ又は複数のサブネットワークを介して他のネットワークソースへデータ通信を提供する。こうして、電子システム1100はインターネット1124上の任意の場所にある種々のネットワークリソース、例えばリモートメディアサーバ、ウェブサーバ、他のコンテンツサーバ、並びに他のネットワーク上のデータ格納リソース、などへのアクセスが可能となる。一つ又は複数の実施形態において、電子システム1100は、ネットワークインタフェース1105によってインターネット1124を含む様々なネットワークを通じて、メッセージや媒体や、アプリケーションプログラムコードを含むその他のデータを送受信するように構成されている。インターネットの例では、電子システム1100がネットワークのクライアントとして作用する場合に、電子システム1100上で実行するアプリケーションプログラム用のコードやデータを要求してもよい。同様に、他のネットワークリソースへ様々なデータやコンピュータコードを送信してもよい。
一つ又は複数の実施形態において、本明細書に記載した機能は、メモリ1112内に保持される一つ又は複数の命令の一つ又は複数のシーケンスを実行するプロセッサ1101に応答して、電子システム1100によって実装される。そのような命令は、別のコンピュータ可読媒体からメモリ1112へ読み込まれてもよい。メモリ1112に保持された命令のシーケンスを実行することにより、プロセッサ1101に本明細書に記載の様々なプロセスステップを実行させる。代替の実施形態では、本発明の実施形態を実装するのに、ソフトウェアによる命令に替えて、あるいはソフトウェアによる命令と組み合わせて、配線による回路が使用されてもよい。従って、ここに記載した本発明の実施形態は、ハードウェア回路及び/又はソフトウェアのいかなる特定の組み合わせにも限定されない。
本明細書で用いられる「コンピュータ可読媒体」という用語は、プロセッサ1101に実行命令を与えることに関与する任意の媒体を指す。コンピュータ可読媒体は、マシン可読媒体の単なる一例であり、本明細書に記載の任意の方法及び/又は技術を実装するための命令を伝える。このような媒体は多様な形態を取ることができ、不揮発性媒体、及び揮発性媒体が含まれるが、これに限定されことはない。
非一時的なコンピュータ可読媒体の一般的形態には、例えば、フロッピディスク(登録商標)、フレキシブルディスク、ハードディスク、磁気テープ、又は他の任意の磁気媒体、CD−ROM、他の任意の光学媒体、パンチカード、紙テープ、孔パターンを有するその他の任意の物理媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、その他の任意のメモリチップ又はメモリカートリッジ、あるいはコンピュータが読み出し可能な他の任意の媒体、が含まれる。様々な形態のコンピュータ可読媒体が、プロセッサ1101での実行のために、1つまたは複数の命令の1つまたは複数のシーケンスの伝送に関与し得る。例えば、最初は命令がリモートコンピュータから磁気ディスクで搬送されてもよい。又は、リモートコンピュータが命令をダイナミックメモリに書込み、インターネット1124で命令を送信することもできる。具体的にはコンピュータ命令は、当分野で周知の様々なネットワークデータ通信プロトコルを利用して、インタフェース1124を介して前述のリモートコンピュータから電子システム1100のメモリ1112へダウンロードされてもよい。
一つ又は複数の実施形態において、電子システム1100のメモリ1112は、以下のソフトウェアプログラムやアプリケーション、モジュールの任意のものを格納してもよい。
1.基本システム業務を実装し、電子システム1100の様々なハードウェア部品を管理する、オペレーティングシステム(OS)1113。オペレーティングシステム(OS)1113の例示的実施形態は当業者には周知であり、現在知られているか最新開発の移動用オペレーティングシステムの全てを含んでよい。
2.アプリケーション1114は、例えば、電子システム1100のプロセッサ1101によって実行される一組のソフトウェアアプリケーションを含み、これは電子システム1100に、表示装置201上にユーザインタフェースを表示したり、カメラ103を利用してユーザのジェスチャを検出したりするような、特定の所定の機能を実行させてよい。一つ又は複数の実施形態において、アプリケーション1114は以下に詳述する本発明のジェスチャインタフェース・アプリケーション1115並びにユーザアプリケーション1120を含んでよい。
3.データ格納部1121は、例えば、較正モジュール1119によって生成される較正データを格納するための較正データ格納部1122と、ユーザジェスチャの識別のために利用される、検出グリッド内の検出用画素塊の遮蔽パターンを格納するための、遮蔽パターン格納部1123とを含んでよい。
一つ又は複数の実施形態において、本発明のジェスチャインタフェース・アプリケーション1115は、ユーザインタフェース生成モジュール1116を包含し、これは電子システム1100のディスプレイ201またはプロジェクタ101を利用して本明細書に記載した検出グリッドを組み込んだユーザインタフェースを生成するように構成されている。本発明のジェスチャインタフェース・アプリケーション1115は更に、カメラ103に遮蔽された検出用画素塊の映像をキャプチャさせるためのビデオキャプチャモジュールと、カメラ103により取得した映像を処理して検出用画素塊の動的な遮蔽パターンに基づいてユーザジェスチャを検出するための映像処理モジュールと、検出グリッドの検出用画素塊105に対応する位置を検出、格納するための較正モジュール1119、を含んでよい。ユーザジェスチャを検出すると、本発明のジェスチャインタフェース・アプリケーション1115が適切な制御コマンドをユーザアプリケーション1120へ送信してもよい。
図12は、映像処理モジュール1111の例示的実施形態を示す。一つ又は複数の実施形態において図12に示すように映像処理モジュール1118には、取得されたユーザインタフェースの画像中の検出用画素塊105の少なくとも一部の遮蔽を識別する、遮蔽識別モジュール1201と、表示コンテンツ107上の検出グリッドにある検出用画素塊105の識別された遮蔽パターンに基づいてユーザが行ったジェスチャを検出する、ジェスチャ検出モジュール1202とが含まれる。上記のモジュール1201と1202は、上に述べた方法に従って動作する。
最後に、本明細書中に記載されたプロセス及び技術は特定の装置に生得的に関係するものではなく、構成要素の任意の適切な組み合わせによって実装可能であることを理解されたい。更に、種々のタイプの汎用デバイスを、本明細書に記載の教示にしたがって使用することが可能である。本明細書に記載された方法のステップを実行するための専用装置を構築することが有利であることも判明するであろう。本発明を特定の例に関連して記載したが、これらは全ての点において限定的ではなく説明的であることを意図している。ハードウェア、ソフトウェア、及びファームウェアの多くの異なる組み合わせが本発明の実行に好適であることが、当業者には理解されるであろう。例えば、前述のソフトウェアは、アセンブラ、C/C++、オブジェクティブC、perl、shell、PHP、Java(登録商標)などの広範なプログラム言語あるいはスクリプト言語、並びに、現在既知又は最新開発のプログラム言語あるいはスクリプト言語によって実装することが可能である。
さらに、ここに開示した本発明の明細書を考察し、本発明を実施すれば、本発明の他の実装が当業者には明らかとなるであろう。記述された実施形態の各種態様及び/又は構成要素は、複数の検出用画素塊の遮蔽パターンを利用してユーザのジェスチャを検出するシステム及び方法において、単独もしくは任意の組み合わせで利用することが可能である。明細書及び実施例は例示としてのみ理解されるべきであり、本発明の真の範囲と精神は添付の特許請求の範囲によって示されるものとする。

Claims (24)

  1. 中央処理ユニットとカメラとメモリを備える電子システムが実行する、ユーザが行うジェスチャをドット状の複数の検出用画素塊を含むユーザインタフェースを用いて検出する為の方法であって、
    前記方法は、
    a.前記カメラが、前記複数の検出用画素塊の画像を取得し、
    b.前記中央処理ユニットが、前記取得した複数の検出用画素塊の画像において、前記ユーザが行うジェスチャによる前記複数の検出用画素塊の内の少なくとも一部の遮蔽を識別し、
    c.前記中央処理ユニットが、前記識別した前記複数の検出用画素塊の少なくとも一部の遮蔽に基づいて、前記ユーザが行うジェスチャを検出する、
    ことを含む、方法。
  2. プロジェクタが、前記複数の検出用画素塊を表示面上に投影し、
    前記プロジェクタが、前記表示面上にコンテンツを投影する、
    ことを更に含み、
    前記投影された複数の検出用画素塊は実質的にすべての投影されたコンテンツと重なり合う、請求項1に記載の方法。
  3. 電子表示装置が、前記複数の検出用画素塊を表示し、
    前記電子表示装置が、コンテンツを表示する、
    ことを更に含み、
    前記表示された複数の検出用画素塊は実質的に前記表示されたコンテンツ全体と重なり合う、請求項1に記載の方法。
  4. 前記bにおいて、前記複数の検出用画素塊の前記少なくとも一部の遮蔽は、前記取得した複数の検出用画素塊の画像内の前記検出用画素塊に対応する位置における色値に基づいて識別される、請求項1に記載の方法。
  5. 前記複数の検出用画素塊の少なくとも一部の前記識別された遮蔽が所定の遮蔽パターンに一致し、かつ前記識別された遮蔽が所定の時間間隔の間存続するという条件に基づいて押し操作イベントを検出することを更に含む、請求項1に記載の方法。
  6. 前記複数の検出用画素塊が表示面上に表示または投影され、かつ前記ジェスチャの検出が前記押し操作イベントの検出に応答して実行される、請求項5に記載の方法。
  7. 前記押し操作イベントの検出に応答して、前記複数の検出用画素塊を表示面上に表示するか又は前記複数の検出用画素塊を表示面上に投影することを更に含み、
    前記複数の検出用画素塊が最初は前記検出された押し操作イベントの周りに配置される、請求項5に記載の方法。
  8. 前記複数の検出用画素塊は最後に識別されたユーザ生成イベントの位置を中心に円盤形状に配置される、請求項7に記載の方法。
  9. 前記押し操作イベントが以前に検出されていて、かつ
    i.前記複数の検出用画素塊の少なくとも一部の前記識別された遮蔽は、第2の所定の時間間隔の間には発生しないか、又は
    ii.前記複数の検出用画素塊の少なくとも一部の前記識別された遮蔽は、第3の所定の時間間隔の間、前記押し操作イベントの場所において発生する、
    という条件に基づいてリリース操作イベントを検出することを更に含む、請求項5に記載の方法。
  10. 前記リリース操作イベントの検出に応答して、前記ジェスチャの検出を中止することを更に含む、請求項9に記載の方法。
  11. 前記ユーザのジェスチャの検出に応答して、前記ジェスチャに関連するコマンドを発行することを更に含む、請求項1に記載の方法。
  12. 前記ジェスチャに関連するコマンドは、画像のパンコマンド及び画像のズームコマンド、画像の回転コマンドから成る群より選択される、請求項11に記載の方法。
  13. 前記ユーザのジェスチャの方向を検出することを更に含み、前記発行されるコマンドは、少なくとも部分的に前記ジェスチャの検出された方向に基づく、請求項11に記載の方法。
  14. 前記ユーザのジェスチャの速度を検出することを更に含み、前記発行されるコマンドは、少なくとも部分的に前記ジェスチャの検出された速度に基づく、請求項11に記載の方法。
  15. 前記ジェスチャは、前記複数の検出用画素塊を表示する面への物理的接触なしに前記ユーザによって実行される、請求項1に記載の方法。
  16. 前記取得した複数の検出用画素塊の画像において前記複数の検出用画素塊のそれぞれに対応する位置を識別することによって較正操作を実行し、かつ前記識別された位置に情報を格納することを更に含む、請求項1に記載の方法。
  17. 前記複数の検出用画素塊はグリッド状に配置され、
    前記cにおける前記ジェスチャの検出は、ユーザ生成イベントを検出することを含み、
    前記ユーザ生成イベントは、前記グリッド状に配置された第1の検出用画素塊と、前記第1の検出用画素塊に隣接する少なくとも1つの第2の検出用画素塊が所定の遮蔽パターンに従って遮蔽される条件に基づいて検出され、
    前記ユーザ生成イベントの位置は前記第1の検出用画素塊の位置である、請求項1に記載の方法。
  18. 前記複数の検出用画素塊はグリッド状に配置され、
    前記cにおいて、前記ジェスチャの検出は、ユーザ生成イベントを検出することを含み、
    前記ユーザ生成イベントは、前記グリッド状に配置された第1の検出用画素塊と、前記第1の検出用画素塊に隣接する少なくとも1つの第2の検出用画素塊とが遮蔽され、かつ前記グリッド状に配置された検出用画素塊の少なくとも1つの第3の検出用画素塊が遮蔽されないという条件に基づいて検出され、
    前記第1、第2、第3の検出用画素塊は、所定の遮蔽パターンに従っており、かつ
    前記ジェスチャの位置は前記第1の検出用画素塊の位置である、請求項1に記載の方法。
  19. 前記cにおいて前記ジェスチャは所定の時間間隔内の2つの異なる時間において識別された2つの遮蔽に基づいて検出される、請求項1に記載の方法。
  20. 前記2つの識別された遮蔽は相互に所定の距離内で起きる、請求項19に記載の方法。
  21. 前記検出されたジェスチャは連続的なジェスチャである、請求項1に記載の方法。
  22. ジェスチャウィジェットを提供することを更に含み、
    前記複数の検出用画素塊が表示面上に表示または投影され、かつ
    前記ジェスチャの検出は、前記ユーザにより前記提供されたジェスチャウィジェットの作動の検出に応答して実行される、請求項1に記載の方法。
  23. 中央処理ユニットと、カメラと、メモリとを備える電子システムに、ユーザが行うジェスチャをドット状の複数の検出用画素塊を用いて検出させる、一組のコンピュータ実行可能命令を包含するプログラムであって、前記プログラムは、
    a.前記カメラに、前記複数の検出用画素塊の画像を取得させ、
    b.前記中央処理ユニットに、前記取得された複数の検出用画素塊の画像において、前記ユーザが行うジェスチャによる、前記複数の検出用画素塊の内の少なくとも一部の遮蔽を識別させ、
    c.前記中央処理ユニットに、前記識別された前記複数の検出用画素塊の少なくとも一部の遮蔽に基づいて、前記ユーザが行うジェスチャを検出させる、
    プログラム。
  24. a.ドット状の複数の検出用画素塊を備えるユーザインタフェースをユーザに提供するためのユーザインタフェース生成モジュールと、
    b.前記ユーザインタフェースの画像を取得するためのカメラと、
    c.前記ユーザインタフェースの取得された画像において、前記ユーザが行うジェスチャによる、複数の検出用画素塊の少なくとも一部の遮蔽を識別するための、遮蔽識別モジュールと、
    d.前記識別された前記複数の検出用画素塊の少なくとも一部の遮蔽に基づいて、前記ユーザが行うジェスチャを検出するための、ジェスチャ検出モジュールと、
    を含む、電子システム。
JP2014175266A 2014-03-18 2014-08-29 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法 Active JP6394190B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/218,891 US9411432B2 (en) 2013-04-18 2014-03-18 Systems and methods for enabling gesture control based on detection of occlusion patterns
US14/218,891 2014-03-18

Publications (2)

Publication Number Publication Date
JP2015179491A JP2015179491A (ja) 2015-10-08
JP6394190B2 true JP6394190B2 (ja) 2018-09-26

Family

ID=54263464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014175266A Active JP6394190B2 (ja) 2014-03-18 2014-08-29 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法

Country Status (1)

Country Link
JP (1) JP6394190B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6844159B2 (ja) 2016-09-12 2021-03-17 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2018181140A (ja) * 2017-04-19 2018-11-15 東芝情報システム株式会社 コマンド入力システム及びコマンド入力システム用プログラム
US10691217B2 (en) * 2017-04-20 2020-06-23 Fuji Xerox Co., Ltd. Methods and systems for providing a camera-based graphical user interface
CN112748822A (zh) * 2019-10-29 2021-05-04 Oppo广东移动通信有限公司 投影键盘系统、移动终端及投影键盘的实现方法
CN113377199B (zh) * 2021-06-16 2023-03-21 广东艾檬电子科技有限公司 手势识别方法、终端设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076495A (ja) * 2001-08-31 2003-03-14 Hitachi Kokusai Electric Inc 仮想入力装置
JP4532982B2 (ja) * 2004-05-14 2010-08-25 キヤノン株式会社 配置情報推定方法および情報処理装置
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
KR101423536B1 (ko) * 2011-06-14 2014-08-01 한국전자통신연구원 인쇄매체 기반 혼합현실 구현 장치 및 방법

Also Published As

Publication number Publication date
JP2015179491A (ja) 2015-10-08

Similar Documents

Publication Publication Date Title
US9411432B2 (en) Systems and methods for enabling gesture control based on detection of occlusion patterns
CN107533373B (zh) 虚拟现实中经由手与对象的场境敏感碰撞的输入
US20210011556A1 (en) Virtual user interface using a peripheral device in artificial reality environments
US9830444B2 (en) Password processing device
JP6394190B2 (ja) 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法
US11443453B2 (en) Method and device for detecting planes and/or quadtrees for use as a virtual substrate
US20120113044A1 (en) Multi-Sensor Device
US20140168062A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
US20120007857A1 (en) Information Processing Device, Information Processing Method, and Program
TWI559174B (zh) 以手勢爲基礎之三維影像操控技術
JP6379880B2 (ja) プロジェクタ−カメラシステム又はディスプレイ−カメラシステムに対する微細なユーザインタラクションを可能とするシステム、方法及びプログラム
JP6569794B1 (ja) 情報処理装置及びプログラム
US20180260044A1 (en) Information processing apparatus, information processing method, and program
JP6686345B2 (ja) 操作イベントを検出する方法、システム及びプログラム
EP3037936B1 (en) Image projection apparatus, and system employing interactive input-output capability
TWI564780B (zh) 觸控螢幕姿態技術
US10222866B2 (en) Information processing method and electronic device
KR102545598B1 (ko) 가상 입력 툴을 제공하기 위한 전자 장치 및 방법
WO2016208099A1 (ja) 情報処理装置、情報処理装置に対する入力を制御する入力制御方法及び入力制御方法を情報処理装置に実行させるためのプログラム
JP6075193B2 (ja) 携帯端末装置
WO2018042923A1 (ja) 情報処理システム、情報処理方法、およびプログラム
US20150091831A1 (en) Display device and display control method
JP2020062376A (ja) 情報処理装置及びプログラム
Pietroszek 3D Pointing with Everyday Devices: Speed, Occlusion, Fatigue
TW201516850A (zh) 電子裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180813

R150 Certificate of patent or registration of utility model

Ref document number: 6394190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350