JP2016167250A - 操作イベントを検出する方法、システム及びプログラム - Google Patents

操作イベントを検出する方法、システム及びプログラム Download PDF

Info

Publication number
JP2016167250A
JP2016167250A JP2015190712A JP2015190712A JP2016167250A JP 2016167250 A JP2016167250 A JP 2016167250A JP 2015190712 A JP2015190712 A JP 2015190712A JP 2015190712 A JP2015190712 A JP 2015190712A JP 2016167250 A JP2016167250 A JP 2016167250A
Authority
JP
Japan
Prior art keywords
user
virtual
display
shadow
execution method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015190712A
Other languages
English (en)
Other versions
JP6686345B2 (ja
Inventor
新宮 淳
Atsushi Shingu
淳 新宮
彰 一星
Akira Ichiboshi
彰 一星
パトリック チィーウ
Patrick Chiu
チィーウ パトリック
クラッツ スベン
Kratz Sven
クラッツ スベン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of JP2016167250A publication Critical patent/JP2016167250A/ja
Application granted granted Critical
Publication of JP6686345B2 publication Critical patent/JP6686345B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】大型ディスプレイのユーザ操作に必要な、新たなそして改善されたシステム、方法及びプログラムを提供する。【解決手段】処理ユニットは、深度センサ(カメラ)101を用いてユーザ深度画像を取得し、取得したユーザ深度画像を用いてユーザ103に対応する多数点の空間位置を決定し、バーチャル操作領域内に位置するユーザに対応する多数点の位置を少なくとも決定する。バーチャル操作領域内に位置するユーザに対応する決定した位置を用いてユーザのバーチャル影を生成し、ディスプレイ102に生成したユーザのバーチャル影を表示し、ユーザの操作イベントを検出するよう表示したユーザのバーチャル影を用いる。【選択図】図1

Description

ユーザインターフェイス技術、より詳細には影を用いて大型ディスプレイを操作する方法、システム及びプログラムに関する。
当業者に理解されている通り、深度カメラを用いたジェスチャ操作は、特にゲームアプリケーションで認知度が高まっている。しかしながら、一般にジェスチャ操作では、特に複数ユーザが同時にシステムを操作しようとしたときに信頼性問題が起こることがある。ユーザの骨格(スケルトン)追跡に基づくシステムは、ユーザの立ち位置がディスプレイから近すぎる或いは遠すぎるときに悪くなり、なおまた信頼性問題に悩まされる。すなわち、これら現存システムのユーザは、ディスプレイのオブジェクト操作において実際の距離を理解し難い。更にはユーザの骨格表示が、フィードバックが通常直観的でないようなユーザへのフィードバック操作の提供に用いられたとすると、ユーザ経験を悪くする結果をもたらし、最も一般的なユーザのシステム操作を過度に複雑にさえするかもしれない。
米国特許第8230367号公報 米国特許公開20140313363号公報
コワン(Cowan)、「シャドウパペット:影操作を用いたモバイルプロジェクタフォンのコロケートされた操作のサポート(ShadowPuppets : Supporting collocated interaction with mobile projector phones using hand shadows)」、コンピュータヒューマンインタラクション会報(Proc. Of CHI)、2011年、P.2707−2716 暦本、「ブライトシャドウ:ロバストなジェスチャ認識に向けた同期イルミネーションを用いた影センシング(Shadow sensing with synchronous illuminations for robust gesture recognition)」、コンピュータヒューマンインタラクション拡張概要(CHI Extended abstracts)、2008年、P.2769−2774 シューメーカー(Shoemaker)ら、「シャドウリーチング:大型ディスプレイ操作の新たな観点(Shadow reaching: New perspective on interaction for large displays)」、ユーザインターフェイスのソフトウェアと技術会報(Proc.of UIST)、2007年、P.53−56 シューメーカー(Shoemaker)ら、「超大型壁ディスプレイに向けた身体中心とした操作技術(Body-centric interaction techniques for very large wall displays)」、コンピュータヒューマンインタラクション会報(Proc. of NorCHI)、2010年 タン(Tan)ら、「プリエンプティブシャドウ:プロジェクタからの激光除去(Pre-emptive shadows: eliminating the blinding light from projectors)」、コンピュータヒューマンインタラクション拡張概要(CHI Extended abstracts)、2002年、P.682−683
本発明は、大型ディスプレイのユーザ操作に必要な、新たなそして改善されたシステム、方法及びプログラムを提供する。
本発明の第1の態様は、処理ユニット、メモリ、ディスプレイ、深度カメラを備える計算処理システムで実行される計算実行方法であって、前記処理ユニットは、a 前記深度カメラを用いてユーザ深度画像を取得し、b 取得した前記ユーザ深度画像を用いてユーザに対応する多数点の空間位置を決定し、c バーチャル操作領域内に位置する前記ユーザに対応する多数点の位置を少なくとも決定し、d 前記バーチャル操作領域内に位置するユーザに対応する決定した前記位置を用いて前記ユーザのバーチャル影を生成し、e 前記ディスプレイに生成した前記ユーザのバーチャル影を表示し、f 前記ユーザの操作イベントを検出するよう表示した前記ユーザのバーチャル影を用いる。
本発明の第2の態様は、第1の態様の計算実行方法であって、前記深度カメラは前記ディスプレイの前に位置するユーザの深度画像を取得するよう構成される。
本発明の第3の態様は、第1または第2の態様の計算実行方法であって、前記バーチャル操作領域は前記ディスプレイの直前に位置する予め定められた深度の領域である。
本発明の第4の態様は、第1〜第3の何れかの態様の計算実行方法であって、前記ユーザのバーチャル影はバーチャル光源の空間位置とバーチャルスクリーン表面に基づき生成される。
本発明の第5の態様は、第4の態様の計算実行方法であって、前記バーチャル光源は前記ユーザの頭上後方に位置する平行光源である。
本発明の第6の態様は、第4の態様の計算実行方法であって、前記ユーザの空間位置に基づき前記バーチャル光源の空間位置を変更する、ことを更に含む。
本発明の第7の態様は、第4の態様の計算実行方法であって、前記ユーザから受け取ったコマンドに基づきバーチャル光源の空間位置を変更する、ことを更に含む。
本発明の第8の態様は、第4〜第7の何れかの計算実行方法であって、前記ユーザのバーチャル影のピクセル値はバーチャルスクリーン表面と前記バーチャル影のピクセルに対応する点との間の距離に基づき計算される。
本発明の第9の態様は、第8の態様の計算実行方法であって、前記バーチャルスクリーン表面に近い点に対応するバーチャル影のピクセルには高いピクセル強度値が設定される。
本発明の第10の態様は、第1〜第9の何れかの態様の計算実行方法であって、前記バーチャル操作領域内に位置する多数点のうち点に対応するバーチャル影のピクセルは前記バーチャル影の残りとは異なる色を用いて前記ディスプレイで表される。
本発明の第11の態様は、第1〜第9の何れかの態様の計算実行方法であって、ユーザ位置と予め定められた閾値とに基づき前記バーチャル影のタイプを変更する、ことを更に含む。
本発明の第12の態様は、第11の態様の計算実行方法であって、前記バーチャル影のタイプは前記ユーザと前記ディスプレイとの間の距離が前記予め定められた閾値よりも下回ったときに変更される。
本発明の第13の態様は、第1〜第12の何れかの態様の計算実行方法であって、アクティブであるか否かでユーザを分類する、ことを更に含む。
本発明の第14の態様は、第13の態様の計算実行方法であって、前記ユーザと前記ディスプレイとの間の距離が予め定められた閾値よりも小さいときに前記ユーザがアクティブであると分類する。
本発明の第15の態様は、第13の態様の計算実行方法であって、前記ユーザと前記ディスプレイとの間の距離が予め定められた閾値よりも大きいときに前記ユーザをアクティブでないと分類する。
本発明の第16の態様は、第13の態様の計算実行方法であって、前記fにおいて、前記ユーザがアクティブであると分類されたときのみ、ユーザ操作イベントを検知する。
本発明の第17の態様は、第13の態様の計算実行方法であって、前記ユーザがアクティブであるか否かの分類に顔検知操作の実行を含み、前記ディスプレイに前記ユーザの顔が表示されたことを検知したときのみ、前記ユーザがアクティブであると分類する。
本発明の第18の態様は、第13〜第17の何れかの態様の計算実行方法であって、前記計算処理システムは第二のディスプレイを備え、前記処理ユニットは、前記ユーザの第二のバーチャル影を生成する、ことを更に含み、前記ユーザのバーチャル影はバーチャル光源の空間位置に基づき生成され、前記ユーザの第二のバーチャル影は第二のバーチャル光源の空間位置に基づき生成される。
本発明の第19の態様は、第1〜第18の何れかの態様の計算実行方法であって、前記fにおいて、ユーザ操作イベントはグラフィカルユーザインターフェイスウィジェットのホットスポットを用いて前記ユーザのバーチャル影のうち少なくとも位置の重複に基づき検出される。
本発明の第20の態様は、第19の態様の計算実行方法であって、前記グラフィカルユーザインターフェイスウィジェットのホットスポットは複数のセンサピクセルを備え、前記ユーザ操作イベントは前記複数のセンサピクセルのうち少なくとも2つのセンサピクセルを用いて前記ユーザのバーチャル影のうち少なくとも位置の重複に基づき検出される。
本発明の第21の態様は、第19の態様の計算実行方法であって、前記ディスプレイでの前記グラフィカルユーザインターフェイスウィジェットや前記グラフィカルユーザインターフェイスウィジェットのタイプへの前記バーチャル影の近接に基づき前記ユーザのバーチャル影を変換する、ことを更に含む。
本発明の第22の態様は、プログラムであって、a 深度カメラを用いてユーザ深度画像を取得し、b 取得した前記ユーザ深度画像を用いてユーザに対応する多数点の空間位置を決定し、c バーチャル操作領域内に位置する前記ユーザに対応する多数点の位置を少なくとも決定し、d 前記バーチャル操作領域内に位置するユーザに対応する決定した前記位置を用いて前記ユーザのバーチャル影を生成し、e ディスプレイに生成した前記ユーザのバーチャル影を表示し、f 前記ユーザの操作イベントを検出するよう表示した前記ユーザのバーチャル影を用いる、処理を、コンピュータに実行させる。
本発明の第23の態様は、処理ユニット、メモリ、ディスプレイ、深度カメラを備える計算処理システムであって、a 深度カメラを用いてユーザ深度画像を取得する手段と、
b 取得した前記ユーザ深度画像を用いてユーザに対応する多数点の空間位置を決定する手段と、c バーチャル操作領域内に位置する前記ユーザに対応する多数点の位置を少なくとも決定する手段と、d 前記バーチャル操作領域内に位置するユーザに対応する決定した前記位置を用いて前記ユーザのバーチャル影を生成する手段と、e 前記ディスプレイに生成した前記ユーザのバーチャル影を表示する手段と、f ユーザの操作イベントを検出するよう表示した前記ユーザのバーチャル影を用いる手段と、を備えている。
本発明に関する更なる態様は、以下の記載で部分的に説明され、また記載から部分的に明白であり、発明の実施により習得することができる。本発明の態様は、以下の詳細な記載及び特許請求の範囲において特に指摘された要素、及び種々の要素と態様との組み合わせによって実施及び達成することができる。
上述または以下の記載は単なる例示や説明であり、特許請求の範囲に記載の発明もしくはその適用をいかなる形であれ制限することを意図したものではないことを理解されたい。
大型ディスプレイのユーザ操作に必要な改善が図れる。
影を用いた大型ディスプレイ操作についてのシステムアーキテクチャ100の実施例を示す。 バーチャルなスクリーン表面とバーチャルな操作領域例を示す。 人の位置に基づく影のタイプを変更する例を示す。 ユーザの位置に基づいた、バーチャル光源を動的に変更する例を示す。 3つの独立したバーチャル光源を伴う3つの独立したディスプレイ(ディスプレイ1、ディスプレイ2、ディスプレイ3)の実施例を示す。 複数のセンサピクセルを持つホットスポットが組み込まれた、水平方向のGUIウィジェットボタンを示す。 複数のセンサピクセルを持つホットスポットが組み込まれた、垂直方向のGUIウィジェットボタンを示す。 垂直方向のGUIウィジェットボタンの人の操作の効果を改善するユーザの影変換を示す。 影を用いて大型ディスプレイを操作する計算処理システムの実施例を示す。
本明細書に組み込まれ本明細書の一部を構成する添付図面は、本発明の実施形態を例示し、説明と相俟って本発明の技術の原理の説明及び例示に供される。
以下の詳細な記述において、添付の図面を参照する。添付の図面において、同様の機能を有する構成要素は同様の参照符号を付されている。添付の図面は例示のためのものであり、限定を意図するものではない。特定の実施例及び実装は本発明の原理と矛盾しない。これらの実装は当業者が実施できる程度に十分詳細に記述され、またその他の実装が使用されてもよく、様々な構成要素の構造の変更及び/もしくは置き換えが本発明の範囲及び思想から逸脱することなく可能であることは理解されるだろう。したがって、以下の詳細な記述は、限定的に解釈されるべきではない。さらに、記述される本発明の異なる実施例は、汎用計算機上で稼働するソフトウェアの形態によっても、専用ハードウェアの形態によっても、ソフトウェア及びハードウェアの組み合わせによっても、実装可能である。
上述または従来の技術に関連する他の課題に対応するために、ここに記述される一つもしくは複数の実施例は、プレゼンテーションや他のアプリケーションのために大型ディスプレイを操作するシステム、方法を提供する。ここに記述される一つもしくは複数の実施例によって提供される特定の操作例には、スライド変更、ポインタ操作、ユーザへのフィードバック提供をも含んでも良い。特に、一つもしくは複数の記述される実施例は、大型ディスプレイについてユーザインターフェイスを実行するよう輪郭(シルエット)や影ベースアプローチを用いる。これを達成するために、記述されるシステムは、適切に位置づけられたバーチャル光源に基づきユーザの影を生成し、ユーザへのフィードバック提供に関して生成された影をディスプレイに表示する。
図1は、影を用いた大型ディスプレイ操作についてのシステムアーキテクチャ100の実施例を示す。一つもしくは複数の実施例において、システム100は、図1の例に示される通り、デジタルコンテンツをユーザに表示するように構成された大型ディスプレイ102、ディスプレイの上に配置された深度センサ101を含む。一つもしくは複数の実施例において、深度センサ101は深度イメージングカメラであってもよい。本技術分野で知られている通り、深度イメージングカメラは、従来画像(色等)のみならず、取得画像(深度画像)のピクセル各々についての深度情報も提供する。すなわち、深度センサ101は、ディスプレイ102の前にいる人103の3次元(3D)点を多数感知するよう構成される。ディスプレイ102や深度センサ101の空間位置は知られているため、人103に対応する多数の3D点のグローバル座標は、深度センサ101によって与えられた深度画像情報から引き出すことができる。システム100は更に、深度センサ101から深度画像情報を受け取り、ディスプレイ102にコンテンツを表示し影を生成するコンピュータシステム104を含んでもよい。
「3D情報に基づくバーチャル操作領域」
一つもしくは複数の実施例について、図2の例に示される通り、深度センサ101から上述の3D情報を用いて、バーチャルスクリーン表面201及びバーチャル操作領域202は決定される。バーチャルスクリーン表面201及びバーチャル操作領域202両方の一実施例は、図2に示す通りディスプレイ102の前に位置する。一つもしくは複数の実施例について、バーチャル操作領域202は予め定められた深度領域である。この深度は、ディスプレイ102でのユーザ操作中にこの領域内に位置するようユーザの直観で決定されてもよい。
一つもしくは複数の実施例について、ユーザ103の頭上後方のバーチャルな平行光源203は、バーチャルスクリーン表面201で操作者の影を生成する。一つの実施例について、バーチャルな影画像204は、ユーザに対応する上述の多数の3D点から、図2に示される通り、座標変換によって生成される。特に、バーチャル影画像のピクセル値は、バーチャルスクリーン表面201から対応する3D点までの距離から計算される。一つの実施例において、多数の3D点のうちバーチャルスクリーン表面201に近い点は、表面201から離れた点よりも高いピクセル強度値が設定される。
一つもしくは複数の実施例について、多数の3D点のバーチャル操作領域202内の一部はバーチャル影画像204のアクティブ領域205で生成する。一つもしくは複数の実施例について、アクティブ領域202内の多数点のピクセルは異なる色(赤等)で示されてもよい。一つもしくは複数の実施例について、ユーザはアクティブ領域205を用いてディスプレイコンテンツを操作又はポイントすることが可能となる。
一つもしくは複数の実施例について、影204のタイプはバーチャルスクリーン表面201に関連して、人103の位置に基づき変更されてもよい。例えばこれは、影外観の変更又は適切な変換を用いることや、人103からバーチャルスクリーン表面201までの距離に基づき影のタイプを変更することで実行できる。図3に示される例には、人103の位置に基づく影204のタイプの変更が示されている。
図3に関して、人103がディスプレイ102から遠く離れているときに、深度センサ101によって与えられた多数の3D点を用いて、システム100によって人の輪郭が生成され、ディスプレイ102には影204として与えられる。人103が影204に気付き、ディスプレイ102に向かって歩くと、影204が徐々に大きくなる。一つの実施例において、この結果は、バーチャルスクリーン表面201の背後に置かれたプロジェクション中央に透視変換を用いて実行される。すなわちこのケースでは、バーチャル光源203がバーチャルスクリーン表面201の背後に置かれている。一つの実施例において、人103が予め決定された閾値301よりもディスプレイ102に近づいたときに、影204は、人が影画像204の操作が可能となるよう上述のタイプ(アクティブ領域周辺を異なる色表現にする等)に変更する。
「バーチャル光源、バーチャル操作領域、バーチャルスクリーン表面」
次に、バーチャル光源203、バーチャル操作領域202、バーチャルスクリーン表面201を操作する新規な方法が記述される。一つの実施例について、バーチャル光源203は操作者(ユーザ)の位置によって動的に制御される。光源203は、図4に示される通り、ユーザの腕がバーチャルスクリーン表面201の前かつバーチャル操作領域202内の都合のよい場所に位置付けられるよう、動かされる。詳細には、図4は、ユーザ103の位置に基づき、バーチャル光源203を動的に移動させる実施例を示す。
当業者に理解されている通り、ユーザ103の空間位置は、ユーザ頭部の3次元座標によって決定され、その位置には床平面X、Y座標及び床レベルより上のユーザ頭部の高さを決定するZ座標を含む。様々な実施例において、それら3次元座標は、ユーザの骨格追跡を要することなく多数の3次元点を用いることで、上述の深度画像を用いて決定されてもよい。
一つもしくは複数の実施例について、バーチャル光源203からの光源方向は、ユーザによって手動で変更されてもよい。ユーザの利き手(右利きの人の右手)がバーチャル操作領域202を操作するためものである間は、利き手でない手や他の身体の一部はバーチャル光源203の位置を制御するのに用いられてもよい。例えば、利き手でない手は、バーチャル光源203を上下左右に動かすようジェスチャをするために用いられてもよい。これは、人103がディスプレイ102の上部に届くのが難しいときやとても大きいディスプレイ102を用いて仕事をするときに、役立つものであろう。
「複数ユーザの操作、複数ディスプレイの操作」
一つもしくは複数の実施例について、複数のユーザ103に対処するために、システム100は深度イメージングカメラ101の深度チャンネルに加え、RGBカラーチャンネルを用いるよう構成される。この目的のため、深度情報に加え、カラー情報が与えられる深度イメージングカメラ101を用いてもよい。
システム100の一実施例で実行される一つの機能は、アクティブなユーザ103と、アクティブでないユーザ103を分類することである。一実施例において、ユーザ分類は、ユーザ103とディスプレイ102との間の距離に基づき、ディスプレイ102からとても離れているユーザ103は、アクティブでないと分類される。これを達成するために、予め定められた距離閾値がアクティブでないユーザを特定するのに用いられてもよい。他の実施例では、機械学習技術がユーザ103の身体の一部の特徴に適用されてもよい。他の変形例において、システム100は、ディスプレイ102に顔を向けていないユーザ103をアクティブでないと分類するために、顔検出を適用してもよい。当業者に理解されている通り、システム100はアクティブなユーザとアクティブでないユーザとを認識するために、上述した技術の一つを用いてもよいし、または上述した技術を適切に組み合わせて用いてもよい。
一つもしくは複数の実施例について、複数のディスプレイ102の操作について、各々のディスプレイ102は別々のバーチャル光源203に関連付けられてもよい。ユーザ103に関するディスプレイ102の可視領域は、ユーザの手や体の一部に基づき計算されてもよい。そして影204は、例えば図5に示される通り、適切なバーチャル光源203を用いることによってビジュアル領域に生成される。図5において、3つの独立したディスプレイ102(ディスプレイ1、ディスプレイ2、ディスプレイ3)は、3つの独立したビジュアル光源203に関連付けられる。各々のディスプレイ102は、対応するビジュアル光源203の位置とディスプレイ102に関連するユーザ103の位置に基づき影204を表示する。
「ジェスチャベースのGUIウィジェット操作」
一つもしくは複数の実施例について、ディスプレイ102に表示される影204は、例えば、特許文献2のジェスチャベースのグラフィカルユーザインターフェイス(GUI)ウィジェット操作を用いてもよい。そのようなウィジェットは、ユーザのジェスチャを受入れる際立ったホットスポットに組み入れられてもよい。例えば、ボタンウィジェットのストライプ状のホットスポットでスワイプジェスチャを行うことでボタンクリックイベントを作動させる。当業者に理解されている通り、深度センサを用いたゲームで一般的な空間での不可視なジェスチャとは異なり、上述のジェスチャベースのグラフィカルユーザインターフェイスウィジェットはよりロバストで、ユーザへ可視的な合図及びフィードバックを与える。
当業者に理解されている一般的なGUIウィジェットは、ここに上述された影ベースの操作技術を用いて機能してもよい。例えば、システム100が、ディスプレイ102で表示されたユーザの手の影を検出し、それが、ある時間内に(例えば1秒)ディスプレイ102で表示されたボタンウィジェットの位置(例えば30%)をカバー(例えば重複)すると、システム100はボタンクリックイベントを生成するよう構成されてもよい。変形例において、システム100は、そのようなイベントのきっかけのために、様々な時間間隔やオーバーラップ閾値の程度を用いてもよい。しかしながら、当業者に理解されている通り、そのようなユーザインターフェイスは、誤ったウィジェット実行を減らすより高度な制約のある、上述の特許文献2のジェスチャベースのグラフィカルユーザインターフェイスウィジェット程ロバストである必要はない。
特に、上述の特許文献2に記載されたジェスチャベースのグラフィカルユーザインターフェイスウィジェットは、ジェスチャ認識器で処理される影によって生成されたオクルージョンパタンや複数のセンサピクセルを組み込んだホットスポットでユーザが実行するジェスチャを検知するよう構成されてもよい。様々な実施例において、例えば図6A、図6Bに示されている通り、ジェスチャベースのグラフィカルユーザインターフェイスウィジェットは、横方向または縦方向に位置づけられてもよい。特に、図6Aは複数のセンサピクセル602を持つホットスポット603を組み込んだ横方向のボタンGUIウィジェット601を示す。一方、図6Bは複数のセンサピクセル602を持つホットスポット613を組み込んだ縦方向のボタンGUIウィジェット611を示す。上述のウィジェットは複数の隣接するセンサピクセル602の連続したオクルージョンを検知することによって、図6A、図6Bに示される通り、ユーザの手の影614(図2の205に対応)が予め定められた期間を超えることによって、作動する。
当業者に理解されている通り、図6Bに示す縦方向のウィジェットボタン611を用いるとき、図6Bに示す通り、同時にすべてのセンサピクセルを覆わないように、縦方向の手の影614は実質上横方向に回転されなければならない。一方で、実生活で、手の影を横方向にするような状態に手を動かすことは、ユーザにとって困難かもしれない。この問題に対応するために、システム100の一つもしくは複数の実施例において、ユーザの(縦方向の)手の影614が実質的に横方向に向くように、影を縦方向のウィジェットボタン611に近づけたときに自動的にバーチャル光源203を動かすよう構成される。すなわち、バーチャル光源203を移動させることで、システム100は、縦方向のボタンGUIウィジェット611の動作に干渉するやり方で影がセンサピクセルをオクルードしないように、影を回転する。
図7は、縦方向のGUIウィジェットボタンとの人のインタラクションの有効性を改善するユーザの影変換を示す。特に、システム100がユーザの影204がボタン611に近づいたときに、システム100は、ウィジェット611への干渉を減らすよう、影204を影704に変換するためにバーチャル光源203を位置変更するよう構成される。当業者に理解されている通り、縦方向に位置づけられたウィジェットボタンに関連するバーチャル光源203の位置変更例は一つの好例であり、システム100は、GUIウィジェットの他のタイプの有効性を改善するためにバーチャル光源203を位置変更するために構成されてもよい。このように上述例は、制限された判断によって解釈されるべきものではない。
「コンピュータプラットフォーム例」
図8は、影を用いて大型ディスプレイを操作する計算処理システム800の実施例を示す。一つもしくは複数の実施例において、計算処理システム800は、当業者によく知られているデスクトップコンピュータまたはデスクトップ通信デバイスのフォームファクタ内で実装されてもよい。変形例において、計算処理システム800は、ラップトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータ、スマートフォンをベースに実装されてもよい。
計算処理システム800はデータ・バス804あるいは計算処理システム800の様々なハードウェアの間で情報を伝達するためのその他の相互接続機構もしくは通信機構を含んでもよい。中央処理ユニット(CPUあるいは単にプロセッサ)801はデータ・バス804に接続され、情報を処理し、その他の計算処理タスク及び制御タスクを実行する。計算処理システム800は、ランダム・アクセス・メモリ(RAM)もしくはその他の動的記憶装置などのメモリ812を含む。メモリ812は、データ・バス804に接続され、様々な情報及びプロセッサ801によって実行される命令を記憶する。メモリ812は、磁気ディスク、光ディスク、半導体フラッシュ・メモリ・デバイス、もしくは、その他の不揮発性記憶デバイスなどの永久記憶装置を含んでいてもよい。
一つもしくは複数の実施例において、プロセッサ801によって命令を実行する間、一時的な変数もしくはその他の中間的な情報を記憶するために、メモリ812が使用されてもよい。計算処理システム800は、さらに、リード・オンリー・メモリ(ROMもしくはEPROM)802もしくはその他の半導体記憶装置を含んでもよいが、含むか否かは任意である。リード・オンリー・メモリ(ROMもしくはEPROM)802もしくはその他の半導体記憶装置は、データ・バス804に接続され、計算処理システム800の操作に必要なファームウェア、BIOS(basic input-output system)、計算処理システム800の様々な構成パラメータなどの静的情報及びプロセッサ801のための命令を記憶する。
一つもしくは複数の実施例において、計算処理システム800は、図1に示す大型ディスプレイ102を備えていてもよく、大型ディスプレイ102は、データ・バス804に接続され、上述の技術に関連して生成された影及び様々なコンテンツを表示する。変形例において、大型ディスプレイ102は、(図示しない)グラフィック・コントローラ及び/もしくはグラフィック・プロセッサと関連付けられていてもよい。大型ディスプレイ102は、例えば、当業者にはよく知られているTFT(thin-film transistor)技術または有機LED(organic light emitting diode)技術を用いたLCD(liquid crystal display)として実装されていてもよい。異なる実施例において、大型ディスプレイ102は、計算処理システム800のその他の構成要素と同じ一般的な筐体に含まれていてもよい。変形例において、大型ディスプレイ102は、テーブルまたはデスクの上といった、筐体の外側に配置されていてもよい。計算処理システム800は、大型ディスプレイ102に表示する様々なコンテンツを記憶するコンテンツストレージ803を備えていてもよい。
一つもしくは複数の実施例において、計算処理システム800は、大型ディスプレイ102上のカーソルを制御するために、またコマンドの選択指示をプロセッサ801に送り方向情報を通信するための、マウスやトラックボール、タッチパッドもしくはカーソル方向キーなどの、マウス/ポインティングデバイスなどのカーソル制御装置810を含む一つもしくは複数の入力デバイスを備えてもよい。この入力デバイスは、典型的には、平面上の位置を特定するために、第1の軸(例えばx)及び第2の軸(例えばy)という2つの軸における2つの自由度を有してよい。
計算処理システム800は、さらに、キーボード806と共に、上述したユーザ103の深度画像を取得する深度イメージングカメラ101を備えていてもよく、キーボード806及び深度イメージングカメラ101は、ユーザコマンド(ジェスチャを含む)及び写真や動画を含むがこれらに限定されない情報をプロセッサ801に通信するためにデータ・バス804に接続されていてもよい。
一つもしくは複数の実施例において、計算処理システム800は、データ・バス804に接続されているネットワーク・アダプタ805などの通信インターフェイスをさらに備えていてもよい。ネットワーク・アダプタ805は、ローカルエリアネットワーク(LAN)及び/もしくはISDNアダプタ807の少なくとも一つを用いて、計算処理システム800とインターネット808との間での通信を確立することができる。ネットワーク・アダプタ805は、計算処理システム800とインターネット808との間で、双方向データ通信を提供してもよい。計算処理システム800のローカルエリアネットワークアダプタ807は、統合デジタルサービス網(ISDN)カードあるいはモデムであってよく、これにより、インターネットサービスプロバイダのハードウェア(不図示)を用いてインターネット808に接続する、電話回線とのデータ通信を確立する。他の例として、ネットワーク・アダプタ805は、ローカルエリアネットワークのインターフェイス・カード(LAN NIC)であってよく、これにより、インターネット808と互換性を有する通信を提供してよい。ある実施例において、ローカルエリアネットワーク(LAN)アダプタ807は、様々なタイプのデジタルデータストリームを伝送するための電気的もしくは電磁的な信号を送受信する。
一つもしくは複数の実施例において、一般的に、インターネット808は、一つもしくは複数のサブ−ネットワークを介して、計算処理システム800に類似するシステムを用いて実行されてもよい遠隔ビデオ会議システムのようなその他のネットワーク資源へのデータ通信を提供する。したがって、計算処理システム800は、遠隔メディア・サーバ、ウェブ・サーバ、その他のコンテンツ・サービス、その他のネットワーク・データ・ストレージ資源などの、インターネット808のいずれかの位置に置かれている様々なネットワーク資源にアクセスすることができる。一つもしくは複数の実施例において、計算処理システム800はメッセージ、メディア、及び、アプリケーション・プログラム・コードを含むその他のデータを、ネットワーク・アダプタ805によって、インターネット808を含む様々なネットワークを介して、送受信する。例示的なインターネットにおいて、計算処理システム800がネットワーク・クライアントとして動作する場合、計算処理システム800上で稼働しているアプリケーション・プログラムのコードもしくはデータを計算処理システム800は要求することができる。同様に、計算処理システム800は、その他のネットワーク資源へ様々なデータもしくは計算処理コードを送信することができる。
一つもしくは複数の実施例において、ここに記述される機能は、メモリ812に含まれる一つもしくは複数の命令の一つもしくは複数のシーケンスを実行するプロセッサ801に応じて、計算処理システム800によって実装される。命令は、他のコンピュータ読取可能媒体からメモリ812に読み込まれてもよい。メモリ812に含まれている命令のシーケンスを実行することによって、ここに記述されている様々な処理のステップがプロセッサ801によって実行される。変形例において、本発明の実施例を実装するために、ソフトウェアの命令に代えて、もしくは、ソフトウェアの命令と組み合わせて、ハードウェアによって実現されている回路が使用されてもよい。すなわち、本発明の実施例は、ハードウェア回路及びソフトウェアの任意の特定の組み合わせに限定されるものではない。
ここで使用される用語「コンピュータ読取可能媒体」は、プロセッサ801へ実行するための命令を提供する際に関与する任意の媒体であってよい。コンピュータ読取可能媒体は、機械読取可能媒体の単なる一例であり、ここに記述される方法及び/もしくは技術の何れかを実装するための命令を搬送することができる。このような媒体は、不揮発性媒体、揮発性媒体などを含むが、これらに限定されない、多くの形態を採ることができる。
非一時コンピュータ読取可能媒体の一般的な形態は、例えば、フロッピー(登録商標)・ディスク、フレキシブル・ディスク、ハード・ディスク、磁気テープ、もしくは、任意のその他の磁気媒体、CD−ROM、任意のその他の光媒体、パンチカード、紙テープ、孔パターンを有する任意のその他の物理的な媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュ・ドライブ、メモリ・カード、任意のその他のメモリ・チップ、もしくはカートリッジ、もしくは、コンピュータがそこから読み取ることができる任意のその他の媒体を含む。コンピュータ読取可能媒体の様々な形態は、プロセッサ801への、一つもしくは複数の実行する命令の一つもしくは複数のシーケンスの搬送に関連してもよい。例えば、命令は、遠隔コンピュータから磁気ディスクにまず搬送されてもよい。代替的に、遠隔コンピュータは、遠隔コンピュータのダイナミック・メモリに命令をロードし、インターネット808によって指示を送信してもよい。詳細には、コンピュータの命令は、当業者にはよく知られている様々なネットワーク・データ通信プロトコルを用いて、インターネット808を介して、遠隔コンピュータから計算処理システム800のメモリ812へ、ダウンロードされてもよい。
一つもしくは複数の実施例において、計算処理システム900のメモリ812は、以下のソフトウェア・プログラム、アプリケーション、もしくは、モジュールのいずれかを記憶してもよい。
1.オペレーティング・システム(OS)813。オペレーティング・システム(OS)813は、基本システム・サービスを実装し、計算処理システム900の様々なハードウェア構成要素を管理する携帯型装置用オペレーティング・システムであってもよい。
2.ネットワークコミュニケーションモジュール814。ネットワークコミュニケーションモジュール814は、例えば、一つまたは複数のネットワークプロトコルスタックを含んでもよい。ネットワークプロトコルスタックは、ネットワーク・アダプタ805を用いて、計算処理システム800とインターネット808の様々なネットワークエントリとの間のネットワーク接続を確立するために使用される。
3.アプリケーション815。アプリケーション815は、例えば、計算処理システム800のプロセッサ801によって実行される一連のソフトウェアを含んでよく、これによって、計算処理システム800は、予め定められたある処理、例えば、ここに記述される技術を用いて影を生成すること、深度カメラ101を用いてユーザの深度画像を取得すること、などを実行してもよい。一つもしくは複数の実施例において、アプリケーション815は、ここに記述される機能を組み入れた独創的なユーザインターフェイスアプリケーション816を含んでもよい。
一つもしくは複数の実施例において、独創的なユーザインターフェイスアプリケーション816は、深度カメラ101を用いてユーザ103の深度画像を取得するために深度画像キャプチャモジュール817を含む。また、独創的なユーザインターフェイスアプリケーション816は上述の技術に関連して影生成を実行する影生成モジュール818を含んでもよい。更に、ジェスチャベースのグラフィカルユーザインターフェイスウィジェットを生成し影を用いたユーザインタラクションを検知するGUIウィジェットインタラクションモジュール819が提供されてもよい。様々な例において、適切なユーザインタフェイスイベントは、検出されたユーザインタラクションに基づきユーザインターフェイスアプリケーション816によって生成されてもよい。
最後に、ここに記述される処理及び技術は特定の装置の何れかに固有に関連するものではなく、適切に組み合わせられた構成要素の何れかによって実装されてもよいことが理解されるべきである。さらに、様々な種類の汎用目的装置が本明細書に記載される技術に従って使用されてもよい。本明細書に記載される方法ステップを実行するために専用装置を構築することは有利であるかもしれない。本発明は、特定の例示に関連して記述されているが、この記述は、限定ではなく、例示を意図している。多くの異なるハードウェア、ソフトウェア及びファームウェアの組み合わせが本発明を実行するために適切であることは、当業者には明らかである。例えば、ソフトウェアは、アセンブラ、C/C++、Objective−C、perl、shell、PHP、Java(登録商標)、現在知られているもしくは今後開発されるプログラミング言語もしくはスクリプト言語の何れかなどの様々なプログラミング言語もしくは記述言語によって実装されてもよい。
さらに、本明細書に記載された詳細及び実行を考慮すれば、本発明のその他の実装が当業者には明らかであろう。記述された実装の様々な態様及び/もしくは構成要素は、遠隔装置の物理状態を伝達するシステム及び方法を個別に、もしくは、任意に組み合わせて使用することができる。詳細及び例は例示としてのみ考慮されることを意図し、本発明の真の範囲及び思想は特許請求の範囲の記載によって示される。
100 システムアーキテクチャ
101 深度センサ
102 ディスプレイ
103 人
104 コンピュータシステム
801 プロセッサ
812 メモリ

Claims (23)

  1. 処理ユニット、メモリ、ディスプレイ、深度カメラを備える計算処理システムで実行される計算実行方法であって、
    前記処理ユニットは、
    a 前記深度カメラを用いてユーザ深度画像を取得し、
    b 取得した前記ユーザ深度画像を用いてユーザに対応する多数点の空間位置を決定し、
    c バーチャル操作領域内に位置する前記ユーザに対応する多数点の位置を少なくとも決定し、
    d 前記バーチャル操作領域内に位置するユーザに対応する決定した前記位置を用いて前記ユーザのバーチャル影を生成し、
    e 前記ディスプレイに生成した前記ユーザのバーチャル影を表示し、
    f 前記ユーザの操作イベントを検出するよう表示した前記ユーザのバーチャル影を用いる、
    計算実行方法。
  2. 前記深度カメラは前記ディスプレイの前に位置するユーザの深度画像を取得するよう構成される、請求項1記載の計算実行方法。
  3. 前記バーチャル操作領域は前記ディスプレイの直前に位置する予め定められた深度の領域である、請求項1または請求項2記載の計算実行方法。
  4. 前記ユーザのバーチャル影はバーチャル光源の空間位置とバーチャルスクリーン表面に基づき生成される、請求項1〜請求項3の何れか1項記載の計算実行方法。
  5. 前記バーチャル光源は前記ユーザの頭上後方に位置する平行光源である、請求項4記載の計算実行方法。
  6. 前記ユーザの空間位置に基づき前記バーチャル光源の空間位置を変更する、ことを更に含む、請求項4記載の計算実行方法。
  7. 前記ユーザから受け取ったコマンドに基づきバーチャル光源の空間位置を変更する、ことを更に含む、請求項4記載の計算実行方法。
  8. 前記ユーザのバーチャル影のピクセル値はバーチャルスクリーン表面と前記バーチャル影のピクセルに対応する点との間の距離に基づき計算される、請求項4〜7の何れか1項記載の計算実行方法。
  9. 前記バーチャルスクリーン表面に近い点に対応するバーチャル影のピクセルには高いピクセル強度値が設定される、請求項8記載の計算実行方法。
  10. 前記バーチャル操作領域内に位置する多数点のうち点に対応するバーチャル影のピクセルは前記バーチャル影の残りとは異なる色を用いて前記ディスプレイで表される、請求項1〜9の何れか1項記載の計算実行方法。
  11. ユーザ位置と予め定められた閾値とに基づき前記バーチャル影のタイプを変更する、ことを更に含む、請求項1〜9の何れか1項記載の計算実行方法。
  12. 前記バーチャル影のタイプは前記ユーザと前記ディスプレイとの間の距離が前記予め定められた閾値よりも下回ったときに変更される、請求項11記載の計算実行方法。
  13. アクティブであるか否かでユーザを分類する、ことを更に含む、請求項1〜12の何れか1項記載の計算実行方法。
  14. 前記ユーザと前記ディスプレイとの間の距離が予め定められた閾値よりも小さいときに前記ユーザがアクティブであると分類する、請求項13記載の計算実行方法。
  15. 前記ユーザと前記ディスプレイとの間の距離が予め定められた閾値よりも大きいときに前記ユーザをアクティブでないと分類する、請求項13記載の計算実行方法。
  16. 前記fにおいて、前記ユーザがアクティブであると分類されたときのみ、ユーザ操作イベントを検知する、請求項13記載の計算実行方法。
  17. 前記ユーザがアクティブであるか否かの分類に顔検知操作の実行を含み、前記ディスプレイに前記ユーザの顔が表示されたことを検知したときのみ、前記ユーザがアクティブであると分類する、請求項13記載の計算実行方法。
  18. 前記計算処理システムは第二のディスプレイを備え、
    前記処理ユニットは、
    前記ユーザの第二のバーチャル影を生成する、
    ことを更に含み、
    前記ユーザのバーチャル影はバーチャル光源の空間位置に基づき生成され、前記ユーザの第二のバーチャル影は第二のバーチャル光源の空間位置に基づき生成される、
    請求項13〜請求項17の何れか1項記載の計算実行方法。
  19. 前記fにおいて、ユーザ操作イベントはグラフィカルユーザインターフェイスウィジェットのホットスポットを用いて前記ユーザのバーチャル影のうち少なくとも位置の重複に基づき検出される、請求項1〜請求項18の何れか1項記載の計算実行方法。
  20. 前記グラフィカルユーザインターフェイスウィジェットのホットスポットは複数のセンサピクセルを備え、前記ユーザ操作イベントは前記複数のセンサピクセルのうち少なくとも2つのセンサピクセルを用いて前記ユーザのバーチャル影のうち少なくとも位置の重複に基づき検出される、請求項19記載の計算実行方法。
  21. 前記ディスプレイでの前記グラフィカルユーザインターフェイスウィジェットや前記グラフィカルユーザインターフェイスウィジェットのタイプへの前記バーチャル影の近接に基づき前記ユーザのバーチャル影を変換する、ことを更に含む、請求項19記載の計算実行方法。
  22. a 深度カメラを用いてユーザ深度画像を取得し、
    b 取得した前記ユーザ深度画像を用いてユーザに対応する多数点の空間位置を決定し、
    c バーチャル操作領域内に位置する前記ユーザに対応する多数点の位置を少なくとも決定し、
    d 前記バーチャル操作領域内に位置するユーザに対応する決定した前記位置を用いて前記ユーザのバーチャル影を生成し、
    e ディスプレイに生成した前記ユーザのバーチャル影を表示し、
    f 前記ユーザの操作イベントを検出するよう表示した前記ユーザのバーチャル影を用いる、
    処理を、コンピュータに実行させるためのプログラム。
  23. 処理ユニット、メモリ、ディスプレイ、深度カメラを備える計算処理システムであって、
    a 深度カメラを用いてユーザ深度画像を取得する手段と、
    b 取得した前記ユーザ深度画像を用いてユーザに対応する多数点の空間位置を決定する手段と、
    c バーチャル操作領域内に位置する前記ユーザに対応する多数点の位置を少なくとも決定する手段と、
    d 前記バーチャル操作領域内に位置するユーザに対応する決定した前記位置を用いて前記ユーザのバーチャル影を生成する手段と、
    e 前記ディスプレイに生成した前記ユーザのバーチャル影を表示する手段と、
    f ユーザの操作イベントを検出するよう表示した前記ユーザのバーチャル影を用いる手段と、
    を備えた計算処理システム。
JP2015190712A 2015-03-09 2015-09-29 操作イベントを検出する方法、システム及びプログラム Active JP6686345B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/642,719 2015-03-09
US14/642,719 US20160266648A1 (en) 2015-03-09 2015-03-09 Systems and methods for interacting with large displays using shadows

Publications (2)

Publication Number Publication Date
JP2016167250A true JP2016167250A (ja) 2016-09-15
JP6686345B2 JP6686345B2 (ja) 2020-04-22

Family

ID=56887709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015190712A Active JP6686345B2 (ja) 2015-03-09 2015-09-29 操作イベントを検出する方法、システム及びプログラム

Country Status (2)

Country Link
US (1) US20160266648A1 (ja)
JP (1) JP6686345B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039725A1 (ja) 2019-08-28 2021-03-04 株式会社小糸製作所 車両用灯具

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018106276A1 (en) * 2016-12-05 2018-06-14 Youspace, Inc. Systems and methods for gesture-based interaction
US11206506B2 (en) 2019-12-12 2021-12-21 Motorola Mobility Llc Delivering information to users in proximity to a communication device
US11012823B1 (en) * 2019-12-12 2021-05-18 Motorola Mobility Llc Delivering information to a non-active user of a communication device
US11397071B1 (en) 2021-09-14 2022-07-26 Vladimir V. Maslinkovskiy System and method for anti-blinding target game

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010539590A (ja) * 2007-09-14 2010-12-16 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP2011133955A (ja) * 2009-12-22 2011-07-07 Toshiba Corp 映像再生装置及び映像再生方法
JP2012018620A (ja) * 2010-07-09 2012-01-26 Canon Inc 情報処理装置およびその制御方法
JP2012022458A (ja) * 2010-07-13 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP2014211858A (ja) * 2013-04-18 2014-11-13 富士ゼロックス株式会社 ジェスチャに基づくユーザ・インターフェイスを提供するシステム、方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP2008505379A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元タッチ型インタラクションにおけるタッチダウン型フィードフォワード
US20120218395A1 (en) * 2011-02-25 2012-08-30 Microsoft Corporation User interface presentation and interactions
JP5518004B2 (ja) * 2011-06-29 2014-06-11 三菱電機株式会社 電力変換装置
US8922557B2 (en) * 2012-06-29 2014-12-30 Embarcadero Technologies, Inc. Creating a three dimensional user interface
US20160019718A1 (en) * 2014-07-16 2016-01-21 Wipro Limited Method and system for providing visual feedback in a virtual reality environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010539590A (ja) * 2007-09-14 2010-12-16 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP2011133955A (ja) * 2009-12-22 2011-07-07 Toshiba Corp 映像再生装置及び映像再生方法
JP2012018620A (ja) * 2010-07-09 2012-01-26 Canon Inc 情報処理装置およびその制御方法
JP2012022458A (ja) * 2010-07-13 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP2014211858A (ja) * 2013-04-18 2014-11-13 富士ゼロックス株式会社 ジェスチャに基づくユーザ・インターフェイスを提供するシステム、方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039725A1 (ja) 2019-08-28 2021-03-04 株式会社小糸製作所 車両用灯具

Also Published As

Publication number Publication date
JP6686345B2 (ja) 2020-04-22
US20160266648A1 (en) 2016-09-15

Similar Documents

Publication Publication Date Title
Rädle et al. Huddlelamp: Spatially-aware mobile displays for ad-hoc around-the-table collaboration
US10228848B2 (en) Gesture controlled adaptive projected information handling system input and output devices
US9348420B2 (en) Adaptive projected information handling system output devices
EP3769509B1 (en) Multi-endpoint mixed-reality meetings
US9430045B2 (en) Special gestures for camera control and image processing operations
US20150268773A1 (en) Projected Information Handling System Input Interface with Dynamic Adjustment
US10559133B2 (en) Visual space management across information handling system and augmented reality
JP6686345B2 (ja) 操作イベントを検出する方法、システム及びプログラム
US9965038B2 (en) Context adaptable projected information handling system input environment
US10529136B2 (en) Augmented reality workspace system
JP6379880B2 (ja) プロジェクタ−カメラシステム又はディスプレイ−カメラシステムに対する微細なユーザインタラクションを可能とするシステム、方法及びプログラム
US10133355B2 (en) Interactive projected information handling system support input and output devices
US11733857B2 (en) Graphical user interface (GUI) for controlling virtual workspaces produced across information handling systems (IHSs)
US20150268739A1 (en) Projected Information Handling System Input Environment with Object Initiated Responses
US11057549B2 (en) Techniques for presenting video stream next to camera
JP6394190B2 (ja) 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法
US11150860B1 (en) Dynamic virtual workspace with contextual control of input/output (I/O) devices
CN106293036B (zh) 一种交互方法及电子设备
TWI394063B (zh) 應用影像辨識之指令輸入系統以及方法
US9948894B2 (en) Virtual representation of a user portion
JP2013134549A (ja) データ入力装置およびデータ入力方法
US20150205374A1 (en) Information processing method and electronic device
US20170024118A1 (en) Three-Part Gesture
Kim et al. New interface using palm and fingertip without marker for ubiquitous environment
US11928382B2 (en) Contextual intelligence for virtual workspaces produced across information handling systems (IHSs)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200204

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R150 Certificate of patent or registration of utility model

Ref document number: 6686345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350