JP5902346B2 - ジェスチャーを用いた3次元グラフィックスの作成 - Google Patents

ジェスチャーを用いた3次元グラフィックスの作成 Download PDF

Info

Publication number
JP5902346B2
JP5902346B2 JP2015501647A JP2015501647A JP5902346B2 JP 5902346 B2 JP5902346 B2 JP 5902346B2 JP 2015501647 A JP2015501647 A JP 2015501647A JP 2015501647 A JP2015501647 A JP 2015501647A JP 5902346 B2 JP5902346 B2 JP 5902346B2
Authority
JP
Japan
Prior art keywords
shape
gesture
display
displayed
observing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015501647A
Other languages
English (en)
Other versions
JP2015511043A (ja
Inventor
ジェイ. アンダーソン,グレン
ジェイ. アンダーソン,グレン
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2015511043A publication Critical patent/JP2015511043A/ja
Application granted granted Critical
Publication of JP5902346B2 publication Critical patent/JP5902346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals

Description

本発明はコンピュータ又はゲーム環境におけるグラフィックオブジェクトを作成する分野に関する。特に、ユーザのジェスチャーを用いて第3の次元をオブジェクトに加えることに関する。
3次元(3D)グラフィックスレンダリングの出現により、コンピュータ及びテレビゲームの性質が変化し、今や多くのアプリケーションやユーザインターフェースにおいて使用されるようになった。ユーザに3D画像を見せることができる3Dディスプレイでは、既存の3Dグラフィックスレンダリングをレンダリング画像内に潜在した追加的な奥行きを持って表示させることができる。ハンドヘルドポインティングデバイスにおける安価な慣性センサと立体カメラの出現により、3Dの動きを3Dにレンダリングされたオブジェクトへの入力として使用することができるようになった。
入力システムとして、動きと慣性センサを有する周辺機器が使用されてきた。周辺機器は動きに敏感な手袋やコントローラの形態でよい。あるいは、カメラが3Dフリーハンドやエアージェスチャーを検知するために用いられ、スクリーン上に現れる3Dモデルを作り出し、操作してきた。
タッチスクリーン及びトラックパッドは、3Dオブジェクトの作成及び操作にも使用される。マウス及びタッチパッド入力は、2つ又は3つの次元でのデザインを作るために使用されてきた。
類似の参照番号が同様の要素を示す添付の図面の図形において、限定ではなく例として本発明の実施形態を図示する。
本発明の一実施形態に従った、タッチスクリーンデバイス上に2D形状を描く図である。
本発明の一実施形態に従った、タッチスクリーンデバイス上における描かれた2D形状の図である。
本発明の一実施形態に従った、タッチスクリーンデバイス上における描かれた2D形状の一部を握る図である。
本発明の一実施形態に従った、タッチスクリーンデバイス上における描かれた2D形状を第3の次元に引っ張る図である。
本発明の一実施形態に従った、タッチスクリーンデバイス上の他の2D形状の図であり、2D形状の一部を第3の次元に引っ張る図である。
本発明の一実施形態に従った、3Dディスプレイ上で見られ得る3D形状を下るボールを有する、図2Aの拡張された3Dの図である。
本発明の一実施形態に従った、両手の指を同時に用いてタッチスクリーンデバイス上で3Dの形状を操作する図である。
本発明の一実施形態に従った、タッチスクリーンデバイス上における円形状の他の2Dオブジェクトの図である。
本発明の一実施形態に従った、タッチスクリーンデバイス上における2Dの円形の図であり、ユーザがデバイスのスクリーンから離れて球形の中心部を引っ張る図である。
本発明の一実施形態に従った、ユーザによって3Dの球形に変換され、タッチスクリーンデバイス上でレンダリングされた2Dの円形の図である。
本発明の一実施形態に従った、ポータブルコンピュータのスクリーン上における仮想バインディングの図である。
本発明の一実施形態に従った、第3の次元におけるスクリーン上の仮想バインディングを操作する図である。
本発明の一実施形態に従った、ユーザのジェスチャーを用いて2D形状を3D形状に変化させるプロセスフロー図である。
本発明の一実施形態に従った、形状を3つの次元に拡大するプロセスフロー図である。
本発明の一実施形態に従った、エアージェスチャーを用いて、レンダリングされた3Dオブジェクトを操作するプロセスフロー図である。
本発明の一実施形態に従った、本開示の処理を実行するのに適したコンピュータシステムのブロック図である。
本発明の一実施形態に従った、本開示の処理を実行するのに適した図8のコンピュータシステムの別の表示を行ったブロック図である。
3Dオブジェクトはタッチスクリーン及びエアージェスチャー入力の組み合わせによって作り出され、操作することができる。タッチとジェスチャーはゲームで一緒に用いることができる。例えば、タッチスクリーン又は他の入力は、デザイン及びゲームのパーツを作り出すために用いることができ、続いてタッチスクリーンジェスチャーと共に開始される、あるいは開始されないエアージェスチャーは、これらのオブジェクトを引っ張って3D表示にするために用いられる。第3の次元の奥行きはジェスチャーが行き来する距離に応じて作られる。
このタッチ及びエアージェスチャー入力の調整された方法は、オブジェクトが第3の次元に引っ張られる前に、さまざまな創造的で面白いコンピュータ相互作用を可能にさせる。
一実施例において、ユーザがスクリーン上にデザインを描く。次に、ユーザはタッチジェスチャーを用いてデザインの一部をつまむ。タッチジェスチャーから開始し、次にユーザはデザインのつまんだ部分を引っ張り、デザインを第3の次元に伸ばす。3Dディスプレイは2Dグラフィックスでシミュレーションされるか、あるいは実際の3Dディスプレイでよい。他の実施例において、ユーザはコンピュータの前の空間においてパスをトレースし、ゲームで用いられる3Dパスを作り出す。ユーザが3Dパスをトレースした後、続いて仮想オブジェクト(例えば、オレンジのボール)がパスを下る。他の実施例において、ユーザは形状をレイアウトし、ジェスチャー入力でその形状を制御する。
3Dエアージェスチャーの性質は、異なるアプリケーションに適合し、異なるユーザエクスペリエンスを提供するように採用され得る。一実施例において、スクリーン上をより強く押すことは、描かれた、あるいは仮想のオブジェクトを操作又は伸ばす際に、奥行きをより深くさせることができる。他の実施例において、第1の指をベースあるいはアンカーとして用いると、第2の指はz軸におけるオブジェクトの長さを確立するために第1の指から離れて動く。他の実施例において、両手あるいは2つの指を用いて伸ばすことにより、ユーザは3D操作の範囲に印をつける。ユーザは3D操作前にスクリーン上に形状が現れるよう、音声コマンドも使うことができる。
作成された3Dオブジェクトは、さまざまな使用カテゴリーに適用される。一実施例において、3Dレイアウトは、ボードゲームの1つであるシュート・アンド・ラダー(Chutes and Ladder)のオンスクリーン版といったゲーム用に作られ得る。他の実施例において、パスは仮想オブジェクトが滑ったり、転がったりするために作り出される。他の実施例において、ゲームに従ったラインライダー(line rider)や他のパスの3D版を作ることができる。3Dオブジェクトは芸術的で工学的な作成及び視覚化のために作り出されることもできる。
図1Aは、支持デバイス12上におけるタッチスクリーン10の図である。ユーザは指14を用いてタッチスクリーン10上に形状16を描く。図1Bでは、完成した2D形状が見られる。この形状はゲームや芸術アプリケーションのための行路(track)又は案内路(guide way)、あるいは工学的又は科学的用途のための任意の種類の金属又は分子コイルを表すことができる。
図1Cにおいて、ユーザは2D形状の一部20において指14及び親指18を用いて形状16を握る。図1Dにおいて、ユーザはエアージェスチャーを行い、タッチスクリーン10の位置の外における第3の次元において握った一片を持ち上げる。これにより形状に第3の次元を作りだす。形状は、アプリケーションに応じて円形状のスライド又はコイルばねのように見える。第3の次元への程度の量はディスプレイ上に、あるいは3Dディスプレイで遠近法によって示され、追加された次元は、3Dディスプレイ上の第3の次元としてレンダリングされ得る。
図示された実施例において、タッチスクリーンデバイスはスマートフォンとして示されているが、本発明はそれに限らない。スマートフォンに実装すると、タッチスクリーンは指又はスタイラスによる描画を生み出すために用いられる。エアージェスチャーは一般にテレビ会議に用いられるフロントカメラによって観測することができる。より正確にエアージェスチャーを観測するために、ステレオフロントカメラをデバイス上に設けることができる。ステレオフロントカメラは3Dのテレビ会議又はビデオ録画にも用いることができる。同じ手法が同様に取り付けられたタッチパッド、メディアプレーヤー、スレートコンピュータ、ノートブックコンピュータ又はデスクトップ又は一体型機器のディスプレイと共に用いることができる。専用のゲーム機も同様に用いられる。描画は、示されるような描画を表示するスクリーン上にあるか、あるいは描画とエアージェスチャーは、別のタッチパッド及びディスプレイで構成される典型的なノートブックコンピュータ内にあるように、異なる表面上のディスプレイを有する別のタッチパッド上に作成され得る。タッチスクリーンであるディスプレイ10及び支持デバイス12は別のデバイスとして、あるいは追加的なディスプレイ、カメラ、そして追加的な処理リソースを有するより大きなシステムのための入力デバイスとして使用することができる。
形状である描画16の特徴は、他のユーザ制御によって更に定義づけられる。これらの制御によりユーザはアイテムの性質を特定し、そのアイテムのアプリケーションコンテクストを確立させ、寸法を定義することができる。例えば、ユーザはコイルばねが特定のゲージ及び底面半径を有する特有の合金鋼で作られていることを示すことができる。この情報はゲームプレイのパラメータを設定するため、あるいは工学的又は科学的な目的のために用いられる。ユーザはこのようなパラメータを直接選択することができるか、あるいはパラメータはアプリケーションによって暗黙に定義され得る。例えば、アプリケーションはユーザにアプリケーションによって既に定義されたパラメータを有する特定のアイテムを作り出すように促すことができ、あるいはユーザは所定のパラメータを有する特定のアイテムを選択することができる。アイテムが決定されると、続いて描かれた形状は選択されたアイテムに基づいて定義される。
図2Aは、ユーザが指14を用いてスクリーン又は支持デバイスであるポータブルデバイス12のタッチスクリーンであるタッチ表面10に別の形状22を描いた他の実施例を示す。ユーザは形状22の一部30を握り、その部分をスクリーン上に持ち上げる。図示した実施例では、握るという動きよりはむしろ、握るというのは触れたり、保持したりする動きである。形状の触れられた部分は「粘着性」を持ち、放されるまでユーザの指14の後を追う。
図2Bは、結果的に生じた3D形状を示す。本実施例において、3D形状はパス、行路(track)又は案内路(guide way)であり、そこでは、加えられた第3の次元は高さに対応する。続いて、ユーザは3D形状の上にボール、ライダー、そり、車両又は他のオブジェクトを配置し、配置されたアイテムはパスを下る。図示するように、ユーザはパスを下る一連のボール24、26及び28を配置した。
図3は、ユーザが手32及び34を用いてポータブルデバイス12のディスプレイ10上の形状36を握る他の実施例を示す。両手を使うことで、ユーザは異なる方向に押したり、引いたりすることができ、スクリーンの平面内及び第3の次元における形状の寸法を定義することができる。図示した実施例において、ユーザは一方の手34の指を用い、形状36の第1の部分の位置を確保する。もう一方の手32を使って、ユーザは形状36の一方を握る。ユーザが握っている手32で持ち上げるとき、握られた部分が持ち上げられる一方で、被保持部はスクリーンの平面内に残ったままである。両手のジェスチャーにより、形状に対してより精巧な制御でより多岐にわたるさまざまな形状を作り出すことができる。
上記の全ての実施例において、ユーザは形状の一部を選択し、それをスクリーンから離れて持ち上げることで2次元の形状に第3の次元を加える。これは握るジェスチャーを用いて、あるいは触れたり、保持したりするような握るコマンドを示すことによって行うことができる。引っ張ったり持ち上げたりするジェスチャーは、デバイス上あるいはデバイス付近の1つ以上のカメラによって観測することができるエアージェスチャーである。原形がユーザによって描かれるものとして示される一方、これは本発明にとって重要ではない。ユーザはアプリケーションライブラリ又は外部位置から所定の形状を選択することができる。形状はカメラを用いて得ることもできる。
持ち上げたり、引っ張ったりする動きとは別の動きとして、ユーザは代替的に、あるいは追加的に、形状の一部をスクリーンの下方へ押すことができる。押す継続時間及び圧力は、スクリーンの平面から離れた距離を決めるために用いられる。継続時間及び圧力はタッチスクリーン表面又はカメラによって検知され得る。押す動きは持ち上げる動きと組み合され、形状の一部を両方向に動かし、両方向における第3の次元を定義することができる。これは、z軸と呼ぶことができ、そこではタッチスクリーンがx及びy軸を占める。水平なディスプレイよりは垂直なディスプレイで、第3の次元がx又はy軸でよい一方で、ディスプレイはz軸と、x又はy軸のどちらか一方を占める。ユーザがオブジェクトを操作する間、フィードバックはスクリーン上に現れ、3D変位の方向、3D変位の度合、そしてその他の特徴を示し、ユーザは入力が受信されているということ、そしてユーザ入力から生じている変更の程度を知ることができる。
上記の実施例では曲線を用いたが、同様の技法を直線や内部領域を有する囲まれた形状に適用することができる。図4Aは、ポータブルデバイス12のタッチ表面10上の円形44を示す。図4Bにおいて、ユーザ46は円形44の中心を握り、それをタッチ表面10から持ち上げる。図4Cにおける結果は、3Dの球体48である。多かれ少なかれ持ち上げることで、3Dの体積は、楕円の体積として作り出される。任意の閉じられた2D領域がこの手法で用いられ、第3の次元の体積を領域の特定の部分に加えるか、あるいは図4Cにあるように、領域全体に均一に加えることができる。三角形はピラミッド型に変換され得る。四角形は立方体等に変換され得る。この追加された次元は2D又は3Dディスプレイ上で表示され得る。
2Dオブジェクトはさまざまな異なる方法で用いられ得る。図2Bにおいて、ボールは斜面あるいは傾斜台を転がり落ちる。図5Aにおいて、パチンコ54はノートブックコンピュータ52のディスプレイ50上に作られる。任意の種類のディスプレイ又はコンピュータデバイスは、上述のとおり、例えばデスクトップタッチスクリーンコンピュータ又は待機状態に保たれているスレートコンピュータとして使用され得る。パチンコ54は発射体を放つためのストラップ56を有する。ディスプレイ50はx及びy軸を占めるものとして考えられる。しかし、他の全ての実施例と同様に、軸の名称及び調整システムの種類は任意の特定のアプリケーションに適合するように採用され得る。
図5Bにおいて、ユーザはストラップ56を握り、y軸の負の方向へスクリーンから離れて引っ張る。仮想のバインディングであるストラップ56を伸ばす。ユーザがストラップ56を放すと、仮想の発射体がパチンコ54からディスプレイ50における正のy軸において示されるオブジェクトに向かって放たれる。発射体はユーザによってストラップ56内で選択又は配置されるか、あるいはユーザ入力なしにアプリケーションによって供給され得る。ユーザのエアージェスチャーは、ディスプレイ50に内蔵又は結合された1つ以上のカメラ60によって観測され得る。
これまでの図面に示した同様の、握ったり、持ち上げたりするエアージェスチャーは、図5Bにおいて用いられ、スクリーンから離れてオブジェクトを動かす。この場合、オブジェクトはパチンコ54のストラップ56である。同様の原理がカタパルト、さまざまなレバー等に適用される。ユーザの動きはディスプレイから直接離してストラップ56を動かすためだけではなく、パチンコ54を狙うためにも用いられる。仮想バインディングに対して放す位置を調整するために、ユーザはストラップ56の握った部分を上下させたり、左右にさせたり、前後させたりして動かす。パチンコ54の場合、これによってパチンコ54は正確に狙うことができ、発射体に加えられる力を制御することができる。同様に、図1C及び図2Aの実施例において、ユーザは形状の握った部分を異なる方向に動かし、そのz軸の寸法と同様にx及びy軸の寸法を調整する。
図6は、ユーザが3次元オブジェクトを作成及び使用するように相互作用しているシステムの観点から、上記で説明した動作の一実施例を示すプロセスフロー図である。プロセスフローは他のプログラムの動作中、あるいは別の処理の開始又は継続として発生する。処理は特定の実施に応じてさまざまな異なる方法で開始することができる。602において、処理はユーザ入力を受信することで始まり、ディスプレイ上に形状を描く。ユーザ入力はタッチスクリーン、タッチパッド又はエアージェスチャーでよく、あるいはマウス又は専用の描画デバイスによる入力でもよい。
描画入力を受信する代わりに、形状はライブラリから選択するか、あるいは異なる形状のソースからインポートすることができる。形状は曲線、直線、囲まれた領域、画像、あるいは任意のさまざまな他の形状でよい。形状は2次元又は3次元の形状でよい。
604において、形状がディスプレイ上に表示され、606において、ユーザによって形状が選択される。形状は一般的に平坦な表面として平坦な表面上に表示され、ユーザはエアージェスチャー又はタッチジェスチャーによって、あるいはポインティングデバイスを使用することによって形状を選択することができる。しかし、3D形状は代わりに平坦なスクリーン表面上に表示され得る。
608において、表示された形状の少なくとも一部をディスプレイから離して動かすようにジェスチャーが観測される。ジェスチャーはエアージェスチャー又はタッチジェスチャーでよい。一実施例において、ジェスチャーは形状の一部を握り、ディスプレイから離れてディスプレイの前の空間に引っ張るというものである。ユーザはひねる動きやその他の動きをジェスチャーで表し、オブジェクトを回転させたり、変形させたりすることができる。ジェスチャーは3つ全ての次元における動きでよく、ジェスチャーはディスプレイからの距離だけではなく、握る動きの開始点からの水平及び垂直の距離も定義する。当初2次元である形状では、ジェスチャーは形状がどのように3次元になるのかを示す。3次元の形状では、ジェスチャーは3次元的特性を変更することができる。
他の例において、ジェスチャーはディスプレイを押す動きであり、その圧力と時間は形状の選択された部分が、ディスプレイの平面からどれだけ遠く離れて動かされるか、を決定する。引っ張る動きと共に、押す動きは水平及び垂直の動きを有する。上記に示すように、ユーザは両手又は2つの指を使って元の形状の一部を保持し、その他を動かす。これにより、どの部分が動かされ、どの部分が動かされないのかをより正確に定義する。
形状を引っ張ったり押したりする動きは、音響効果を伴うことができ、受信したコマンドの確認が行われる。一実施例において、音響効果はピッチ内で変化し、ディスプレイ又は開始点からの動きの程度を示すストレッチ音でよい。他の音響効果が引っ掻き又は摩擦効果といった動きを示すために用いられる。
各ジェスチャーと共に、例えば握る動きといった当初の開始ジェスチャー、手や道具の動きといった動作ジェスチャー、そして放すといった終了ジェスチャーがある。ジェスチャーが周辺機器と共に行われると、デバイス上のボタンが開始及び終了を示すために用いられる。ジェスチャーが手で行われると、指の動きや音声コマンドが用いられるか、あるいはもう一方の手が、ジェスチャー、ボタンの押下又は他の方法で開始及び終了を示すために用いられ得る。
610において、当初の表示された形状は観測されたジェスチャーに基づいて変更される。変更は観測されたジェスチャーに対応するスクリーンから離れる方向において行われる。場合によっては、表示された形状は当初の2次元形状に第3の次元を加えて3次元形状を生成することによって変更される。
612において、変更された形状は3次元仮想オブジェクトとして表示される。変更された形状は614において3Dディスプレイ上に表示されるか、あるいは2Dディスプレイ上に奥行きを有して示される。形状は、実物のオブジェクトではなく、表示されたオブジェクトである仮想オブジェクトとして表示される。次に3D形状は上記で議論されたようにさまざまな異なる用途に適用され得る。3D形状はコンピュータ支援設計システムに用いることができる。3D形状はさまざまな工学的又は科学的用途において用いることができ、後の相互作用にも使用することができる。
場合によっては、616にあるように、3D形状は仮想オブジェクトを放つために選択的に使用され得る。仮想オブジェクトは変更された形状と相互作用し、この相互作用はディスプレイ上に表示される。転がるボールや発射体を放ったパチンコは、このような相互作用の例である。ユーザのジェスチャーは上記に示されたパチンコ等の変更された形状とのユーザインタラクションとして受信され得る。このような相互作用は、ユーザの使用、参照又は娯楽のためにディスプレイ上に表示される。
図7Aは、上記に記載された使用事例のより一般化された例のプロセスフロー図である。702において、タブレット又はスレートコンピュータ、スマートフォン、メディアプレーヤー又はゲーム機といったタッチスクリーンデバイス、あるいはコントロ−ラは、タッチスクリーンインターフェース上のオブジェクトのトレーシングを受信する。描画はユーザの指の位置及びディスプレイにわたるユーザの指の動きを検知するスクリーン上で、ユーザの指によって描かれ得る。あるいは、スタイラス又はその他の専用デバイスを用いることができる。このようなデバイスのタッチスクリーンは一般的にディスプレイでもある。704において、デバイスはタッチスクリーンディスプレイ上にトレースされたオブジェクトをレンダリングする。
706において、デバイスはタッチスクリーン上にあるトレースされ、かつ表示されたオブジェクトの一部をつまむジェスチャーを受信する。708において、デバイスはタッチスクリーンから離れてつまむジェスチャーを追跡する。ユーザのつまむジェスチャーを観測する一部のタッチスクリーン又はカメラに関連する近接センサによって、動きが追跡される。タッチスクリーンに対してつまむジェスチャーの位置を決定する他の技術を用いてもよい。
710において、デバイスはタッチスクリーンから離れて、トレースされたオブジェクトのつままれた部分の3D拡張をレンダリングする。これは遠近法、直立投影又は3Dディスプレイを用いて行われる。このレンダリングによって、コイルばね、上昇したトラック(raised track)、パチンコ、ビーチボール又は上記に説明した実施例で示される任意の他のオブジェクトが生じる。
図7Bは、上記に説明した仮想バインディングの例に用いることができる特定の動作のプロセスフロー図である。722において、タッチスクリーンデバイスはタッチスクリーンインターフェース上の仮想バインディングのトレーシングを受信する。このデバイスは上記に説明したデバイスと同じ種類のものでよい。仮想バインディングは上述のように、パチンコ、カタパルト、アーチェリーの弦、空気砲、あるいはその他の種類の仮想バインディングでよい。724において、デバイスはタッチスクリーンディスプレイ上で仮想バインディングをレンダリングする。
726において、ユーザはレンダリングされた仮想バインディングを使用することができる。そのために、ユーザは仮想バインディングを握る。これはレンダリングにおいて、ストラップ、ハンドル、レバー、あるいはデバイスの他の態様を握ることによって行われる。デバイスは、タッチスクリーン上でバインディングの握るジェスチャーを受信する。一般的に、これはタッチスクリーン上で検知され得る、手のジェスチャーによって行われる。握るジェスチャーは、706におけるつまむジェスチャーと共に、握られるレンダリング部分を特定する。728において、ユーザは握ったり、つまんだりする手をタッチスクリーンから離れて動かす。デバイスはタッチスクリーンから離れた、ジェスチャーの動きを追跡する。ジェスチャーはタッチスクリーンと直接接触することのないエアージェスチャーである。
730において、デバイスは追跡された動きに基づいて仮想バインディングの張力と照準を決定する。732において、デバイスはバインディングを放すジェスチャーを受信する。これは放すジェスチャーを行うユーザによって、あるいは状況に応じてさまざまな他のジェスチャーを行うユーザによって実行される。
734において、デバイスは受信した放すジェスチャーと決定された張力及び照準に基づいて仮想バインディングの弾性応答をレンダリングする。これは、一般に石や矢といった何かしらの発射体を放つことである。バインディングを放す特定の結果はバインディングが表わそうとするものに依存する。
図8は、上記で議論した動作を支持することができるコンピュータ環境のブロック図である。モジュール及びシステムは、さまざまなハードウェアアーキテクチャ内で実行され、図9で示されるものを含む要因を形成する。ブロック図において、外部インターフェースの処理はシステムボックス外に表示され、内部計算処理はボックス内で表示されるが、動作及び処理は他の実行に適用するように再配置され得る。
コマンド実行モジュール801は中央処理装置を含み、コマンドをキャッシュ及び実行し、他のモジュールや示されたシステム内のタスクを分配する。これには命令スタック、中間及び最終結果を記憶するキャッシュメモリ、そしてアプリケーション及びオペレーティングシステムを記憶する大容量メモリが含まれる。コマンド実行モジュール801はシステムに対する中央調整及びタスク割り当てユニットとして機能することもできる。
スクリーンレンダリングモジュール821は、ユーザが見るためにローカルデバイスの1つ以上のスクリーン上にオブジェクトを描画する。スクリーンレンダリングモジュール821は、下記に説明する仮想オブジェクト行動モジュール804からデータを受信し、描かれたオブジェクト、仮想オブジェクト及び適切なスクリーン又はスクリーン上の他のオブジェクトをレンダリングするように構成されている。このように、描画認識及びレンダリングモジュール808からのデータは、スクリーン上の2Dオブジェクトの位置及び外観を決定し、2Dオブジェクトが3Dにもたらされ、ジェスチャーを用いて操作された後、仮想オブジェクト行動モジュール804は対応する仮想オブジェクトの位置及びダイナミクスを決定する。例えば、スクリーンレンダリングモジュール821は仮想オブジェクト、そして関連するオブジェクト及びスクリーン上の環境を描画する。
ユーザ入力及びジェスチャー認識システム822は、ユーザの手及び腕のジェスチャーを含むコマンド及びユーザ入力を認識するように構成される。このようなモジュールは、ディスプレイに対する手、指、指のジェスチャー、手の動き及び手の位置を認識するために用いられる。例えば、オブジェクト及びジェスチャー認識モジュールは、ユーザが第3の次元においてオブジェクトを伸ばし、さまざまな位置における画像内又は画像上に仮想オブジェクトを落とす、あるいは投げるジェスチャーを行ったことを決定する。ユーザ入力及びジェスチャー認識システム822は、カメラ又はカメラアレイ、マイクロフォン又はマイクロフォンアレイ、タッチスクリーン又はタッチ表面、あるいはポインティングデバイス、もしくはこれらの組み合わせに結合され、ユーザからのジェスチャー及びコマンドを検知する。
ローカルセンサ823はローカルデバイス上に提示された、あるいはローカルデバイス上で利用できる任意の上述したセンサを含むことができる。これらは前面及び裏面カメラ、マイクロフォン、ポジショニングシステム、WiFi及びFMアンテナ、加速度計及びコンパスといったスマートフォン上で一般的に利用できるものを含む。これらのセンサは位置認識を提供するだけでなく、ローカルデバイスが、他のデバイス又は環境と相互作用するとき、その配向及び動きを決定することができる。
データ通信モジュール825は、システム内のすべてのデバイスが通信できるようにする有線又は無線データインターフェースを含む。各デバイスに複数のインターフェースがあってよい。一実施例において、メインコンピュータシステムはタッチパッド、ポインティングデバイス、ディスプレイ、ネットワークリソースと無線で通信することができる。メインコンピュータシステムはブルートゥースを使って通信することができ、ユーザコマンドを送信し、接続されたデバイスを通して再生するオーディオを受信する。任意の適切な有線又は無線デバイス通信プロトコルが使用され得る。
仮想オブジェクト行動モジュール804は他のモジュールから入力を受信し、このような入力をディスプレイ内で生成され、示されている任意の仮想オブジェクトに適用するように構成される。このように、例えばユーザ入力及びジェスチャー認識システム822がユーザのジェスチャーを解釈し、捉えたユーザの手の動きを認識された動きにマッピングすることによって、仮想オブジェクト行動モジュール804は仮想オブジェクトの位置及び動きをユーザ入力に関連づけ、ユーザ入力に対応するように仮想オブジェクトの動きを方向付けるデータを生成する。
仮想オブジェクト行動モジュール804は、仮想オブジェクト(生成された3Dオブジェクト及びAR特性)がコンピュータスクリーン周辺の3次元空間に存在すべき場所を追跡するように構成される。このモジュールは、仮想オブジェクトがあるディスプレイから他のディスプレイに移動すると、それを追跡する。このモジュールの寄与は任意の仮想オブジェクトの仮想位置を追跡することである。
複合モジュール806はレンダリングされ、選択され、あるいは保存された2D画像を変更し、ユーザ又はソフトウェア環境によって提供された詳細及びパラメータを追加し、クライアントデバイス上のローカルセンサ823を介してユーザによって提供された3D情報を追加する。このモジュールはクライアントデバイス又は「クラウド」サーバに存在し得る。
描画認識及びレンダリングモジュール808は、ユーザ入力及びジェスチャー認識システム822及びローカルセンサ823から情報を受信し、ユーザによって作られたラスター画像をベクトル化するか、あるいはライブラリからの画像を提供する。描画認識及びレンダリングモジュール808は、タッチ、エアージェスチャー又はポインティングデバイス入力を用いて任意の3つの次元においてユーザがオンスクリーンオブジェクトを伸ばす、曲げる、そして動かすことができる、ユーザによって提供された変化をレンダリングする。次に、描画認識及びレンダリングモジュール808は、これらのレンダリングをスクリーンレンダリングモジュール821に提供し、スクリーン上に現れる視覚要素を作り出す。
オブジェクト及び人物特定モジュール807は、受信したカメラデータを用いて特定の実体オブジェクト及び人物を特定する。ユーザはオブジェクト認識を用いて2次元グラフィックオブジェクト又は制御デバイスを導入する。オブジェクトはオブジェクトを特定するために画像ライブラリと比較され得る。人物は顔認識技術を用いて、あるいはパーソナル、ローカル又はセルラー式ネットワークを通して特定された人物と関連するデバイスからデータを受信することによって特定され得る。オブジェクトや人物が特定され、識別が他のデータに適用され、描画認識及びレンダリングモジュール808に提供され、表示するためにオブジェクト及び人物の適切な表示が生成される。このモジュールはユーザアカウントを認証するためにも用いることができる。
ユーザ入力マッピングモジュール803はユーザ入力のタイミングを調整し、ユーザ及びライブラリグラフィックスのベクトル化を調整し、そしてユーザのタッチ及びジェスチャー入力を追跡して作られたオブジェクトを3つの次元で操作する。ユーザ入力マッピングモジュール803は仮想オブジェクト行動モジュール804からの入力も追跡することができ、ユーザが作り出した3Dオブジェクトと相互作用するようにユーザが与える入力をマッピングする。
ゲームモジュール802は追加的な相互作用と効果を提供する。ゲームモジュール802は仮想文字及び仮想オブジェクトを生成して拡張された画像に加えることができる。仮想オブジェクトに、あるいは実体オブジェクト又はアバターを有する仮想相互作用として、いくつものゲーム効果を提供することもできる。例えば、図2B、図5A及び図5Bのゲームプレイは、全てゲームモジュール802によって提供される。ゲームモジュール802は音響効果を生むためにも使用され得る。音響効果は仮想オブジェクトの使用のためと同様に仮想オブジェクトの作成のため、フィードバックとして生成され得る。
3D画像相互作用及び効果モジュール805は、拡張された画像内の実体及び仮想オブジェクトと共にユーザインタラクションを追跡し、z軸でのオブジェクトの影響を決定する(スクリーンの平面に向かって、かつスクリーンの平面から離れて)。これらの効果を3つの次元におけるそれぞれに対するオブジェクトの関連のある影響と一緒に提供するため、3D画像相互作用及び効果モジュール805は追加的処理リソースを提供する。例えば、ユーザのオブジェクトを投げる、あるいは放つジェスチャーは3Dにおいて追跡でき、どのようにオブジェクトが移動するかを決定する。このモジュールは、3つの次元でオブジェクトをレンダリングするためにデータ及び物理性を提供する。3D画像相互作用及び効果モジュール805は音響効果を生成するためにも用いられる。音響効果は仮想オブジェクトの使用のためと同様に仮想オブジェクトの作成のため、フィードバックとして生成され得る。形状が握られ、接触されるとき、そして形状が操作されるとき、特殊な音が生成され得る。エアージェスチャーがオブジェクトの一部をディスプレイから離れて動かすために、このモジュールは動きの程度、スクリーンからの変位、そしてジェスチャーの他の特徴を示すジェスチャーを伴う音と同様に、ジェスチャーの開始及び終了を確認する音を提供することができる。
図9は、パーソナルコンピュータ、ゲーム機、スマートフォン又はポータブルゲーム機といったコンピュータシステムのブロック図である。コンピュータシステム900は、バス901又は情報を通信する他の通信手段、バス901と共に結合されたマイクロプロセッサ902等の情報を処理する処理手段を含む。コンピュータシステム900は、上記で説明したように並列パイプライン及び物理的相互作用を計算する物理プロセッサ905を通して、特にグラフィックスをレンダリングするためのグラフィックスプロセッサ903と共に拡張される。これらのプロセッサはマイクロプロセッサである中央処理装置902に組み込まれるか、あるいは1つ以上の別のプロセッサとして提供される。
コンピュータシステム900はランダムアクセスメモリ(RAM)や情報及びマイクロプロセッサ902によって実行される命令を記憶するために、バス901に結合された他の動的データ記憶デバイスといったメインメモリ904を更に含む。メインメモリ904はプロセッサによる命令が行われている間、一時的な変数又は他の中間情報を記憶するために用いることもできる。コンピュータシステム900は、読み取り専用メモリ(ROM)906や静的情報及びプロセッサに対する命令を記憶するためにバス901に結合された他の静的データ記憶デバイスといった不揮発性メモリを含むこともできる。
磁気ディスク、光ディスク又は固体アレイ等の大容量メモリ907及びその対応するドライブは、情報及び命令を記憶するためにコンピュータシステム900のバス901に結合されることもできる。コンピュータシステム900は情報をユーザに表示するために、バス901を介して、液晶ディスプレイ(LCD)又は有機発光ダイオード(OLED)アレイといったディスプレイデバイス又はモニター921に結合され得る。例えば、上記で議論したさまざまな表示及びユーザインタラクションに加えて、インストール状態、動作状態、そしてその他の情報のグラフィック及びテキスト表示は、ディスプレイデバイス921上でユーザに提示される。ディスプレイデバイス921は、スピーカーや発振器等のオーディオ及び触覚に関するコンポーネントを含み、ユーザに音、振動及びその他の効果としての追加情報を提供する。
一般的に、英数字、ファンクションそして他のキーを有するキーボードといったユーザ入力デバイス922は、プロセッサに情報及びコマンド選択を通信するためにバス901に結合されて得る。追加的なユーザ入力デバイスはマウス、トラックボール、トラックパッド又はカーソル指向キー等のカーソル制御入力デバイスを含むことができ、指示情報及びコマンド選択をプロセッサに通信するため、そしてディスプレイデバイス921上のカーソルの動きを制御するためにバスに結合される。
カメラ及びマイクロフォンアレイ923はバス901に結合され、ジェスチャー、レコードオーディオ及びビデオを観測し、上述したように視覚及びオーディオコマンドを受信する。
通信インターフェース925もバス901に結合される。通信インターフェース925は、モデムやネットワークインターフェースカード、そして他の既存のデバイスを含むことができる。他の既存のデバイスには、イーサネット(登録商標)、トークンリング、あるいは、例えばローカル又は広域ネットワーク(LAN又はWLAN)をサポートする通信リンクを提供するための他の種類の物理的な有線又は無線の付属品に結合するために用いられるものがある。このように、コンピュータシステム900は、例えばイントラネット又はインターネットを含む従来のネットワークインフラを介して、多くの周辺機器、クライアント、コントロールサーフェス、コンソール又はサーバに結合され得る。
上記の例よりも、より少なく、あるいはより多く具備したシステムは特定の実施にとって好ましいということが理解される。それゆえ、例示的なコンピュータシステム800及び900の構成は、価格制約、性能要件、技術的進歩、あるいは他の状況といった多数の要因によって実施が異なる。電子機器又はコンピュータシステムの実施例として、モバイルデバイス、携帯情報端末、モバイルコンピューティングデバイス、スマートフォン、セルラー式電話機、ハンドセット、一方向ポケットベル、双方向ポケットベル、メッセージングデバイス、コンピュータ、パーソナルコンピュータ(PC)、デスクトップコンピュータ、ラップトップコンピュータ、ノートブックコンピュータ、ハンドヘルドコンピュータ、タブレットコンピュータ、サーバ、サーバアレイ又はサーバファーム、ウェブサーバ、ネットワークサーバ、インターネットサーバ、ワークステーション、ミニコンピュータ、メインフレームコンピュータ、スーパーコンピュータ、ネットアプライアンス、ウェブアプライアンス、分散型コンピューティングシステム、マルチプロセッサシステム、プロセッサベースのシステム、家庭用電化製品、プログラマブル家庭用電化製品、テレビ、デジタルテレビ、セットトップボックス、無線アクセスポイント、基地局、加入者局、モバイル加入者センタ、無線ネットワークコントローラ、ルータ、ハブ、ゲートウェイ、ブリッジ、スイッチ、機械又はこれらの組み合わせを含むがこれらに限らない。
実施形態は、マザーボード、ハードワイヤード論理、メモリデバイスによって記憶され、マイクロプロセッサによって実行されるソフトウェア、ファームウェア、特定用途向け集積回路(ASIC)及び/又はフィールドプログラマブルゲートアレイ(FPGA)を用いて相互接続された1つ以上のマイクロチップ又は集積回路のいずれか、あるいはこれらの組み合わせとして実施されてもよい。「論理」という用語は、例えばソフトウェア又はハードウェア及び/又はソフトウェア及びハードウェアの組み合わせといったものを含む。
実施形態は、例えば、コンピュータ、コンピュータのネットワーク又は他の電子機器等の1つ以上の機械によって実行されるとき、本発明の一実施形態に従った動作を実行する1つ以上の機械をもたらすことができる機械実行可能命令を記憶した、1つ以上の機械可読媒体を含むことができるコンピュータプログラム製品として提供され得る。機械可読媒体には、フロッピー(登録商標)ディスク、光ディスク、CD−ROM(コンパクトディスク読み取り専用メモリ)、磁気−光ディスク、ROM(読み取り専用メモリ)、RAM(ランダムアクセスメモリ)、EPROM(消去可能プログラマブル読み取り専用メモリ)、EEPROM(電気的消去可能プログラマブル読み取り専用メモリ)、磁気又は光カード、フラッシュメモリ又は他の種類の機械実行可能命令を記憶するのに適当な媒体/機械可読媒体を含むことができるが、これらに限らない。
また、実施形態はコンピュータプログラム製品としてダウンロードされることができ、プログラムは遠隔のコンピュータ(例えば、サーバ)から要求コンピュータ(例えば、クライアント)に、具現化された、かつ/あるいは通信リンク(例えば、モデム及び/又はネットワーク接続)を介して搬送波又は他の伝搬媒体によって変調された1つ以上のデータ信号によって転送することができる。従って、本明細書で使用されるように、機械可読媒体はこのような搬送波を含むが、これを要求されない。
「1つの実施形態(“one embodiment”)」、「一実施形態(“an embodiment”)」、「例示的な実施形態(“example embodiment)」、「さまざまな実施形態(“various embodiment”)」等といった表現は、そのように記載されている発明の実施形態が、特定の特徴、構造又は特性を含んでよいことを示すが、必ずしも全ての実施形態がこれら特定の特徴、構造又は特性を含む必要はない。更に、一部の実施形態が他の実施形態のために記載されている特徴の一部又は全てを含んでよいし、あるいは全く含まなくてもよい。
以下の明細書及び特許請求の範囲で、「結合された(“coupled”)」という語、並びにそれらの派生形が使用され得る。「結合された(“coupled”)」という語を使用して、2つ以上の要素が、互いに協働又は相互作用し得ることを意味するが、それらの間に、介在する物理的又は電気的なコンポーネントがあってもなくてもよい。
特許請求の範囲で用いられるように、特段の定めのない限り、「第1」、「第2」、「第3」等の序数の形容詞は、共通の要素を説明するために用いられており、言及する類似した要素の異なる事例を示しているにすぎず、そのように記載する要素が、時間的に、空間的に、格付的に、あるいは何らかの他の方法における特定の順序でなければならない、という意味ではない。
下記の実施例は更なる実施形態に関する。実施例における特質は、1つあるいはそれ以上の実施形態のどこにでも使用され得る。一実施形態において、方法は:形状の選択を受信する工程と;ディスプレイ上に選択された形状を表示する工程と;ディスプレイから離れて、表示された形状の少なくとも一部を動かすジェスチャーを観測する工程と;観測されたジェスチャーに対応するディスプレイから離れた方向において観測されたジェスチャーに基づいて表示された形状を変更する工程と;観測されたジェスチャーに基づいて表示された形状を変更した後、3次元仮想オブジェクトとして変更された形状を表示する工程と、を含む。
実施形態は上記の方法を含み、表示された形状は2次元形状であり、表示された形状を変更する工程は、第3の次元を2次元形状に加えて3次元形状を生成する、追加工程を含む。
実施形態は上記方法のいずれかを含み、表示された形状は曲線であるか、あるいは表示された形状は領域を有する囲まれた形状であり、3次元仮想オブジェクトは体積を有する。
実施形態は上記の方法のいずれか含み、表示された形状は2次元画像である。
実施形態は上記の方法のいずれか含み、変更された形状を表示する工程は、3次元ディスプレイ上で3つの次元において変更された形状を表示する工程を含む。
実施形態は上記の方法のいずれか含み、方法は、タッチスクリーン上のジェスチャーを検知することによって表示された形状の一部の選択を受信する工程を更に含み、ジェスチャーを観測する工程は、表示された形状の選択された一部を動かすジェスチャーを観測する工程を含む。
実施形態は上記の方法を含み、ジェスチャーを観測する工程は、形状が表示されるディスプレイの平面へ、ディスプレイから離れて、表示された形状の選択された一部を押すジェスチャーを観測する工程を含むか、あるいは表示された形状は2次元形状で、表示された形状を変更する工程は、押すジェスチャーに基づいて第3の次元を2次元形状に加える工程を含むか、あるいは第3の次元の程度は、押すジェスチャーに基づいて決定される。
実施形態は上記の方法のいずれか含み、形状の選択を受信する工程は、カメラでエアージェスチャーを観測する工程、音声コマンドを受信する工程及びタッチスクリーンコマンドを受信する工程のうち、少なくとも1つを含むか、あるいはジェスチャーを観測する工程は、表示された形状の一部に向けられた握るジェスチャーと、表示された形状の握られた一部を2次元ディスプレイから離れて、第3の次元に引っ張ることとを観測する工程を含む。
実施形態は上記の方法のいずれかを含み、上記の方法はユーザ入力を受信してディスプレイ上に表示された形状を描く、受信工程を更に含み、ディスプレイ上に形状を表示する工程は、描かれた形状を表示する工程を含む。
実施形態は上記の方法のいずれかを含み、上記の方法は観測されたジェスチャーに基づいて音響効果を表示し、ディスプレイから離れた動きの量を示す、表示工程を更に含む。
実施形態は上記の方法のいずれかを含み、上記の方法は変更された形状と相互作用する仮想オブジェクトを放つ工程と、ディスプレイ上に相互作用を表示する工程とを更に含む。
実施形態は上記の方法のいずれかを含み、上記の方法は変更された形状と相互作用する更なるジェスチャーを観測する工程と、ディスプレイ上に相互作用を表示する工程とを更に含む。
他の実施形態において、命令を有する機械可読媒体であって、命令はコンピュータによって作動されるとき、コンピュータに:形状の選択を受信すること;ディスプレイ上に選択された形状を表示すること;ディスプレイから離れて、表示された形状の少なくとも一部を動かすジェスチャーを観測すること;観測されたジェスチャーに対応するディスプレイから離れた方向において観測されたジェスチャーに基づいて表示された形状を変更すること;観測されたジェスチャーに基づいて表示された形状を変更した後、3次元仮想オブジェクトとして変更された形状を表示すること、を含む動作を行わせる。
実施形態は上記の媒体を含み、動作はジェスチャーを観測する前のジェスチャー開始コマンドと、ジェスチャーの観測の終了をもたらすジェスチャー終了コマンドとを受信することを更に含む。
実施形態は上記の媒体のいずれかを含み、ジェスチャーを観測することは、開始コマンドとしての握るジェスチャーを観測することと、終了コマンドとしての放すジェスチャーを観測することとを含む。
他の実施形態において、装置は:形状の選択を受信するジェスチャー入力及び認識システムと;ディスプレイ上に選択された形状を表示するスクリーンレンダリングモジュールであり、ジェスチャー入力及び認識システムは、ディスプレイから離れて、表示された形状の少なくとも一部を動かすジェスチャーを更に観測する、スクリーンレンダリングモジュールと;観測されたジェスチャーに対応するディスプレイから離れた方向において観測されたジェスチャーに基づき表示された形状を変更する描画認識及びレンダリングモジュールであり、スクリーンレンダリングモジュールは、観測されたジェスチャーに基づいて表示された形状を変更した後、変更された形状を3次元仮想オブジェクトとして表示する、描画認識及びレンダリングモジュールと、を含む。
実施形態は上記の装置を含み、ジェスチャー入力及び認識モジュールは、ディスプレイから離れた動きの程度を決定し、描画認識及びレンダリングモジュールは、動きの程度に基づいて第3の次元の量を提供する。
実施形態は上記の装置のいずれかを含み、ジェスチャー入力及び認識システムは、エアージェスチャーを観測するカメラとタッチスクリーンコマンドを受信するタッチスクリーンインターフェースとを含む。
他の実施形態において、上述の動作のいずれか1つ又はそれ以上を実行する手段を含む。
図面及び前述の説明は、実施形態の例を与えるものである。当業者は、1つ又はそれ以上の記載された要素を単一の機能要素にうまく組み合せることが可能であることを理解することができる。あるいは、ある種の要素が複数の機能要素に分割されてもよい。1つの実施形態からの要素が別の実施形態に加えられてもよい。例えば、本明細書に記載される処理の順序は、変更されてもよく、本明細書に記載される様式に限定されるものではない。更に、任意のフロー図の動作は、示されている順序で実施される必要はなく、それらの動作の全てが実行される必要はない。また、他の動作に依存しない前述の動作は、その他の動作と並列して行うことができる。本発明の範囲は、それらの特定の実施例に決して限定されるものではない。明細書に明示的に記載されているか否かに拘わらず、構造、大きさ、材料の使用といった多数の変形が可能である。本発明の範囲は、少なくとも以下の特許請求の範囲によって記載されたものと同様な広さを有する。

Claims (24)

  1. 形状についての選択を受け取る工程と、
    記選択された形状をディスプレイに表示する工程と、
    前記ディスプレイから離れて前記の表示された形状の少なくとも一部を動かすジェスチャーを観測する工程と、
    前記の観測されたジェスチャーに対応する前記ディスプレイから離れ方向において、前記の観測されたジェスチャーに基づいて前記の表示された形状を変更する工程と、
    前記の観測されたジェスチャーに基づいて前記の表示された形状を変更した後、該変更された形状を3次元仮想オブジェクトとして表示する工程と、
    前記3次元仮想オブジェクトを使用して、前記3次元仮想オブジェクトから第3のオブジェクトへ向かう第2の仮想オブジェクトを放つ工程と
    を含む方法。
  2. 前記の表示された形状は2次元形状であり、前記の表示された形状を変更する工程は、第3の次元を前記2次元形状に加えて3次元形状を生成する、追加工程を含む、請求項1に記載の方法。
  3. 前記の表示された形状は曲線である、請求項1に記載の方法。
  4. 前記の表示された形状は領域を有する囲まれた形状であり、前記3次元仮想オブジェクトは体積を有する、請求項1に記載の方法。
  5. 前記の表示された形状は2次元画像である、請求項1に記載の方法。
  6. 前記の変更された形状を表示する工程は、3次元ディスプレイ上で3つの次元において前記の変更された形状を表示する工程を含む、請求項1に記載の方法。
  7. タッチスクリーン上のジェスチャーを検知することによって前記の表示された形状の一部についての選択を受け取る工程を更に含み、前記ジェスチャーを観測する工程は、前記の表示された形状の前記の選択された一部を動かす前記ジェスチャーを観測する工程を含む、請求項1に記載の方法。
  8. 前記ジェスチャーを観測する工程は、前記形状が表示される前記ディスプレイの平面へ、前記ディスプレイから離れて前記の表示された形状の前記の選択された一部を押すジェスチャーを観測する工程を含む、請求項7に記載の方法。
  9. 前記の表示された形状は2次元形状で、前記の表示された形状を変更する工程は、前記の押すジェスチャーに基づいて第3の次元を前記2次元形状に加える工程を含む、請求項8に記載の方法。
  10. 前記第3の次元の程度は、前記の押すジェスチャーに基づいて決定される、請求項9に記載の方法。
  11. 前記形状についての選択を受け取る工程は、カメラでエアージェスチャーを観測する工程、音声コマンドを受信する工程及びタッチスクリーンコマンドを受信する工程のうち、少なくとも1つを含む、請求項1に記載の方法。
  12. 前記ジェスチャーを観測する工程は、前記の表示された形状の一部に向けられた握るジェスチャーと、前記の表示された形状の前記の握られた一部を、2次元ディスプレイから離れて第3の次元引っ張ることとを観測する工程を含む、請求項1に記載の方法。
  13. ユーザ入力を受信して前記ディスプレイ上に前記の表示された形状を描く、受信工程を更に含み、前記ディスプレイ上に前記形状を表示する工程は、前記の描かれた形状を表示する工程を含む、請求項1に記載の方法。
  14. 前記の観測されたジェスチャーに基づいて音響効果を表示し、前記ディスプレイから離れた動きの量を示す、表示工程を更に含む、請求項1に記載の方法。
  15. 前記の変更された形状と相互作用する仮想オブジェクトを放つ工程と、前記ディスプレイ上に前記の相互作用を表示する工程とを更に含む、請求項1に記載の方法。
  16. 前記の変更された形状と相互作用する更なるジェスチャーを観測する工程と、前記ディスプレイ上に前記の相互作用を表示する工程とを更に含む、請求項1に記載の方法。
  17. ンピュータによって実行されるとコンピュータに
    形状についての選択を受け取ること、
    記選択された形状をディスプレイに表示すること、
    前記ディスプレイから離れて前記の表示された形状の少なくとも一部を動かすジェスチャーを観測すること、
    前記の観測されたジェスチャーに対応する前記ディスプレイから離れ方向において、前記の観測されたジェスチャーに基づいて前記の表示された形状を変更すること、
    前記の観測されたジェスチャーに基づいて前記の表示された形状を変更した後、該変更された形状を3次元仮想オブジェクトとして表示すること、
    前記3次元仮想オブジェクトを使用して、前記3次元仮想オブジェクトから第3のオブジェクトへ向かう第2の仮想オブジェクトを放つことと
    を含む動作を実行させるプログラム
  18. 前記動作は、前記ジェスチャーを観測する前のジェスチャー開始コマンドと、前記ジェスチャーの観測の終了をもたらすジェスチャー終了コマンドとを受信することを更に含む、請求項17に記載のプログラム
  19. ジェスチャーを観測することは、開始コマンドとしての握るジェスチャーを観測することと、終了コマンドとしての放すジェスチャーを観測することとを含む、請求項18に記載のプログラム
  20. 形状についての選択を受け取るジェスチャー入力及び認識システムと、
    記選択された形状をディスプレイに表示するスクリーンレンダリングモジュールであり、前記ジェスチャー入力及び認識システムは、前記ディスプレイから離れて前記の表示された形状の少なくとも一部を動かすジェスチャーを更に観測する、スクリーンレンダリングモジュールと、
    前記の観測されたジェスチャーに対応する前記ディスプレイから離れ方向において、前記の観測されたジェスチャーに基づいて前記の表示された形状を変更する描画認識及びレンダリングモジュールであって、前記スクリーンレンダリングモジュールは、前記の観測されたジェスチャーに基づいて前記の表示された形状を変更した後、変更された形状を3次元仮想オブジェクトとして表示し、該3次元仮想オブジェクトを使用して、前記3次元仮想オブジェクトから第3のオブジェクトへ向かう第2の仮想オブジェクトを放つ、描画認識及びレンダリングモジュールと、
    を含む装置。
  21. 前記ジェスチャー入力及び認識モジュールは、前記ディスプレイから離れた動きの程度を決定し、前記描画認識及びレンダリングモジュールは、前記動きの程度に基づいて第3の次元の量を提供する、請求項20に記載の装置。
  22. 前記ジェスチャー入力及び認識システムは、エアージェスチャーを観測するカメラとタッチスクリーンコマンドを受信するタッチスクリーンインターフェースとを含む、請求項20に記載の装置。
  23. 請求項1の各動作を行う手段を含む装置。
  24. 請求項17乃至19のうちのいずれか1項に記載のプログラムを記憶したコンピュータ読取可能記憶媒体。
JP2015501647A 2012-03-29 2012-03-29 ジェスチャーを用いた3次元グラフィックスの作成 Active JP5902346B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2012/031264 WO2013147804A1 (en) 2012-03-29 2012-03-29 Creation of three-dimensional graphics using gestures

Publications (2)

Publication Number Publication Date
JP2015511043A JP2015511043A (ja) 2015-04-13
JP5902346B2 true JP5902346B2 (ja) 2016-04-13

Family

ID=49260866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015501647A Active JP5902346B2 (ja) 2012-03-29 2012-03-29 ジェスチャーを用いた3次元グラフィックスの作成

Country Status (6)

Country Link
US (1) US20140104206A1 (ja)
EP (1) EP2836888A4 (ja)
JP (1) JP5902346B2 (ja)
KR (1) KR101717604B1 (ja)
CN (1) CN104205034A (ja)
WO (1) WO2013147804A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140002338A1 (en) * 2012-06-28 2014-01-02 Intel Corporation Techniques for pose estimation and false positive filtering for gesture recognition
JP6360050B2 (ja) 2012-07-13 2018-07-18 ソフトキネティック ソフトウェア 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
US9904414B2 (en) * 2012-12-10 2018-02-27 Seiko Epson Corporation Display device, and method of controlling display device
US9746926B2 (en) 2012-12-26 2017-08-29 Intel Corporation Techniques for gesture-based initiation of inter-device wireless connections
KR101872426B1 (ko) 2013-03-14 2018-06-28 인텔 코포레이션 깊이 기반 사용자 인터페이스 제스처 제어
KR102127640B1 (ko) 2013-03-28 2020-06-30 삼성전자주식회사 휴대 단말 및 보청기와 휴대 단말에서 음원의 위치를 제공하는 방법
US10168873B1 (en) * 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
US10416834B1 (en) 2013-11-15 2019-09-17 Leap Motion, Inc. Interaction strength using virtual objects for machine control
EP2891950B1 (en) * 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
JP6390277B2 (ja) * 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
WO2016099556A1 (en) * 2014-12-19 2016-06-23 Hewlett-Packard Development Company, Lp 3d visualization
WO2016099563A1 (en) * 2014-12-19 2016-06-23 Hewlett Packard Enterprise Development Lp Collaboration with 3d data visualizations
WO2016099559A1 (en) 2014-12-19 2016-06-23 Hewlett-Packard Development Company, Lp 3d navigation mode
US10534436B2 (en) 2015-01-30 2020-01-14 Sony Depthsensing Solutions Sa/Nv Multi-modal gesture based interactive system and method using one single sensing system
WO2016176600A1 (en) 2015-04-30 2016-11-03 Google Inc. Rf-based micro-motion tracking for gesture tracking and recognition
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
CN105787971B (zh) * 2016-03-23 2019-12-24 联想(北京)有限公司 一种信息处理方法和电子设备
US20180232800A1 (en) * 2017-02-16 2018-08-16 Wal-Mart Stores, Inc. Virtual Retail Showroom System
CN107590823B (zh) * 2017-07-21 2021-02-23 昆山国显光电有限公司 三维形态的捕捉方法和装置
CN108958475B (zh) * 2018-06-06 2023-05-02 创新先进技术有限公司 虚拟对象控制方法、装置及设备
KR102187238B1 (ko) * 2019-02-12 2020-12-07 동국대학교 산학협력단 사용자 참여형 인체 3차원 모델링 장치 및 방법
JP6708917B1 (ja) * 2020-02-05 2020-06-10 リンクウィズ株式会社 形状検出方法、形状検出システム、プログラム
CN116719413A (zh) * 2020-09-11 2023-09-08 苹果公司 用于操纵环境中的对象的方法
US11733861B2 (en) * 2020-11-20 2023-08-22 Trimble Inc. Interpreting inputs for three-dimensional virtual spaces from touchscreen interface gestures to improve user interface functionality

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307134A (ja) * 2000-04-19 2001-11-02 Sony Corp 三次元モデル処理装置および三次元モデル処理方法、並びにプログラム提供媒体
JP2002083302A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置、動作認識処理方法及びプログラム格納媒体
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
EP1817651A1 (en) * 2004-10-15 2007-08-15 Philips Intellectual Property & Standards GmbH System for 3d rendering applications using hands
WO2007030603A2 (en) * 2005-09-08 2007-03-15 Wms Gaming Inc. Gaming machine having display with sensory feedback
JP2008225985A (ja) * 2007-03-14 2008-09-25 Namco Bandai Games Inc 画像認識システム
JP2010088642A (ja) * 2008-10-08 2010-04-22 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
JP2011024612A (ja) * 2009-07-21 2011-02-10 Sony Computer Entertainment Inc ゲーム装置
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
JP5396620B2 (ja) * 2010-01-08 2014-01-22 任天堂株式会社 情報処理プログラム及び情報処理装置
JP5898842B2 (ja) * 2010-01-14 2016-04-06 任天堂株式会社 携帯型情報処理装置、携帯型ゲーム装置
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
JP5541974B2 (ja) * 2010-06-14 2014-07-09 任天堂株式会社 画像表示プログラム、装置、システムおよび方法
KR101716151B1 (ko) * 2010-07-30 2017-03-14 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
US8620850B2 (en) * 2010-09-07 2013-12-31 Blackberry Limited Dynamically manipulating an emoticon or avatar
JP5122659B2 (ja) * 2011-01-07 2013-01-16 任天堂株式会社 情報処理プログラム、情報処理方法、情報処理装置及び情報処理システム
US9442652B2 (en) * 2011-03-07 2016-09-13 Lester F. Ludwig General user interface gesture lexicon and grammar frameworks for multi-touch, high dimensional touch pad (HDTP), free-space camera, and other user interfaces

Also Published As

Publication number Publication date
KR101717604B1 (ko) 2017-03-17
CN104205034A (zh) 2014-12-10
KR20140138779A (ko) 2014-12-04
US20140104206A1 (en) 2014-04-17
EP2836888A1 (en) 2015-02-18
WO2013147804A1 (en) 2013-10-03
JP2015511043A (ja) 2015-04-13
EP2836888A4 (en) 2015-12-09

Similar Documents

Publication Publication Date Title
JP5902346B2 (ja) ジェスチャーを用いた3次元グラフィックスの作成
US10606356B2 (en) Systems and methods for haptically-enabled curved devices
CN108885533B (zh) 组合虚拟现实和增强现实
US10514761B2 (en) Dynamic rendering of etching input
US9575594B2 (en) Control of virtual object using device touch interface functionality
US10960298B2 (en) Boolean/float controller and gesture recognition system
JP5832666B2 (ja) 複数のデバイスにまたがる拡張現実表現
JP2022024100A (ja) 検出された手入力に基づく仮想手ポーズのレンダリング
TWI546725B (zh) 於手勢和使用者介面元件間之延續虛擬連結技術
US10437341B2 (en) Systems and methods for user generated content authoring
US20120032877A1 (en) Motion Driven Gestures For Customization In Augmented Reality Applications
LaViola et al. 3D spatial interaction: applications for art, design, and science
US10474238B2 (en) Systems and methods for virtual affective touch
CN110389659A (zh) 针对增强或虚拟现实环境提供动态触觉回放的系统和方法
CN105324736A (zh) 触摸式和非触摸式用户交互输入的技术
KR102021851B1 (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
US11617953B2 (en) Virtual object interaction scripts
KR20120016379A (ko) 객체 제어 장치 및 방법
EP3367216A1 (en) Systems and methods for virtual affective touch
EP4141620A1 (en) Method and apparatus for achieving voice input by using head control
Van Thanh et al. Real-time virtual lego brick manipulation based on hand gesture recognition
Hirano et al. MoPH: a media performance system with a multi-touch interface
JP2019141353A (ja) ゲーム用プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160309

R150 Certificate of patent or registration of utility model

Ref document number: 5902346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250