JP5877219B2 - 動き特性を使用することによるディスプレイへの三次元ユーザインターフェイス効果 - Google Patents
動き特性を使用することによるディスプレイへの三次元ユーザインターフェイス効果 Download PDFInfo
- Publication number
- JP5877219B2 JP5877219B2 JP2014080418A JP2014080418A JP5877219B2 JP 5877219 B2 JP5877219 B2 JP 5877219B2 JP 2014080418 A JP2014080418 A JP 2014080418A JP 2014080418 A JP2014080418 A JP 2014080418A JP 5877219 B2 JP5877219 B2 JP 5877219B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- user interface
- display
- operating system
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000694 effects Effects 0.000 title claims description 40
- 230000033001 locomotion Effects 0.000 title claims description 31
- 238000000034 method Methods 0.000 claims description 64
- 230000003287 optical effect Effects 0.000 claims description 24
- 230000000007 visual effect Effects 0.000 claims description 16
- 238000009877 rendering Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 230000000873 masking effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 26
- 239000013598 vector Substances 0.000 description 25
- 238000005516 engineering process Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 229920005479 Lucite® Polymers 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 239000004926 polymethyl methacrylate Substances 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000005686 electrostatic field Effects 0.000 description 1
- 238000004134 energy conservation Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 238000003711 image thresholding Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Image Generation (AREA)
Description
顔検出ソフトウェアは、前面カメラ(front-facing camera)をもつ装置に関連して使用され、装置の前に人間のユーザがいるときを決定すると共に、装置の前のそのようなユーザの動きを追跡する。
例えば、ユーザインターフェイス環境の2 1/2 D描写を使用し、装置の移動、ユーザの動き、又はユーザ環境における照明条件に応答して、装置に表示されるグラフィックユーザインターフェイスオブジェクト、例えば、アイコンに、現実的な動きのある輝き(shine)又は動きのある陰影(shadow)を与えることができる。
そのようなフォームファクタは、モジュラーインターフェイスにとって効果的である。ユーザは、装置を回転するときに、弁当箱の各「区画(cubby hole)」を独立して見ることができる。又、前面カメラの使用により、視覚上の「スポットライト」効果がユーザの凝視をたどるようにすることができ、即ちユーザが現在見ているディスプレイ内の場所でスポットライト効果が「輝く」ようにさせることもできる。又、装置について決定された3D基準フレームのみに基づいてスポットライト効果の位置をコントロールすることもできる。例えば、スポットライト効果は、歪んだ法線ベクトルが装置ユーザの現在位置に対して最も近い方向を指す区画を輝かせるように構成される。
バーチャル3Dディスプレイとのタッチを経て相互作用するため、ここに開示する技術では、装置のディスプレイ上のタッチ点の位置をバーチャル3Dオペレーティングシステム環境へとレイトレースし、そしてタッチ点の領域を、それがヒットするオブジェクト(1つ又は複数)に交差させることができる。バーチャル3Dオペレーティングシステム環境とのタッチ相互作用により生じるオブジェクトの動きは、2Dモードにおける場合と同様に生じるが、ここに開示する技術では、バーチャル3Dオペレーティングシステム環境内の衝突効果及び他の物理的な現実性表現を模擬することができるようにする。更に、タッチスクリーン視差のような問題、即ちタッチ点と、装置のフレネットフレームが分かっているときに表示される意図されたタッチ位置との間の非位置合わせを良好に考慮することができる。
グラフィック処理ユニット(GPU)の使用過多及び装置における過剰バッテリ消費を防止するために、ここに開示する技術では、特定のジェスチャーを使用して「バーチャル3Dオペレーティングシステム環境」モードをターンオンすると共に、位置的静止を使用してそのモードをターンオフする。1つの実施形態では、ジェスチャーは、いわゆる「プリンセスウェーブ(princess wave)」、即ち1つの軸の周りでの装置の波動回転である。
例えば、「バーチャル3Dオペレーティングシステム環境」モードは、1つの軸に沿った10−20°の3つを越える波が1秒間隔で生じるときにターンオンすることができる。
デスクトップマシンにおいて、装置のフレネットフレームは、不変であり、そして装置のディスプレイに対するユーザの位置は、おそらく非常に僅かに変化するだけであるが、ユーザの目の位置は、著しく変化する。前面カメラは、顔検出ソフトウェアと共に、ユーザの目の位置を計算できるようにする。カメラの視野情報を使用して、例えば、人間工学的ガイドラインに基づき、頭のサイズを測定するか、又は検出されたユーザの瞳孔対瞳孔の距離を測定しそして人間の頭の標準的測定値を仮定することにより、ディスプレイからのユーザの頭の距離を推定することもできる。このデータを使用して、例えば、ウインドウ、タイトルバー及び他のUIオブジェクトに輝きを入れ、そしてユーザの目の動き又はユーザの頭の位置変化に応答してそれらを動かすことを通して、現実的な2 1/2 D又は3Dオペレーティングシステムモードを描写することができる。更に、ユーザの頭及び目の位置を使用して、ユーザが自分の頭を側部へシフトし及び/又は自分の頭をディスプレイに向けて移動した後に、ユーザがウインドウの「下を見る」のを許すこともできる。
そのような開発努力は、複雑で且つ時間のかかるものであるが、本開示の利益を得る当業者にとって日常行うべきものであることが明らかである。更に、本開示に使用される言語は、主に、読み易さ及び説明の目的で選択されたもので、本発明の要旨を限定又は制限するために選択されたものではなく、そのような本発明の要旨を決定することは特許請求の範囲に依存する。本明細書において「1つの実施形態」又は「一実施形態」を言及することは、実施形態に関連して述べる特定の特徴、構造又は特性が本発明の少なくとも1つの実施形態に含まれることを意味し、そして「1つの実施形態」又は「一実施形態」を何回も言及することは、必ずしも全てが同じ実施形態を言及すると理解してはならない。
前面カメラ112及び接近センサ114は、ユーザの周囲環境における光レベルを測定しそしてユーザの環境において光源を探すのにも使用される。以下に述べるように、そのような情報は、「実際の世界」に置かれた光源に「反応する」ように見えるグラフィックユーザインターフェイスの現実的なバーチャル3D描写を行うのに有用である。図1において、ディスプレイ102は、多数のグラフィックユーザインターフェイスオブジェクト、例えば、アイコン104を表示するように示されている。アイコン104は、そのアイコンがユーザにより選択されたときに装置が実行できるプログラム、ファイル又は他のアプリケーションを表わす。又、ディスプレイ102には、オブジェクトスプリングボード110も示されている。従来技術では、アイコン106は、3Dオペレーティングシステム環境にあるという見掛けを与えるためにスプリングボード110の表面に着座されるものとして描かれている。アイコン104/106の3D見掛けを更に向上させるため、アイコン104/106には、輝き113及び/又は反射108のような付加的なビジュアルキューが追加される。ある実施形態では、この向上された2D表現は、ここでは、2 1/2 Dと称される。
ベクトル312は、ディスプレイ102からX軸に沿ってユーザの目302の中心の位置へと直接延びるベクトルを表わす。破線314は、ディスプレイ102に対してX軸の方向にユーザの目302の位置を示す上で助けとなるように描かれている。ベクトル310とベクトル312との間の角度316は、ユーザがおそらくディスプレイ102を見るところの角度を決定するために装置100によって使用される。図3に示すように、ユーザは、従法線ベクトル310の若干左にいて、即ちページの「中へ」より深くではなく、ページの「紙面」に若干接近しているように思われる。又、図3におけるユーザの現在位置は、グラフィックユーザインターフェイスオブジェクト306の描写において、図3に示すユーザの現在方向及び位置についてその左側部307が装置ディスプレイ102上に若干見えることで反映されている。ユーザの目302が装置100のディスプレイ102に対して益々左へ遠く移動するにつれて、即ち角度316が増加するにつれて、ユーザは、グラフィックユーザインターフェイスオブジェクト306の左側部307を益々多く見ることができる。このような技術の適用から得られる3D効果を理解する1つの仕方は、ハンドヘルド装置100のディスプレイスクリーン102を3D空間300への「ウインドウ」として想像することである。実世界におけるウインドウと同様に、観察者がウインドウに接近し又は遠ざかり、或いはウインドウを通して異なる角度で見たとき、観察者は、異なるオブジェクト、異なる角度のオブジェクト、等を見ることができる。これらの効果を得るために、レイトレーシング(ray tracing)として知られている技術を利用することができる。
1つの実施形態において、最も明るい5%の画像は、所定の輝度値より明るい場合には、画像処理の分野で知られた技術である画像のスレッシュホールド処理によって光源として認識され、位置付けられる。スレッシュホールド処理されると、光源の形状、即ちアルファマスク、及びセントロイドが計算される。計算されたセントロイドを使用して、実世界の3D空間における光源の包囲方向を決定することができる。更に、前面カメラ画像のルミナンススレッシュホールドバージョンを使用して、バーチャル3Dオペレーティングシステム環境におけるカーブしたオブジェクトのレンダリングに現実的な反射を入れることができる。更に、充分な輝度の周囲光源がユーザの環境に置かれていない場合には、図3のようなバーチャル光源を使用することをデフォールトとする。
ユーザの目302から装置ディスプレイ102の平面を通してバーチャル3Dオペレーティングシステム環境602へと延びる投影光線軌跡604から明らかなように、グラフィックユーザインターフェイスオブジェクト107の描写607は、装置ディスプレイ102上にグラフィックユーザインターフェイスオブジェクト107の頂面607を僅かに示している。これは、図4に示すグラフィックユーザインターフェイスオブジェクト107の描写406とは対照的であり、バーチャル3Dオペレーティングシステム環境300への「ウインドウ」(即ち、装置100のディスプレイ102である「ウインドウ」)は、バーチャル3Dオペレーティングシステム環境におけるアイコンオブジェクトの垂直スタックの方向に対して更に平行であり、従って、ユーザは、グラフィックユーザインターフェイスオブジェクト107の頂面を見ることができない。これらの技術を適用すると、ユーザは、装置及び/又は自分の目の位置を調整して、グラフィックユーザインターフェイスオブジェクトの側面、又はグラフィックユーザインターフェイスオブジェクトの後部も見ることができることが明らかであろう。
図7に示すように、ユーザは、従法線ベクトル706の若干左にいて、即ちページの「中へ」より深くではなく、ページの「紙面」に若干接近しているように思われる。
更に、ユーザの凝視は、一般的に、装置のディスプレイ表面の中心に焦点が合わされる。
図9に示したように、ユーザ900がタッチスクリーンディスプレイ102にタッチした位置は、バーチャル3D環境300におけるタッチ点906に対応し、グラフィックユーザインターフェイスオブジェクト107と交差する。従って、接触点902を生じるユーザ900によるタッチは、バーチャル3Dオペレーティングシステム環境300におけるオブジェクト107に動き又は作用を適用して、バーチャル3Dオペレーティングシステム環境300におけるオブジェクト107を、装置が慣習的な“2D”モードで動作する場合に振舞うのと同様に振る舞わせる。例えば、ここに開示する技術は、サイズ変更、押圧、トグル、ドラグ、プッシュ、プル、衝突効果、及びバーチャル3Dオペレーティングシステム環境300内での現実性についての他の物理的な明示をより強制的で且つ現実的な仕方で模擬できるようにする。3D UI「押圧」効果、例えば、ボタン又はアイコン107のようなグラフィックユーザインターフェイスオブジェクトの押圧を模擬する場合には、その効果は、ユーザの指900の検出位置902に応答して具現化される。これが行える理由は、ユーザの指900のタッチ位置902が、例えば、図9に破線円906で表されたように、バーチャル3D環境300にあるときに、そのタッチ位置が、あるグラフィックユーザインターフェイスオブジェクトの平面、例えば、アイコン107の前面に交差することが分かり、そしてタッチの動きがその平面へと変換されるか、又はその特定のグラフィックユーザインターフェイスオブジェクトの潜在的な動き自由度に関して解釈されるからである。例えば、あるオブジェクトは、内方に「押圧」することしかできないが、他のものは、多数の方向に自由に動くことができる。
小さな装置は、一般的に、ユーザの目の近くに保持され、そして大きな装置は、一般的に、ユーザの目から離して保持される。更に、ユーザの凝視は、一般的に、装置のディスプレイ表面の中心に焦点が合わされる。最終的に、プロセッサは、次いで、バーチャル3Dオペレーティングシステム環境の視覚表現を、決定された3D基準フレーム及び装置ユーザの目の決定された位置に基づいて、装置のグラフィックユーザインターフェイスディスプレイに投影し、即ちレンダリングする(ステップ1112)。上述したように、このプロセスは、例えば、移動電話等のハンドヘルドパーソナル電子装置であるユーザ装置のディスプレイにバーチャル3Dオペレーティングシステム環境の個別のより現実的な表現を与えることができる。
バス1522は、少なくとも記憶装置1514、メモリ1512及びプロセッサ1516へ、又はそれらから、或いはそれらの間で、データを転送するためのデータ転送経路をなす。CODEC1502は、デジタルオーディオ信号をアナログ信号に変換してスピーカ1504を駆動し、ボイス、音楽及び他の同様のオーディオを含むサウンドを発生するために含まれる。又、CODEC1502は、マイクロホン1506からのオーディオ入力を、メモリ1512又は記憶装置1514に記憶するためのデジタルオーディオ信号へと変換することもできる。CODEC1502は、デジタル及び/又はアナログビデオ信号を処理するためのビデオCODECを含む。
102:ディスプレイ
104、106:アイコン
107:グラフィックユーザインターフェイスオブジェクト
112:前面カメラ
114:接近センサ
200:陰影層
202:アイコン
204:バーチャル光源
206:座標
208:バーチャル照明環境
300:バーチャル3Dオペレーティングシステム環境
302:ユーザの目
304:バーチャル光源
306:グラフィックユーザインターフェイスオブジェクト
310、312:ベクトル
400:周囲光源
406:グラフィックユーザインターフェイスオブジェクト
407:陰影
500:フレネットフレーム
600:装置移動
602:バーチャル3Dオペレーティングシステム環境
606:バーチャル3D描写
1500:パーソナル電子装置
1502:CODEC
1504:スピーカ
1506:マイクロホン
1508:画像センサ/カメラハードウェア
1510:通信回路
1512:メモリ
1514:記憶装置
1516:プロセッサ
1518:ユーザインターフェイス
1520:ディスプレイ
1524:位置センサ
1526:接近センサ
Claims (23)
- 装置内に配置された1つ以上の位置センサから位置データを受け取る段階と、
前記受け取られた位置データに少なくとも一部分基づき装置の3D基準フレームを決定する段階と、
装置内に配置された1つ以上の光学センサから光学データを受け取る段階と、
少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写を含むグラフィックユーザインターフェイスを装置のディスプレイに発生する段階と、
を備え、
前記少なくとも1つのグラフィックユーザインターフェイスオブジェクトは、バーチャル3Dオペレーティングシステム環境において表現され、
前記発生する段階は、更に、前記バーチャル3Dオペレーティングシステム環境のためのバーチャル光源を発生することを含み、
前記バーチャル光源は前記光学データによって示される周囲光源の表現を含み、
前記発生する段階は、前記決定された3D基準フレーム及び前記光学データに少なくとも一部分基づくものである、グラフィックユーザインターフェイス方法。 - 前記発生する段階は、更に、装置のディスプレイ上で前記少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写に適当なパースペクティブ変換を適用することを含み、前記変換は、前記決定された3D基準フレーム及び前記光学データに少なくとも一部分基づく、請求項1に記載のグラフィックユーザインターフェイス方法。
- 前記グラフィックユーザインターフェイスは、前記少なくとも1つのグラフィックユーザインタフェイスオブジェクトに対して配置されたグラフィック層をさらに備え、前記グラフィック層は前記決定された3D基準フレームに少なくとも一部基づいて前記少なくとも1つのグラフィックオブジェクトに対する照明効果を生成する、請求項1及び2のいずれかに記載のグラフィックユーザインターフェイス方法。
- 前記装置のタッチスクリーンインターフェイスからデータを受け取る段階を更に備え、前記タッチスクリーンインターフェイスから受け取られたデータは、ユーザが相互作用することを望むバーチャル3Dオペレーティングシステム環境における1つ以上の位置を表わす、請求項1から3のいずれかに記載のグラフィックユーザインターフェイス方法。
- 前記装置のディスプレイ上の位置に視覚指示子を表示する段階を更に備え、前記視覚指示子の位置は、ユーザが相互作用することを望むバーチャル3Dオペレーティングシステム環境における位置を表わす、請求項4に記載のグラフィックユーザインターフェイス方法。
- 視差の問題に対し前記視覚指示子が表示される前記装置のディスプレイ上の位置を修正する段階を更に備え、前記修正される位置は、前記装置の前記決定された3D基準フレームに少なくとも一部分基づく、請求項5に記載のグラフィックユーザインターフェイス方法。
- ユーザの位置に対する前記装置の移動に応答して前記装置のディスプレイ上で少なくとも1つのグラフィックユーザインターフェイスオブジェクトの前記発生されたバーチャル3D描写を調整する段階を更に備えた、請求項1から6のいずれかに記載のグラフィックユーザインターフェイス方法。
- 前記調整する段階は、更に、前記装置のディスプレイ上で前記少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写に適当なパースペクティブ変換を適用することを含み、前記変換は、前記装置の現在決定された3D基準フレーム及び前記光学データに少なくとも一部分基づく、請求項7に記載のグラフィックユーザインターフェイス方法。
- 前記装置の位置に対する前記装置のユーザの動きに応答して前記装置のディスプレイ上で少なくとも1つのグラフィックユーザインターフェイスオブジェクトの前記発生されたバーチャル3D描写を調整する段階を更に備えた、請求項1から8のいずれかに記載のグラフィックユーザインターフェイス方法。
- 前記調整する段階は、更に、前記装置のディスプレイ上で前記少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写に適当なパースペクティブ変換を適用することを含み、前記変換は、前記装置の現在決定された3D基準フレーム及び前記光学データに少なくとも一部分基づく、請求項9に記載のグラフィックユーザインターフェイス方法。
- 前記バーチャル3Dオペレーティングシステム環境のための前記発生されるバーチャル光源は、太陽の現在位置の表現を含む、請求項1〜10のいずれか1項に記載のグラフィックユーザインターフェイス方法。
- ビュー表面と、
バーチャル3Dオペレーティングシステム環境と、
1つ以上のグラフィックユーザインターフェイスオブジェクトと、
を備え、
前記1つ以上のグラフィックユーザインターフェイスオブジェクトは、前記バーチャル3Dオペレーティングシステム環境において表現され且つ前記ビュー表面上に描写され、 前記ビュー表面上での前記1つ以上のグラフィックユーザインターフェイスオブジェクトの前記描写は、少なくとも一部分は、前記ビュー表面のユーザに対する前記ビュー表面の決定された3D基準フレームにより決定され、
前記バーチャル3Dオペレーティングシステム環境は、前記ビュー表面と通信する1つ以上の光学センサから受信された光学データによって示される周囲光の表現を含む周囲光源を含み、グラフィックユーザインターフェイス。 - 前記ビュー表面は、タッチスクリーンインターフェイスを含む、請求項12に記載のグラフィックユーザインターフェイス。
- 前記タッチスクリーンインターフェイスから受け取られるデータは、前記ビュー表面のユーザが相互作用することを望むバーチャル3Dオペレーティングシステム環境における1つ以上の位置を表わす、請求項13に記載のグラフィックユーザインターフェイス。
- 前記ビュー表面上に1つ以上の視覚指示子を含み、前記1つ以上の視覚指示子は、前記ビュー表面のユーザが相互作用することを望むバーチャル3Dオペレーティングシステム環境における1つ以上の位置を表わす、請求項14に記載のグラフィックユーザインターフェイス。
- 前記ビュー表面上の1つ以上の視覚指示子の位置は、視差の問題に対して修正され、その修正される位置の決定は、前記ビュー表面の決定された3D基準フレームに少なくとも一部分基づく、請求項15に記載のグラフィックユーザインターフェイス。
- 前記ビュー表面上の1つ以上のグラフィックユーザインターフェイスオブジェクトの描写は、1つ以上のグラフィックユーザインターフェイスオブジェクトに、次の視覚効果、即ち陰影、輝き、ボケ、及びアルファマスキング、のうちの1つ以上を適用することを含む、請求項12から16のいずれかに記載のグラフィックユーザインターフェイス。
- ディスプレイと、
1つ以上の光学センサと、
1つ以上の位置センサと、
メモリと、
を備え、前記メモリは、1つ以上のプログラム可能なコントロール装置が、
1つ以上の位置センサから位置データを受け取り、
前記受け取られた位置データに少なくとも一部分基づいて装置の3D基準フレームを決定し、
1つ以上の光学センサから光学データを受け取り、
前記受け取られた光学データに少なくとも一部分基づいてユーザの位置を決定し、
少なくとも1つのグラフィックユーザインターフェイスオブジェクトのバーチャル3D描写を前記ディスプレイにレンダリングする、
ようにさせるためのインストラクションを含み、
前記レンダリングするためのインストラクションは、前記決定された3D基準フレーム及び前記決定されたユーザの位置に基づくものであり、
前記ディスプレイ上の前記少なくとも1つのグラフィックユーザインターフェイスオブジェクトの前記バーチャル3D描写は、前記受信された光学データによって示される周囲光源の表現を含むバーチャル光源の描写を含む、装置。 - 前記1つ以上の位置センサが、コンパス、加速度計、ジャイロメーター、及びグローバルポジショニングシステム(GPS)モジュールのうちの1つの以上を含むことを特徴とする請求項18に記載の装置。
- 前記1つ以上の光学センサが画像センサ、接近センサ、及びビデオカメラのうちの1つ以上を含むことを特徴とする請求項18または19に記載の装置。
- 前記1つ以上の光学センサが前面カメラを含むことを特徴とする請求項18に記載の装置。
- 前記受け取られた光学データに少なくとも一部分基づいてユーザの位置を決定するためのインストラクションは、ユーザから装置のディスプレイまでの距離を計算すること、ユーザの顔を検出すること及びユーザの環境における周囲光源の位置を特定することの1つ以上を実行するためのインストラクションを含んでいることを特徴とする請求項21に記載の装置。
- 前記装置が、移動電話、パーソナルデータアシスタント(PDA)、ポータブル音楽プレーヤ、テレビジョン、ゲームコンソール、ポータブルゲーム装置、並びにラップトップ、デスクトップ及びタブレットコンピュータのうちの1つ以上を含むことを特徴とする請求項18ないし22のいずれか1つの請求項に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/849,945 | 2010-08-04 | ||
US12/849,945 US8913056B2 (en) | 2010-08-04 | 2010-08-04 | Three dimensional user interface effects on a display by using properties of motion |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013523180A Division JP5524417B2 (ja) | 2010-08-04 | 2011-07-19 | 動き特性を使用することによるディスプレイへの三次元ユーザインターフェイス効果 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014135086A JP2014135086A (ja) | 2014-07-24 |
JP5877219B2 true JP5877219B2 (ja) | 2016-03-02 |
Family
ID=44531201
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013523180A Active JP5524417B2 (ja) | 2010-08-04 | 2011-07-19 | 動き特性を使用することによるディスプレイへの三次元ユーザインターフェイス効果 |
JP2014080418A Active JP5877219B2 (ja) | 2010-08-04 | 2014-04-09 | 動き特性を使用することによるディスプレイへの三次元ユーザインターフェイス効果 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013523180A Active JP5524417B2 (ja) | 2010-08-04 | 2011-07-19 | 動き特性を使用することによるディスプレイへの三次元ユーザインターフェイス効果 |
Country Status (7)
Country | Link |
---|---|
US (2) | US8913056B2 (ja) |
EP (1) | EP2601640B1 (ja) |
JP (2) | JP5524417B2 (ja) |
KR (1) | KR101823182B1 (ja) |
CN (1) | CN103119628B (ja) |
TW (1) | TWI470534B (ja) |
WO (1) | WO2012018513A1 (ja) |
Families Citing this family (129)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010108499A2 (en) * | 2009-03-22 | 2010-09-30 | Algreatly Cherif Atia | 3d navigation method and system |
US8913056B2 (en) | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
US9411413B2 (en) | 2010-08-04 | 2016-08-09 | Apple Inc. | Three dimensional user interface effects on a display |
KR101705119B1 (ko) * | 2010-09-15 | 2017-02-10 | 삼성전자 주식회사 | 전자 기기에서 2차원 이미지로 3차원 화면을 구성하는 방법 및 그 전자 기기 |
US9360959B2 (en) | 2010-10-12 | 2016-06-07 | Tactonic Technologies, Llc | Fusing depth and pressure imaging to provide object identification for multi-touch surfaces |
JP5781080B2 (ja) * | 2010-10-20 | 2015-09-16 | 三菱電機株式会社 | 3次元立体表示装置および3次元立体表示処理装置 |
US10146426B2 (en) * | 2010-11-09 | 2018-12-04 | Nokia Technologies Oy | Apparatus and method for user input for controlling displayed information |
JP5742187B2 (ja) * | 2010-11-26 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20120242664A1 (en) * | 2011-03-25 | 2012-09-27 | Microsoft Corporation | Accelerometer-based lighting and effects for mobile devices |
JP5874192B2 (ja) * | 2011-04-11 | 2016-03-02 | ソニー株式会社 | 画像処理装置、画像処理方法、及びプログラム |
KR101789624B1 (ko) * | 2011-06-20 | 2017-10-25 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
ITTO20110654A1 (it) * | 2011-07-20 | 2013-01-21 | Inst Rundfunktechnik Gmbh | Generatore di segnale test, segnale test per apparecchi |
KR101830966B1 (ko) * | 2011-09-21 | 2018-02-22 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 컨텐츠 생성 방법 |
US20130106990A1 (en) | 2011-11-01 | 2013-05-02 | Microsoft Corporation | Planar panorama imagery generation |
KR101322465B1 (ko) * | 2011-11-17 | 2013-10-28 | 삼성전자주식회사 | 셀프 카메라 촬영을 위한 방법 및 장치 |
EP2783273A4 (en) * | 2011-11-21 | 2015-08-26 | Intel Corp | MODIFYING CHROME PER ACCORDING TO ENVIRONMENTAL CONDITIONS |
US9406153B2 (en) | 2011-12-14 | 2016-08-02 | Microsoft Technology Licensing, Llc | Point of interest (POI) data positioning in image |
US10008021B2 (en) | 2011-12-14 | 2018-06-26 | Microsoft Technology Licensing, Llc | Parallax compensation |
US9324184B2 (en) * | 2011-12-14 | 2016-04-26 | Microsoft Technology Licensing, Llc | Image three-dimensional (3D) modeling |
JP6404120B2 (ja) * | 2011-12-27 | 2018-10-10 | インテル コーポレイション | モバイル・デバイスにおける完全な3d対話 |
RU2623201C2 (ru) | 2012-01-11 | 2017-06-27 | Ултра-Д Коператиф У.А. | Мобильное устройство отображения |
US9378581B2 (en) * | 2012-03-13 | 2016-06-28 | Amazon Technologies, Inc. | Approaches for highlighting active interface elements |
US8630458B2 (en) | 2012-03-21 | 2014-01-14 | Google Inc. | Using camera input to determine axis of rotation and navigation |
US8937591B2 (en) | 2012-04-06 | 2015-01-20 | Apple Inc. | Systems and methods for counteracting a perceptual fading of a movable indicator |
CN102662473B (zh) * | 2012-04-16 | 2016-08-24 | 维沃移动通信有限公司 | 基于眼部动作识别来实现人机信息交互的装置及方法 |
US11073959B2 (en) | 2012-06-08 | 2021-07-27 | Apple Inc. | Simulating physical materials and light interaction in a user interface of a resource-constrained device |
US9456244B2 (en) | 2012-06-25 | 2016-09-27 | Intel Corporation | Facilitation of concurrent consumption of media content by multiple users using superimposed animation |
US9339726B2 (en) * | 2012-06-29 | 2016-05-17 | Nokia Technologies Oy | Method and apparatus for modifying the presentation of information based on the visual complexity of environment information |
US8922557B2 (en) | 2012-06-29 | 2014-12-30 | Embarcadero Technologies, Inc. | Creating a three dimensional user interface |
TWI509289B (zh) * | 2012-08-27 | 2015-11-21 | Innocom Tech Shenzhen Co Ltd | 立體顯示裝置及其影像顯示方法 |
US9654556B2 (en) | 2012-10-02 | 2017-05-16 | Razer (Asia-Pacific) Pte. Ltd. | Managing applications on an electronic device |
US9776078B2 (en) | 2012-10-02 | 2017-10-03 | Razer (Asia-Pacific) Pte. Ltd. | Application state backup and restoration across multiple devices |
US9717985B2 (en) | 2012-10-02 | 2017-08-01 | Razer (Asia-Pacific) Pte. Ltd. | Fragment-based mobile device application streaming utilizing crowd-sourcing |
US9430991B2 (en) * | 2012-10-02 | 2016-08-30 | Futurewei Technologies, Inc. | User interface display composition with device sensor/state based graphical effects |
US9747000B2 (en) | 2012-10-02 | 2017-08-29 | Razer (Asia-Pacific) Pte. Ltd. | Launching applications on an electronic device |
US9106721B2 (en) | 2012-10-02 | 2015-08-11 | Nextbit Systems | Application state synchronization across multiple devices |
US8698835B1 (en) * | 2012-10-16 | 2014-04-15 | Google Inc. | Mobile device user interface having enhanced visual characteristics |
US9417666B2 (en) * | 2012-10-19 | 2016-08-16 | Microsoft Technology Licesning, LLC | User and device movement based display compensation |
US9058053B2 (en) | 2012-10-26 | 2015-06-16 | The Boeing Company | Virtual reality display system |
US9576183B2 (en) * | 2012-11-02 | 2017-02-21 | Qualcomm Incorporated | Fast initialization for monocular visual SLAM |
CN102957931A (zh) * | 2012-11-02 | 2013-03-06 | 京东方科技集团股份有限公司 | 一种3d显示的控制方法和装置、及视频眼镜 |
KR101984590B1 (ko) * | 2012-11-14 | 2019-05-31 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
US9197760B2 (en) * | 2013-01-07 | 2015-11-24 | Lenovo (Singapore) Pte. Ltd. | Hand activated mode setting |
US9324166B2 (en) * | 2013-01-31 | 2016-04-26 | American Greetings Corporation | Systems, methods, and apparatuses for creating digital glitter |
US20140282269A1 (en) * | 2013-03-13 | 2014-09-18 | Amazon Technologies, Inc. | Non-occluded display for hover interactions |
US10120540B2 (en) | 2013-03-14 | 2018-11-06 | Samsung Electronics Co., Ltd. | Visual feedback for user interface navigation on television system |
USD735232S1 (en) * | 2013-03-14 | 2015-07-28 | Microsoft Corporation | Display screen with graphical user interface |
USD733739S1 (en) * | 2013-03-14 | 2015-07-07 | Microsoft Corporation | Display screen with graphical user interface |
US10216266B2 (en) * | 2013-03-14 | 2019-02-26 | Qualcomm Incorporated | Systems and methods for device interaction based on a detected gaze |
USD745876S1 (en) * | 2013-03-14 | 2015-12-22 | Microsoft Corporation | Display screen with graphical user interface |
US9389728B2 (en) * | 2013-03-15 | 2016-07-12 | Elwha Llc | Systems and methods for parallax compensation |
US9395902B2 (en) * | 2013-03-15 | 2016-07-19 | Elwha Llc | Systems and methods for parallax compensation |
US20140267006A1 (en) * | 2013-03-15 | 2014-09-18 | Giuseppe Raffa | Automatic device display orientation detection |
US9798461B2 (en) | 2013-03-15 | 2017-10-24 | Samsung Electronics Co., Ltd. | Electronic system with three dimensional user interface and method of operation thereof |
US10123189B2 (en) | 2013-03-21 | 2018-11-06 | Razer (Asia-Pacific) Pte. Ltd. | Electronic device system restoration by tapping mechanism |
US10019130B2 (en) * | 2013-04-21 | 2018-07-10 | Zspace, Inc. | Zero parallax drawing within a three dimensional display |
KR101474552B1 (ko) * | 2013-04-24 | 2014-12-22 | 주식회사 실리콘아츠 | 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법, 이를 수행하는 3차원 콘텐츠 디스플레이 장치 및 이를 저장하는 기록매체 |
TWI547626B (zh) * | 2013-05-31 | 2016-09-01 | 原相科技股份有限公司 | 具有手勢感測器的裝置 |
USD741353S1 (en) * | 2013-06-10 | 2015-10-20 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
CN109240506A (zh) * | 2013-06-13 | 2019-01-18 | 原相科技股份有限公司 | 具有手势感测器的装置 |
US9372103B2 (en) | 2013-07-12 | 2016-06-21 | Facebook, Inc. | Calibration of grab detection |
US9857876B2 (en) * | 2013-07-22 | 2018-01-02 | Leap Motion, Inc. | Non-linear motion capture using Frenet-Serret frames |
US10592064B2 (en) * | 2013-09-17 | 2020-03-17 | Amazon Technologies, Inc. | Approaches for three-dimensional object display used in content navigation |
EP3047363B1 (en) * | 2013-09-17 | 2019-11-06 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US20150082145A1 (en) * | 2013-09-17 | 2015-03-19 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US10067634B2 (en) * | 2013-09-17 | 2018-09-04 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US9317175B1 (en) * | 2013-09-24 | 2016-04-19 | Amazon Technologies, Inc. | Integration of an independent three-dimensional rendering engine |
USD768162S1 (en) * | 2013-09-30 | 2016-10-04 | Nextbit Systems Inc. | Display screen or portion thereof with graphical user interface |
WO2015075590A2 (en) | 2013-11-20 | 2015-05-28 | Koninklijke Philips N.V. | Methods and apparatus for light-based positioning and navigation |
US10303324B2 (en) * | 2014-02-10 | 2019-05-28 | Samsung Electronics Co., Ltd. | Electronic device configured to display three dimensional (3D) virtual space and method of controlling the electronic device |
US9958963B2 (en) | 2014-02-19 | 2018-05-01 | American Greetings Corporation | Systems, methods, and apparatuses for creating digital glitter with accelerometer |
GB2523345B (en) | 2014-02-20 | 2018-01-17 | Samsung Electronics Co Ltd | Detecting user viewing difficulty from facial parameters |
WO2015130137A1 (en) * | 2014-02-27 | 2015-09-03 | Samsung Electronics Co., Ltd. | Method and device for displaying three-dimensional graphical user interface screen |
KR20150101915A (ko) * | 2014-02-27 | 2015-09-04 | 삼성전자주식회사 | 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스 |
JP2015166890A (ja) | 2014-03-03 | 2015-09-24 | ソニー株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
US9710098B2 (en) * | 2014-03-31 | 2017-07-18 | Samsung Display Co., Ltd. | Method and apparatus to reduce latency of touch events |
EP3130994A4 (en) * | 2014-04-07 | 2018-01-03 | Sony Corporation | Display control device, display control method, and program |
KR102224478B1 (ko) * | 2014-04-15 | 2021-03-08 | 엘지전자 주식회사 | 터치 센서티브 플렉서블 디스플레이 디바이스 및 그 제어 방법 |
US10318016B2 (en) * | 2014-06-03 | 2019-06-11 | Harman International Industries, Incorporated | Hands free device with directional interface |
EP3699736B1 (en) * | 2014-06-14 | 2023-03-29 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9389703B1 (en) * | 2014-06-23 | 2016-07-12 | Amazon Technologies, Inc. | Virtual screen bezel |
TWI530864B (zh) * | 2014-08-19 | 2016-04-21 | 宏碁股份有限公司 | 可攜式電子裝置以及使用者介面操作方法 |
WO2016064311A1 (en) * | 2014-10-22 | 2016-04-28 | Telefonaktiebolaget L M Ericsson (Publ) | Method and device for providing a touch-based user interface |
CN104349155B (zh) * | 2014-11-25 | 2017-02-01 | 深圳超多维光电子有限公司 | 模拟立体图像显示方法及显示设备 |
US10039975B2 (en) | 2015-01-13 | 2018-08-07 | Disney Enterprises, Inc. | Techniques for representing imaginary participants in an immersive play environment |
US10265621B2 (en) | 2015-01-20 | 2019-04-23 | Disney Enterprises, Inc. | Tracking specific gestures relative to user movement |
US9855497B2 (en) | 2015-01-20 | 2018-01-02 | Disney Enterprises, Inc. | Techniques for providing non-verbal speech recognition in an immersive playtime environment |
US10146303B2 (en) | 2015-01-20 | 2018-12-04 | Microsoft Technology Licensing, Llc | Gaze-actuated user interface with visual feedback |
US20160210382A1 (en) * | 2015-01-21 | 2016-07-21 | Ford Global Technologies, Llc | Autonomous driving refined in virtual environments |
US20160210383A1 (en) * | 2015-01-21 | 2016-07-21 | Ford Global Technologies, Llc | Virtual autonomous response testbed |
US9818037B2 (en) | 2015-02-04 | 2017-11-14 | Invensense, Inc. | Estimating heading misalignment between a device and a person using optical sensor |
JP6756090B2 (ja) * | 2015-06-17 | 2020-09-16 | 凸版印刷株式会社 | 画像処理装置、方法、及びプログラム |
CN105141938B (zh) * | 2015-08-18 | 2017-12-01 | 深圳先进技术研究院 | 视线定位装置 |
US9830708B1 (en) * | 2015-10-15 | 2017-11-28 | Snap Inc. | Image segmentation of a video stream |
WO2017107171A1 (zh) * | 2015-12-25 | 2017-06-29 | 华为技术有限公司 | 一种人机交互方法及电子设备 |
US10318043B2 (en) * | 2016-03-24 | 2019-06-11 | Gm Global Technology Operations Llc. | Dynamic adjustment of touch sensitive area in a display assembly |
US10303341B2 (en) * | 2016-05-25 | 2019-05-28 | International Business Machines Corporation | Modifying screen content based on gaze tracking and user distance from the screen |
US10621581B2 (en) | 2016-06-11 | 2020-04-14 | Apple Inc. | User interface for transactions |
CN114693289A (zh) | 2016-06-11 | 2022-07-01 | 苹果公司 | 用于交易的用户界面 |
KR102588518B1 (ko) * | 2016-07-06 | 2023-10-13 | 삼성전자주식회사 | 전자 장치 및 이의 디스플레이 방법 |
US10225655B1 (en) * | 2016-07-29 | 2019-03-05 | Relay Cars LLC | Stereo user interface elements placed in 3D space for virtual reality applications in head mounted displays |
US11115408B2 (en) | 2016-08-09 | 2021-09-07 | Daon Holdings Limited | Methods and systems for determining user liveness and verifying user identities |
US10210380B2 (en) | 2016-08-09 | 2019-02-19 | Daon Holdings Limited | Methods and systems for enhancing user liveness detection |
US10628661B2 (en) | 2016-08-09 | 2020-04-21 | Daon Holdings Limited | Methods and systems for determining user liveness and verifying user identities |
US10217009B2 (en) * | 2016-08-09 | 2019-02-26 | Daon Holdings Limited | Methods and systems for enhancing user liveness detection |
CN107025035B (zh) | 2016-11-30 | 2020-02-14 | 阿里巴巴集团控股有限公司 | 控制移动终端屏幕显示的方法及移动终端 |
WO2018149681A1 (en) * | 2017-02-16 | 2018-08-23 | Philips Lighting Holding B.V. | A controller for indicating a presence of a virtual object via a lighting device and a method thereof |
USD845336S1 (en) | 2017-05-03 | 2019-04-09 | Google Llc | Display screen or portion thereof with graphical user interface |
CN107181939A (zh) * | 2017-05-10 | 2017-09-19 | 廖治文 | 基于摄像头的裸眼三维成像方法及系统 |
US11221744B2 (en) * | 2017-05-16 | 2022-01-11 | Apple Inc. | User interfaces for peer-to-peer transfers |
CN118264636A (zh) | 2017-05-16 | 2024-06-28 | 苹果公司 | 用于对等传输的用户界面 |
CN107300975A (zh) * | 2017-07-13 | 2017-10-27 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US10699371B2 (en) * | 2017-08-18 | 2020-06-30 | Rockwell Collins, Inc. | Systems and methods for reducing parallax in aircraft displays |
US10783681B2 (en) | 2017-09-13 | 2020-09-22 | International Business Machines Corporation | Artificially tiltable image display |
CN107592521A (zh) * | 2017-09-14 | 2018-01-16 | 陈乐春 | 基于人眼视觉特点的全景视野呈现方法 |
CN108536289B (zh) * | 2018-03-28 | 2022-11-15 | 北京凌宇智控科技有限公司 | 一种虚拟环境的场景切换方法及系统 |
KR20240024294A (ko) | 2018-06-03 | 2024-02-23 | 애플 인크. | 트랜스퍼 계정들을 위한 사용자 인터페이스들 |
US11159731B2 (en) | 2019-02-19 | 2021-10-26 | Samsung Electronics Co., Ltd. | System and method for AI enhanced shutter button user interface |
US11328352B2 (en) | 2019-03-24 | 2022-05-10 | Apple Inc. | User interfaces for managing an account |
KR20200126232A (ko) * | 2019-04-29 | 2020-11-06 | 삼성전자주식회사 | 전자 장치 및 그 영상을 출력하는 방법 |
US11614797B2 (en) * | 2019-11-05 | 2023-03-28 | Micron Technology, Inc. | Rendering enhancement based in part on eye tracking |
US12118562B2 (en) | 2020-05-29 | 2024-10-15 | Apple Inc. | Configuring an account for a second user identity |
CN114584652B (zh) * | 2020-11-28 | 2023-06-20 | 华为技术有限公司 | 一种用户图形界面显示方法、装置、计算机设备及存储介质 |
US11838684B2 (en) | 2021-01-26 | 2023-12-05 | Dell Products, Lp | System and method for operating an intelligent videoframe privacy monitoring management system for videoconferencing applications |
US11315291B1 (en) * | 2021-01-29 | 2022-04-26 | International Business Machines Corporation | Shine visualization |
US11983702B2 (en) | 2021-02-01 | 2024-05-14 | Apple Inc. | Displaying a representation of a card with a layered structure |
US11921992B2 (en) | 2021-05-14 | 2024-03-05 | Apple Inc. | User interfaces related to time |
US11784956B2 (en) | 2021-09-20 | 2023-10-10 | Apple Inc. | Requests to add assets to an asset account |
US20230400960A1 (en) * | 2022-06-13 | 2023-12-14 | Illuscio, Inc. | Systems and Methods for Interacting with Three-Dimensional Graphical User Interface Elements to Control Computer Operation |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6344863B1 (en) | 1999-11-24 | 2002-02-05 | International Business Machines Corporation | Three-dimensional GUI windows with variable-speed perspective movement |
US6907579B2 (en) | 2001-10-30 | 2005-06-14 | Hewlett-Packard Development Company, L.P. | User interface and method for interacting with a three-dimensional graphical environment |
JP2004309947A (ja) * | 2003-04-10 | 2004-11-04 | Sharp Corp | データ表示装置、データ表示プログラム、および、プログラム記録媒体 |
JP4000570B2 (ja) | 2004-04-14 | 2007-10-31 | ソニー株式会社 | 情報処理装置および方法 |
US20050243085A1 (en) | 2004-05-03 | 2005-11-03 | Microsoft Corporation | Model 3D construction application program interface |
CN100461212C (zh) * | 2004-06-04 | 2009-02-11 | 松下电器产业株式会社 | 显示控制方法及装置以及便携设备 |
JP2006126445A (ja) * | 2004-10-28 | 2006-05-18 | Matsushita Electric Ind Co Ltd | ナビゲーションシステム |
US7683883B2 (en) | 2004-11-02 | 2010-03-23 | Pierre Touma | 3D mouse and game controller based on spherical coordinates system and system for use |
US20060164382A1 (en) * | 2005-01-25 | 2006-07-27 | Technology Licensing Company, Inc. | Image manipulation in response to a movement of a display |
US8589142B2 (en) * | 2005-06-29 | 2013-11-19 | Qualcomm Incorporated | Visual debugging system for 3D user interface program |
JP2007080060A (ja) * | 2005-09-15 | 2007-03-29 | Matsushita Electric Ind Co Ltd | 対象物特定装置 |
US7694231B2 (en) * | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
JP4977995B2 (ja) | 2005-10-26 | 2012-07-18 | 日本電気株式会社 | 携帯表示装置 |
US20090262074A1 (en) * | 2007-01-05 | 2009-10-22 | Invensense Inc. | Controlling and accessing content using motion processing on mobile devices |
US8745535B2 (en) | 2007-06-08 | 2014-06-03 | Apple Inc. | Multi-dimensional desktop |
TW200919294A (en) | 2007-10-24 | 2009-05-01 | Inventec Corp | 3D-window operation interface based on graphical user interface and method thereof |
US8384718B2 (en) * | 2008-01-10 | 2013-02-26 | Sony Corporation | System and method for navigating a 3D graphical user interface |
US8423076B2 (en) * | 2008-02-01 | 2013-04-16 | Lg Electronics Inc. | User interface for a mobile device |
US8681093B2 (en) * | 2008-02-11 | 2014-03-25 | Apple Inc. | Motion compensation for screens |
US20090251460A1 (en) * | 2008-04-04 | 2009-10-08 | Fuji Xerox Co., Ltd. | Systems and methods for incorporating reflection of a user and surrounding environment into a graphical user interface |
JP2009294728A (ja) * | 2008-06-02 | 2009-12-17 | Sony Ericsson Mobilecommunications Japan Inc | 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置 |
US8477139B2 (en) | 2008-06-09 | 2013-07-02 | Apple Inc. | Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects |
US9092053B2 (en) | 2008-06-17 | 2015-07-28 | Apple Inc. | Systems and methods for adjusting a display based on the user's position |
KR101602363B1 (ko) * | 2008-09-11 | 2016-03-10 | 엘지전자 주식회사 | 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기 |
US20100115471A1 (en) | 2008-11-04 | 2010-05-06 | Apple Inc. | Multidimensional widgets |
JP4679661B1 (ja) | 2009-12-15 | 2011-04-27 | 株式会社東芝 | 情報提示装置、情報提示方法及びプログラム |
JP2011203984A (ja) | 2010-03-25 | 2011-10-13 | Soka Univ | ナビゲーション装置、ナビゲーション画像生成方法及びプログラム |
US8982160B2 (en) * | 2010-04-16 | 2015-03-17 | Qualcomm, Incorporated | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
EP2573650A1 (en) | 2010-05-20 | 2013-03-27 | Nec Corporation | Portable information processing terminal |
US8913056B2 (en) | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
US9014754B2 (en) | 2010-11-02 | 2015-04-21 | Nec Casio Mobile Communications, Ltd. | Information processing system and information processing method |
-
2010
- 2010-08-04 US US12/849,945 patent/US8913056B2/en active Active
-
2011
- 2011-07-19 JP JP2013523180A patent/JP5524417B2/ja active Active
- 2011-07-19 WO PCT/US2011/044433 patent/WO2012018513A1/en active Application Filing
- 2011-07-19 EP EP11738365.3A patent/EP2601640B1/en active Active
- 2011-07-19 KR KR1020137005605A patent/KR101823182B1/ko active IP Right Grant
- 2011-07-19 CN CN201180045611.2A patent/CN103119628B/zh active Active
- 2011-08-03 TW TW100127614A patent/TWI470534B/zh active
-
2014
- 2014-04-09 JP JP2014080418A patent/JP5877219B2/ja active Active
- 2014-12-15 US US14/571,062 patent/US9417763B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2012018513A1 (en) | 2012-02-09 |
TWI470534B (zh) | 2015-01-21 |
CN103119628A (zh) | 2013-05-22 |
US20120036433A1 (en) | 2012-02-09 |
JP2013537670A (ja) | 2013-10-03 |
US20150106768A1 (en) | 2015-04-16 |
JP2014135086A (ja) | 2014-07-24 |
KR20140005141A (ko) | 2014-01-14 |
TW201214266A (en) | 2012-04-01 |
US9417763B2 (en) | 2016-08-16 |
EP2601640A1 (en) | 2013-06-12 |
JP5524417B2 (ja) | 2014-06-18 |
CN103119628B (zh) | 2016-06-08 |
US8913056B2 (en) | 2014-12-16 |
KR101823182B1 (ko) | 2018-01-29 |
EP2601640B1 (en) | 2017-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5877219B2 (ja) | 動き特性を使用することによるディスプレイへの三次元ユーザインターフェイス効果 | |
US9778815B2 (en) | Three dimensional user interface effects on a display | |
US20230325004A1 (en) | Method of interacting with objects in an environment | |
EP3814876B1 (en) | Placement and manipulation of objects in augmented reality environment | |
US20210011556A1 (en) | Virtual user interface using a peripheral device in artificial reality environments | |
JP7008730B2 (ja) | 画像に挿入される画像コンテンツについての影生成 | |
US10976804B1 (en) | Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments | |
US11023035B1 (en) | Virtual pinboard interaction using a peripheral device in artificial reality environments | |
CN111344749A (zh) | 引向用户关注 | |
US11023036B1 (en) | Virtual drawing surface interaction using a peripheral device in artificial reality environments | |
US20240019982A1 (en) | User interface for interacting with an affordance in an environment | |
CN113243000B (zh) | 用于增强现实对象的捕捉范围 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5877219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |