JP6844542B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP6844542B2 JP6844542B2 JP2017539717A JP2017539717A JP6844542B2 JP 6844542 B2 JP6844542 B2 JP 6844542B2 JP 2017539717 A JP2017539717 A JP 2017539717A JP 2017539717 A JP2017539717 A JP 2017539717A JP 6844542 B2 JP6844542 B2 JP 6844542B2
- Authority
- JP
- Japan
- Prior art keywords
- prediction accuracy
- information processing
- virtual object
- prediction
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 187
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000033001 locomotion Effects 0.000 claims description 84
- 238000000034 method Methods 0.000 claims description 69
- 230000000694 effects Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 description 114
- 238000001514 detection method Methods 0.000 description 56
- 230000036544 posture Effects 0.000 description 36
- 230000008569 process Effects 0.000 description 29
- 230000006870 function Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 230000008859 change Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 16
- 210000001508 eye Anatomy 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 15
- 230000001133 acceleration Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 208000035475 disorder Diseases 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000985694 Polypodiopsida Species 0.000 description 1
- 229910003798 SPO2 Inorganic materials 0.000 description 1
- 101100478210 Schizosaccharomyces pombe (strain 972 / ATCC 24843) spo2 gene Proteins 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000035899 viability Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/224—Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
- G06V30/2247—Characters composed of bars, e.g. CMC-7
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Ophthalmology & Optometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Controls And Circuits For Display Device (AREA)
Description
1.はじめに
1.1.外観構成例
1.2.技術的課題
2.第1の実施形態
2.1.構成例
2.2.処理の流れ
2.3.UI例
3.シースルー型HMDへの適用例
3.1.構成例1
3.2.構成例2
3.3.構成例3
4.変形例
5.ハードウェア構成例
6.まとめ
<1.1.外観構成例>
まず、図1を参照して、本開示の一実施形態に係る情報処理装置の外観構成の一例について説明する。
続いて、図2〜図4を参照して、技術的課題を説明する。
まず、図5を参照して、第1の実施形態に係る情報処理装置の構成の一例を説明する。
図5は、本実施形態に係る情報処理装置の論理的な構成の一例を示すブロック図である。図5に示すように、本実施形態に係る情報処理装置1は、実オブジェクト検知部100、実オブジェクト認識部120、実オブジェクト予測部140、視点検知部200、視点認識部220、視点予測部240、描画遅延検知部300、視界内状態予測部400、予測精度推定部500、出力制御部600及び表示部700を含む。
実オブジェクト検知部100は、検知時刻T0における実オブジェクトに関する情報を検知する機能を有する。例えば、実オブジェクト検知部100は、実オブジェクトをセンシング対象とするセンサにより検知された情報を取得する。そのようなセンサとしては、例えばカメラ、デプスセンサ、赤外線センサ、電波センサなどが挙げられる。なお、図1に示した例においては、実オブジェクト検知部100は外向きステレオカメラ10として実現され得る。
実オブジェクト認識部120は、実オブジェクト検知部100により取得された情報に基づいて、実オブジェクトを認識する機能を有する。実オブジェクト認識部120は、実オブジェクトの位置又は姿勢を認識する。実オブジェクトの位置又は姿勢とは、世界座標系における実オブジェクトの位置又は姿勢を意味するものとする。世界座標系は、実空間内で固定的に定義される絶対的な座標を表す座標系である。
実オブジェクト予測部140は、実オブジェクト認識部120による認識結果に基づいて、表示時刻T2における実オブジェクトに関する予測を行う機能を有する。例えば、実オブジェクト予測部140は、表示時刻T2における実オブジェクトの位置又は姿勢を予測する機能を有する。そのために、実オブジェクト予測部140は、認識された実オブジェクトの位置又は姿勢のログを蓄積しておき、蓄積されたログに基づいて予測を行う。以下に、予測方法の一例を説明する。
・・・(1)
視点検知部200は、検知時刻T0における視点に関する情報を検知する機能を有する。視点は、ユーザの眼の位置又は姿勢(即ち、視線の向き)を意味していてもよいし、表示部700の位置又は姿勢を意味していてもよいし、これらの双方を含んでいてもよい。例えば、視点検知部200は、ユーザ又は情報処理装置1自身をセンシング対象とするセンサにより検知された情報を取得する。そのようなセンサとしては、例えばカメラ、デプスセンサ、ジャイロセンサ、加速度センサ、GNSS(Global Navigation Satellite System)などが挙げられる。なお、図1に示した例においては、視点検知部200は、内向きステレオカメラ10及び外向きステレオカメラ10として実現され得る。例えば、内向きステレオカメラ10による撮像画像は、顔上の相対座標系に対して目がどちらを向いているかを認識するために用いられ得る。また、外向きステレオカメラ10による撮像画像は、外界の特徴点の移動を認識し、世界座標系における視点(即ち、頭)の移動を認識するため(即ち、後述するSLAM法のため)に用いられ得る。これらの認識は、後述する視点認識部220により行われる。
視点認識部220は、視点検知部200により取得された情報に基づいて、視点の位置又は姿勢を認識する機能を有する。視点の位置又は姿勢とは、世界座標系における視点の位置又は姿勢を意味するものとする。
視点予測部240は、視点認識部220による認識結果に基づいて、表示時刻T2における視点に関する予測を行う機能を有する。例えば、視点予測部240は、表示時刻T2における視点の位置又は姿勢を予測する。そのために、視点予測部240は、認識された視点の位置又は姿勢のログを蓄積しておき、蓄積されたログに基づいて予測を行う。具体的な予測方法としては、実オブジェクト予測部140に関して上記説明したものと同様の予測方法が採用され得る。
描画遅延検知部300は、検知時刻T0と表示時刻T2とのタイムラグを検知する機能を有する。タイムラグは所定値であってもよいし、動的に変化していてもよい。タイムラグの長さは、検知時刻T0から表示時刻T2までの間に行われる各種処理の処理時間によって変動し得る。例えば処理負荷が低い時にはタイムラグが短くなり、処理負荷が高い場合にはタイムラグが長くなり得る。また、各種処理を実行するCPU、GPU、センサ等の動作周波数設定、省電力設定のON/OFF等によってもタイムラグの長さは変動し得る。例えば、描画遅延検知部300は、各種処理の処理負荷、動作周波数設定、省電力設定のON/OFF等に基づいて、タイムラグを検知し得る。
視界内状態予測部400は、表示時刻T2においてユーザの視界(即ち、実空間画像内)に映る実オブジェクトの位置又は姿勢を予測する機能を有する。この予測は、予測のための情報が検知される時点T0から仮想オブジェクトが表示される時点T2までのタイムラグに係る予測である。視界内状態予測部400は、このタイムラグの間に、実オブジェクトがどのように動き、視点がどのように動くか、という実オブジェクト予測部140及び視点予測部240による予測結果に基づいて、予測を行う。なお、ユーザの視界に映る実オブジェクトの位置又は姿勢とは、ユーザの眼から見た表示部700の表示面上の実オブジェクトの位置又は姿勢を意味するものとする。
予測精度推定部500は、表示部700に映る(例えば、透過型ディスプレイを透過する、又は非透過型ディスプレイに表示される)実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する機能を有する。具体的には、予測精度推定部500は、視界内状態予測部400による予測の精度を推定する。また、予測精度推定部500は、予測精度が低い場合に、低い要因を推定してもよい。
出力制御部600は、表示部700による仮想オブジェクトの表示処理(描画処理)を制御する。詳しくは、出力制御部600は、視界内状態予測部400により予測された実オブジェクトの位置に対応する位置に、又は視界内状態予測部400により予測された実オブジェクトの姿勢に対応する姿勢で、仮想オブジェクトを表示させる。これにより、例えば実オブジェクトの表面に仮想オブジェクトを重畳的に表示したり、実オブジェクトの上空に仮想オブジェクトを紐付けて表示したりすることが可能となる。
表示部700は、ユーザへ情報を表示する機能を有する。表示部700は、出力制御部600による制御に基づき仮想オブジェクトを表示する。表示部700は、実空間にある実オブジェクトを透過しつつ仮想オブジェクトを表示する透過型の表示装置であってもよい。その場合、情報処理装置1は、図1に示した透過型のHMDとして実現され、表示部700は、図1に示した表示部20A及び20Bとして実現される。また、表示部700は、撮像された実オブジェクトをリアルタイムに表示しつつ仮想オブジェクトをさらに表示する非透過型の表示装置であってもよい。その場合、情報処理装置1は、没入型(ビデオスルー型)のHMDとして実現され得る。
図5では、各構成要素が同一の装置内に含まれる例を示したが、本技術はかかる例に限定されない。例えば、情報処理装置1の各構成要素は、複数の装置に分離して含まれていてもよく、例えば情報処理を行うサーバと入出力を行うクライアントとに分離して含まれ得る。また、各種センサは、環境設置型の装置であってもよい。また、描画遅延検知部300が検知するタイムラグには、例えば通信遅延等が含まれてもよい。
図6は、本実施形態に係る情報処理装置1において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。
続いて、図7〜22を参照して、UI例について詳しく説明する。
まず、予測精度に応じたUIの変化について説明する。
情報処理装置1(例えば、出力制御部600)は、予測精度に応じて仮想オブジェクトの大きさを変化させてもよい。例えば、情報処理装置1は、表示すべき領域を含むように、予測精度が低いほど仮想オブジェクトを大きく表示する。また、情報処理装置1は、表示すべき領域に含まれるように、予測精度が低いほど仮想オブジェクトを小さく表示する。このような処理により、表示すべき領域から外れた位置に仮想オブジェクトが表示されることが防止されるので、表示の乱れが抑制される。以下、前者については図7を参照し、後者については図8を参照して、具体的に説明する。
情報処理装置1(例えば、出力制御部600)は、予測精度に応じて仮想オブジェクトの表示/非表示を切り替えてもよい。例えば、情報処理装置1は、予測精度が高い場合は仮想オブジェクトを表示して、低い場合は仮想オブジェクトを非表示にする。これにより、予測精度が低い場合に少なくとも表示の乱れの発生を抑止することが可能となる。この点について、図9を参照して説明する。
情報処理装置1(例えば、出力制御部600)は、予測精度に応じて仮想オブジェクトに適用する描画エフェクトを変化させてもよい。例えば、情報処理装置1は、予測精度が低いほど仮想オブジェクトの境界を曖昧にするアニメーションを適用する。これにより、仮想オブジェクトの表示が乱れる場合であっても、その影響を軽減することが可能となる。採用される描画エフェクトは多様に考えられる。以下では、その典型的な例として、図10及び図11を参照してモーションブラー処理について説明し、図12を参照してマスク処理について説明する。
情報処理装置1は、仮想オブジェクトにモーションブラー処理を適用し、仮想オブジェクトにモーションブラーを付加して表示させ得る。まず、図10を参照して、モーションブラー処理の適用方針を説明する。
情報処理装置1は、例えば仮想オブジェクトにマスク処理を適用し、仮想オブジェクトの外縁部ほど希薄に表示させ得る。以下、図12を参照して、マスク処理の適用方針を説明する。
続いて、精度低下要因に応じた描画手法の変化について説明する。
続いて、状況に応じた表示の変化について説明する。
図14は、本実施形態に係る情報処理装置1において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。
例えば、情報処理装置1(例えば、出力制御部600)は、ユーザの位置と仮想オブジェクトの表示位置(実空間における位置)との距離に応じて、仮想オブジェクトの表示を変化させてもよい。以下では、仮想オブジェクトのコンテンツは3次元であるものとする。
続いて、設定用UIについて説明する。
続いて、上記説明した第1の実施形態に係る情報処理装置1を、シースルー型HMDとして実現した場合の構成例を説明する。
図23は、本実施形態に係るHMD1の論理的な構成の一例を示すブロック図である。図23に示すように、本実施形態に係るHMD1は、図5を参照して上記説明した情報処理装置1の構成を基本として、さらに詳細な構成要素を有している。以下、各々の構成要素について詳しく説明する。
図24は、本実施形態に係るHMD1の論理的な構成の一例を示すブロック図である。図24に示すように、本構成例に係るHMD1は、実オブジェクト検知部100に関し図23に示した構成例と相違する。以下、相違点について説明する。
図25は、本実施形態に係るHMD1の論理的な構成の一例を示すブロック図である。図25に示すように、本構成例に係るHMD1は、視点検知部200に関し図23に示した構成例と相違する。以下、相違点について説明する。
続いて、本実施形態に係る情報処理装置1の変形例を説明する。本変形例に係る情報処理装置1は、予測精度に応じてタイムラグの長さを調整する。
最後に、図27を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図27は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図27に示す情報処理装置900は、例えば、図5、図23〜図26にそれぞれ示した情報処理装置1を実現し得る。本実施形態に係る情報処理装置1による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
以上、図1〜図27を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、情報処理装置1は、表示部700に映る実オブジェクトの位置又は姿勢の予測に係る予測精度を推定して、推定結果に基づいて実オブジェクトに対応する仮想オブジェクトを表示させる。予測精度が高いほど表示の乱れが生じにくく、予測精度が低いほど表示の乱れが生じやすい。そのため、情報処理装置1は、予測精度を加味した表示を行うことで、仮想オブジェクトの表示の乱れを抑制し、表示の乱れに起因する不快感をより軽減することが可能となる。
(1)
実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、
前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、
を備える情報処理装置。
(2)
前記出力制御部は、前記予測精度が高いほど対応する前記実オブジェクトとの関連性が高くなるよう前記仮想オブジェクトを表示させ、前記予測精度が低いほど対応する前記実オブジェクトとの関連性が低くなるよう前記仮想オブジェクトを表示させるための情報を出力する、前記(1)に記載の情報処理装置。
(3)
前記出力制御部は、前記予測精度が低いほど前記仮想オブジェクトをぼかして表示させるための情報を出力する、前記(1)又は(2)に記載の情報処理装置。
(4)
前記出力制御部は、前記仮想オブジェクトにモーションブラーを付加して表示させるための情報を出力する、前記(3)に記載の情報処理装置。
(5)
前記出力制御部は、前記仮想オブジェクトの外縁部ほど希薄に表示させるための情報を出力する、前記(3)に記載の情報処理装置。
(6)
前記出力制御部は、前記予測精度に応じて前記仮想オブジェクトの大きさを変化させる、前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記出力制御部は、前記予測精度に応じて前記仮想オブジェクトに適用する描画エフェクトを変化させる、前記(2)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記出力制御部は、前記仮想オブジェクトの表示を前記予測精度が低い要因に応じた表示にさせるための情報を出力する、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記出力制御部は、前記要因が視点の動きに起因するものである場合、前記仮想オブジェクトを非表示にさせるための情報を出力する、前記(8)に記載の情報処理装置。
(10)
前記出力制御部は、前記要因が前記実オブジェクトの動きに起因するものである場合、前記仮想オブジェクトにモーションブラーを付加して表示させるための情報を出力する、前記(8)に記載の情報処理装置。
(11)
前記予測精度推定部は、前記位置又は姿勢の予測に用いられる対象物の、動きの大きさ又は規則性の少なくともいずれかに基づいて前記予測精度を推定する、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記対象物は、前記実オブジェクトである、前記(11)に記載の情報処理装置。
(13)
前記対象物は、前記表示部である、前記(11)又は(12)に記載の情報処理装置。
(14)
前記対象物は、ユーザの眼である、前記(11)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記位置又は姿勢の予測は、予測のための情報が検知される時点から前記仮想オブジェクトが表示される時点までの時間に係る予測である、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記予測精度に応じて前記時間の長さを制御する時間制御部をさらに備える、前記(15)に記載の情報処理装置。
(17)
前記時間制御部は、前記情報処理装置の消費電力を制御することで、前記時間の長さを制御する、前記(16)に記載の情報処理装置。
(18)
前記予測精度推定部は、前記時間が長いほど前記予測精度が低く、前記時間が短いほど前記予測精度が高いと推定する、前記(15)〜(17)のいずれか一項に記載の情報処理装置。
(19)
前記出力制御部は、予測された前記実オブジェクトの位置に対応する位置に、又は予測された前記実オブジェクトの姿勢に対応する姿勢で前記仮想オブジェクトを表示させるための情報を出力する、前記(1)〜(18)のいずれか一項に記載の情報処理装置。
(20)
前記表示部は、実空間にある前記実オブジェクトを透過しつつ前記仮想オブジェクトを表示する透過型の表示装置である、前記(1)〜(19)のいずれか一項に記載の情報処理装置。
(21)
前記表示部は、撮像された前記実オブジェクトをリアルタイムに表示しつつ前記仮想オブジェクトをさらに表示する非透過型の表示装置である、前記(1)〜(19)のいずれか一項に記載の情報処理装置。
(22)
実オブジェクトの位置又は姿勢の予測に係る予測精度をプロセッサにより推定することと、
前記予測精度の推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力することと、
を含む情報処理方法。
(23)
コンピュータを、
実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、
前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、
として機能させるためのプログラム。
100 実オブジェクト検知部
120 実オブジェクト認識部
140 実オブジェクト予測部
200 視点検知部
220 視点認識部
240 視点予測部
300 描画遅延検知部
400 視界内状態予測部
500 予測精度推定部
600 出力制御部
700 表示部
800 時間制御部
Claims (20)
- 実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、
前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、
を備え、
前記予測精度推定部は、前記予測精度が低いと判定された場合に、前記予測精度が低い要因を推定し、
前記出力制御部は、前記要因が視点の動きに起因するものである場合と、前記要因が視点の動きに起因するものではない場合とで、前記仮想オブジェクトの描画手法を異なる手法に切り替えて表示させるための情報を出力する、
情報処理装置。 - 前記出力制御部は、前記予測精度が高いほど対応する前記実オブジェクトとの関連性が高くなるよう前記仮想オブジェクトを表示させ、前記予測精度が低いほど対応する前記実オブジェクトとの関連性が低くなるよう前記仮想オブジェクトを表示させるための情報を出力する、請求項1に記載の情報処理装置。
- 前記出力制御部は、前記予測精度が低いほど前記仮想オブジェクトをぼかして表示させるための情報を出力する、請求項1に記載の情報処理装置。
- 前記出力制御部は、前記仮想オブジェクトにモーションブラーを付加して表示させるための情報を出力する、請求項3に記載の情報処理装置。
- 前記出力制御部は、前記仮想オブジェクトの外縁部ほど希薄に表示させるための情報を出力する、請求項3に記載の情報処理装置。
- 前記出力制御部は、前記予測精度に応じて前記仮想オブジェクトの大きさを変化させる、請求項2に記載の情報処理装置。
- 前記出力制御部は、前記予測精度に応じて前記仮想オブジェクトに適用する描画エフェクトを変化させる、請求項2に記載の情報処理装置。
- 前記出力制御部は、前記仮想オブジェクトの表示を前記予測精度が低い要因に応じた表示にさせるための情報を出力する、請求項1に記載の情報処理装置。
- 前記出力制御部は、前記要因が視点の動きに起因するものである場合、前記仮想オブジェクトを非表示にさせるための情報を出力する、請求項8に記載の情報処理装置。
- 前記出力制御部は、前記要因が前記実オブジェクトの動きに起因するものである場合、前記仮想オブジェクトにモーションブラーを付加して表示させるための情報を出力する、請求項8に記載の情報処理装置。
- 前記予測精度推定部は、前記位置又は姿勢の予測に用いられる対象物の、動きの大きさ又は規則性の少なくともいずれかに基づいて前記予測精度を推定する、請求項1に記載の情報処理装置。
- 前記対象物は、前記実オブジェクトである、請求項11に記載の情報処理装置。
- 前記対象物は、前記表示部である、請求項11に記載の情報処理装置。
- 前記対象物は、ユーザの眼である、請求項11に記載の情報処理装置。
- 前記位置又は姿勢の予測は、予測のための情報が検知される時点から前記仮想オブジェクトが表示される時点までの時間に係る予測である、請求項1に記載の情報処理装置。
- 前記予測精度に応じて前記時間の長さを制御する時間制御部をさらに備える、請求項15に記載の情報処理装置。
- 前記予測精度推定部は、前記時間が長いほど前記予測精度が低く、前記時間が短いほど前記予測精度が高いと推定する、請求項15に記載の情報処理装置。
- 前記出力制御部は、予測された前記実オブジェクトの位置に対応する位置に、又は予測された前記実オブジェクトの姿勢に対応する姿勢で前記仮想オブジェクトを表示させるための情報を出力する、請求項1に記載の情報処理装置。
- 実オブジェクトの位置又は姿勢の予測に係る予測精度をプロセッサにより推定することと、
前記予測精度の推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力することと、
を含み、
前記推定することは、前記予測精度が低いと判定された場合に、前記予測精度が低い要因を推定し、
前記出力することは、前記要因が視点の動きに起因するものである場合と、前記要因が視点の動きに起因するものではない場合とで、前記仮想オブジェクトの描画手法を異なる手法に切り替えて表示させるための情報を出力する、
情報処理方法。 - コンピュータを、
実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、
前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、
として機能させ、
前記予測精度推定部は、前記予測精度が低いと判定された場合に、前記予測精度が低い要因を推定し、
前記出力制御部は、前記要因が視点の動きに起因するものである場合と、前記要因が視点の動きに起因するものではない場合とで、前記仮想オブジェクトの描画手法を異なる手法に切り替えて表示させるための情報を出力する、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015182380 | 2015-09-16 | ||
JP2015182380 | 2015-09-16 | ||
PCT/JP2016/067709 WO2017047178A1 (ja) | 2015-09-16 | 2016-06-14 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017047178A1 JPWO2017047178A1 (ja) | 2018-07-05 |
JP6844542B2 true JP6844542B2 (ja) | 2021-03-17 |
Family
ID=58288617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017539717A Active JP6844542B2 (ja) | 2015-09-16 | 2016-06-14 | 情報処理装置、情報処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10977774B2 (ja) |
EP (1) | EP3352050A4 (ja) |
JP (1) | JP6844542B2 (ja) |
CN (1) | CN108027652B (ja) |
WO (1) | WO2017047178A1 (ja) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018225187A1 (ja) * | 2017-06-07 | 2018-12-13 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理装置、サーバ装置、画像提供方法および画像生成方法 |
WO2019026713A1 (ja) * | 2017-08-04 | 2019-02-07 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN110998674B (zh) | 2017-08-09 | 2023-11-24 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
JP6630322B2 (ja) * | 2017-08-30 | 2020-01-15 | シナノケンシ株式会社 | 映像解析方法 |
DE102017217923A1 (de) | 2017-10-09 | 2019-04-11 | Audi Ag | Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug |
US11263456B2 (en) | 2017-10-31 | 2022-03-01 | Sony Corporation | Virtual object repositioning versus motion of user and perceived or expected delay |
CN107918955A (zh) * | 2017-11-15 | 2018-04-17 | 百度在线网络技术(北京)有限公司 | 增强现实方法和装置 |
KR102521557B1 (ko) * | 2018-01-04 | 2023-04-14 | 삼성전자주식회사 | 스크롤 입력에 기반하여 이미지 표시를 제어하는 전자 장치 및 방법 |
CA3088248C (en) * | 2018-01-11 | 2022-10-04 | Nikon-Essilor Co., Ltd. | Image generating device, eyeglass lens selection system, method for image generation and program |
WO2019150781A1 (ja) * | 2018-01-30 | 2019-08-08 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
DE102018201661A1 (de) * | 2018-02-05 | 2019-08-08 | Audi Ag | Verfahren zum Überlagern eines virtuellen graphischen Objekts über eine reale Umgebung mittels einer AR-Anzeigeeinrichtung für Augmented-Reality sowie Kraftfahrzeug |
EP3751422A4 (en) * | 2018-02-07 | 2021-04-21 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
JP2019179966A (ja) * | 2018-03-30 | 2019-10-17 | ソニー株式会社 | 情報処理装置、情報処理方法、および、プログラム |
US11378805B2 (en) | 2018-06-25 | 2022-07-05 | Maxell, Ltd. | Head-mounted display, head-mounted display linking system, and method for same |
CN112513944A (zh) * | 2018-07-23 | 2021-03-16 | 奇跃公司 | 用于头部姿势预测的深度预测器循环神经网络 |
JP2021182174A (ja) * | 2018-08-07 | 2021-11-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN112585673A (zh) * | 2018-08-29 | 2021-03-30 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
JP7418075B2 (ja) | 2018-09-18 | 2024-01-19 | キヤノン株式会社 | 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム |
US11048465B2 (en) | 2018-09-18 | 2021-06-29 | Canon Kabushiki Kaisha | Imaging display device, wearable device, and imaging display system |
JP7093418B2 (ja) | 2018-09-20 | 2022-06-29 | 富士フイルム株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
WO2020071029A1 (ja) | 2018-10-04 | 2020-04-09 | ソニー株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
JP7175715B2 (ja) * | 2018-10-31 | 2022-11-21 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10812771B1 (en) * | 2019-06-12 | 2020-10-20 | At&T Intellectual Property I, L.P. | Methods, systems, and devices for adjusting image content for streaming panoramic video content |
US10699124B1 (en) * | 2019-09-09 | 2020-06-30 | Ar, Llc | Augmented reality content selection and display based on printed objects having security features |
US11961294B2 (en) | 2019-09-09 | 2024-04-16 | Techinvest Company Limited | Augmented, virtual and mixed-reality content selection and display |
DE112021003465T5 (de) | 2020-06-30 | 2023-05-17 | Sony Group Corporation | Informationsprozessor, informationsverarbeitungsverfahren und speichermedium |
EP4207088A4 (en) * | 2020-10-07 | 2024-03-06 | Samsung Electronics Co., Ltd. | AUGMENTED REALITY DISPLAY METHOD AND ELECTRONIC DEVICE FOR USING IT |
CN112687222B (zh) * | 2020-12-28 | 2021-12-17 | 北京大学 | 基于脉冲信号的显示方法、装置、电子设备及介质 |
JP2022123692A (ja) * | 2021-02-12 | 2022-08-24 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、画像処理システム |
CN116964637A (zh) * | 2021-03-08 | 2023-10-27 | 索尼集团公司 | 信息处理装置、信息处理方法、程序和信息处理系统 |
WO2022241701A1 (zh) * | 2021-05-20 | 2022-11-24 | 华为技术有限公司 | 一种图像处理方法及装置 |
US11960345B2 (en) * | 2021-05-25 | 2024-04-16 | Samsung Electronics Co., Ltd. | System and method for controlling operational modes for XR devices for performance optimization |
EP4369177A1 (en) * | 2021-07-31 | 2024-05-15 | Huawei Technologies Co., Ltd. | Display method, device and system |
US11759711B2 (en) * | 2021-09-28 | 2023-09-19 | Sony Group Corporation | Method for quasi-random placement of virtual items in an extended reality (XR) space |
WO2023140110A1 (ja) * | 2022-01-20 | 2023-07-27 | ソニーグループ株式会社 | 端末装置、位置姿勢推定方法、およびプログラム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3218730B2 (ja) * | 1992-10-19 | 2001-10-15 | 株式会社ニコン | 予測機能を有する焦点調節装置 |
JP3745117B2 (ja) * | 1998-05-08 | 2006-02-15 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
CN100478849C (zh) * | 2007-04-10 | 2009-04-15 | 南京航空航天大学 | 基于多加速度传感器的虚拟现实头盔防眩晕系统及方法 |
JP5047090B2 (ja) * | 2008-07-31 | 2012-10-10 | キヤノン株式会社 | システム |
JP5091976B2 (ja) | 2010-04-09 | 2012-12-05 | 株式会社東芝 | 映像表示装置、映像表示方法及び映像表示プログラム |
JP2011258159A (ja) | 2010-06-11 | 2011-12-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US9348141B2 (en) * | 2010-10-27 | 2016-05-24 | Microsoft Technology Licensing, Llc | Low-latency fusing of virtual and real content |
JP5732988B2 (ja) | 2011-04-08 | 2015-06-10 | ソニー株式会社 | 画像処理装置、表示制御方法及びプログラム |
KR101896026B1 (ko) * | 2011-11-08 | 2018-09-07 | 삼성전자주식회사 | 휴대 단말기에서 움직임 블러를 생성하는 장치 및 방법 |
US20140176591A1 (en) * | 2012-12-26 | 2014-06-26 | Georg Klein | Low-latency fusing of color image data |
US9618749B2 (en) * | 2013-08-30 | 2017-04-11 | Intel Corporation | Nausea and seizure detection, prediction, and mitigation for head-mounted displays |
US9607409B2 (en) * | 2013-12-23 | 2017-03-28 | Empire Technology Development Llc | Suppression of real features in see-through display |
US10565925B2 (en) * | 2014-02-07 | 2020-02-18 | Samsung Electronics Co., Ltd. | Full color display with intrinsic transparency |
JP2015228050A (ja) * | 2014-05-30 | 2015-12-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
CN104539929B (zh) * | 2015-01-20 | 2016-12-07 | 深圳威阿科技有限公司 | 带有运动预测的立体图像编码方法和编码装置 |
KR101919077B1 (ko) * | 2017-08-24 | 2018-11-16 | 에스케이텔레콤 주식회사 | 증강 현실 표시 방법 및 장치 |
US10425593B2 (en) * | 2017-10-19 | 2019-09-24 | Paypal, Inc. | Digital image filtering and post-capture processing using user specific data |
US10375313B1 (en) * | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US10482583B1 (en) * | 2018-05-10 | 2019-11-19 | Google Llc | Generating and displaying blur in images |
-
2016
- 2016-06-14 EP EP16846051.7A patent/EP3352050A4/en not_active Withdrawn
- 2016-06-14 JP JP2017539717A patent/JP6844542B2/ja active Active
- 2016-06-14 CN CN201680052515.3A patent/CN108027652B/zh active Active
- 2016-06-14 US US15/752,312 patent/US10977774B2/en active Active
- 2016-06-14 WO PCT/JP2016/067709 patent/WO2017047178A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP3352050A1 (en) | 2018-07-25 |
US20180240220A1 (en) | 2018-08-23 |
EP3352050A4 (en) | 2019-05-22 |
CN108027652A (zh) | 2018-05-11 |
US10977774B2 (en) | 2021-04-13 |
JPWO2017047178A1 (ja) | 2018-07-05 |
WO2017047178A1 (ja) | 2017-03-23 |
CN108027652B (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6844542B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11288807B2 (en) | Method, electronic device and storage medium for segmenting image | |
JP6780642B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN108700982B (zh) | 信息处理设备、信息处理方法以及程序 | |
WO2016157677A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN112334869A (zh) | 电子设备及其控制方法 | |
KR101920983B1 (ko) | 헤드 마운트형 디스플레이 상에서의 정보의 디스플레이 | |
US11244496B2 (en) | Information processing device and information processing method | |
JP2014526157A (ja) | ヘッドマウントディスプレイの全視野の分類 | |
WO2021147465A1 (zh) | 一种图像渲染方法、电子设备及系统 | |
JP2024503881A (ja) | コンテキストアウェアエクステンデッドリアリティシステム | |
US11907420B2 (en) | Managing devices having additive displays | |
US20220189433A1 (en) | Application programming interface for setting the prominence of user interface elements | |
JP2017182247A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7400721B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11366318B2 (en) | Electronic device and control method thereof | |
US20240219998A1 (en) | Method And Device For Dynamic Sensory And Input Modes Based On Contextual State | |
US20240112303A1 (en) | Context-Based Selection of Perspective Correction Operations | |
US20240023830A1 (en) | Method and Device for Tiered Posture Awareness | |
JP7400810B2 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
WO2023009318A1 (en) | Method and device for enabling input modes based on contextual state |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190521 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190521 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210208 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6844542 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |