JPWO2019031015A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2019031015A1 JPWO2019031015A1 JP2019535607A JP2019535607A JPWO2019031015A1 JP WO2019031015 A1 JPWO2019031015 A1 JP WO2019031015A1 JP 2019535607 A JP2019535607 A JP 2019535607A JP 2019535607 A JP2019535607 A JP 2019535607A JP WO2019031015 A1 JPWO2019031015 A1 JP WO2019031015A1
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- information
- display
- boundary
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 109
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 230000014509 gene expression Effects 0.000 claims abstract description 106
- 230000000873 masking effect Effects 0.000 claims abstract description 24
- 230000033001 locomotion Effects 0.000 claims description 138
- 238000012545 processing Methods 0.000 claims description 125
- 230000000694 effects Effects 0.000 claims description 108
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 abstract description 45
- 230000008859 change Effects 0.000 description 34
- 238000000034 method Methods 0.000 description 34
- 230000004048 modification Effects 0.000 description 33
- 238000012986 modification Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 20
- 239000013256 coordination polymer Substances 0.000 description 16
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 12
- 230000003993 interaction Effects 0.000 description 12
- 239000004179 indigotine Substances 0.000 description 8
- 230000009467 reduction Effects 0.000 description 8
- 238000009877 rendering Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 239000004411 aluminium Substances 0.000 description 4
- 239000004161 brilliant blue FCF Substances 0.000 description 4
- 239000001679 citrus red 2 Substances 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 239000004236 Ponceau SX Substances 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101100501135 Escherichia coli O157:H7 ehaG gene Proteins 0.000 description 2
- 239000004176 azorubin Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 239000004407 iron oxides and hydroxides Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 239000004175 ponceau 4R Substances 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 239000004408 titanium dioxide Substances 0.000 description 2
- 206010013082 Discomfort Diseases 0.000 description 1
- 229910003798 SPO2 Inorganic materials 0.000 description 1
- 101100478210 Schizosaccharomyces pombe (strain 972 / ATCC 24843) spo2 gene Proteins 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
<<1.第1の実施形態>>
<1−1.概要>
<1−2.構成>
<1−3.動作>
<1−4.境界表現の具体例>
<1−5.変形例>
<1−6.効果>
<<2.第2の実施形態>>
<2−1.概要>
<2−2.構成>
<2−3.動作>
<2−4.変形例>
<2−5.補足>
<<3.ハードウェア構成例>>
<<4.むすび>>
<1−1.概要>
まず、本開示の第1の実施形態による情報処理装置の概要について説明する。図1は、本実施形態による情報処理装置1の概要を説明する図である。図1に示すように、本実施形態による情報処理装置1は、例えばユーザUの頭部に装着されるメガネ型のヘッドマウントディスプレイ(HMD:Head Mounted Display)により実現される。装着時にユーザUの眼前に位置するメガネレンズ部分に相当する表示部13は、透過型または非透過型であってもよい。ここで述べる透過型の表示部13は、光学的透過性を有する表示部として定義される。情報処理装置1は、表示部13に仮想物体を表示することで、ユーザUの視界内に仮想物体を提示することができる。また、情報処理装置1の一例であるHMDは、両眼に画像を提示するものに限定されず、片眼のみに画像を提示するものであってもよい。例えばHMDは、片方の眼に画像を提示する表示部13が設けられた片目タイプのものであってもよい。
図6は、本実施形態に係る情報処理装置1の構成例を示すブロック図である。図6に示すように、情報処理装置1は、センサ部11、制御部12、表示部13、スピーカー14、通信部15、操作入力部16、および記憶部17を有する。
センサ部11は、ユーザまたは周辺環境に関する各種情報を取得(センシング)する機能を有する。例えばセンサ部11は、外向きカメラ110、内向きカメラ111、マイク112、ジャイロセンサ113、加速度センサ114、方位センサ115、位置測位部116、および生体センサ117を含む。なおここで挙げるセンサ部11の具体例は一例であって、本実施形態はこれに限定されない。また、各センサはそれぞれ複数であってもよい。
制御部12は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。また、本実施形態による制御部12は、図6に示すように、認識部120、及び表示制御部127として機能する。
図6に戻って説明を続ける。表示部13は、例えばホログラム光学技術を用いて表示を行うレンズ部(透過型表示部の一例)、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等により実現される。また、表示部13は、透過型、半透過型、または非透過型であってもよい。
スピーカー14は、制御部12の制御に従って、音声信号を再生する。
通信部15は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。通信部15は、例えば有線LAN(Local Area Network)、無線LAN、Wi−Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して無線通信する。
操作入力部16は、スイッチ、ボタン、またはレバー等の物理的な構造を有する操作部材により実現される。
記憶部17は、上述した制御部12が各機能を実行するためのプログラムやパラメータを記憶する。例えば記憶部17には、表示制御部127が表示させる仮想物体に関する情報が記憶されていてもよい。
以上、本実施形態に係る情報処理装置1の構成例について説明した。続いて、本実施形態に係る情報処理装置1の動作例について図11を参照して説明する。図11は、本実施形態に係る情報処理装置1の動作例を示すフローチャート図である。
続いて、境界表現の幾つかの具体例について、図12〜図23を参照して説明を行う。
境界表現の第1の具体例として、表示制御部127が、認識情報(認識精度の情報、または移動速度の情報)に応じて、遮蔽領域を拡縮(拡張、または縮小)することで、境界表現を異ならせる例について説明する。図12〜図15は、境界表現の第1の具体例を説明するための説明図である。
境界表現の第2の具体例として、表示制御部127が、認識情報(認識精度の情報、または移動速度の情報)に応じて、遮蔽に係る境界の近傍に、エフェクトが付加(重畳)されるように表示を制御することで、境界表現を異ならせる例について説明する。なお、遮蔽に係る境界の近傍とは、例えば図2等を参照して説明した遮蔽領域と仮想物体領域との境界の近傍であってもよい。また、遮蔽に係る境界の近傍とは、図8、図9を参照して説明した遮蔽モデルの輪郭部分や、遮蔽モデル領域と仮想物体領域との境界の近傍であってもよい。
以上、図16〜図22を参照して、境界表現の第2の具体例について説明した。続いて、境界表現の第3の具体例として、表示制御部127が、認識情報(認識精度の情報、または移動速度の情報)に応じて、異なる視認性を有するように仮想物体の表示を制御することで、境界表現を異ならせる例について説明する。
以上、本開示の第1の実施形態を説明した。以下では、本実施形態の幾つかの変形例を説明する。なお、以下に説明する変形例は、単独で本実施形態に適用されてもよいし、組み合わせで本実施形態に適用されてもよい。また、各変形例は、本実施形態で説明した構成に代えて適用されてもよいし、本実施形態で説明した構成に対して追加的に適用されてもよい。
上述した境界表現の第3の具体例は、ユーザが実物体を用いて仮想物体に対する操作を行う場合に特に有効となり得る。例えば、手や指等の実物体を用いて、ボタン(仮想物体)を押す操作や、文字列(仮想物体)を選択する操作等は、細かい操作となり得るため、遮蔽領域が拡張されたり、エフェクトにより、本来見えるべき仮想物体の一部が見えなくなってしまうと操作に支障が発生し得る。一方、上記のような視認性を低下させる表示制御が行われた場合には、視認性は低下するものの、本来見えるべき仮想物体を見ることが可能であるため、操作への影響が小さい。
また、上述した境界表現の第3の具体例のうちの一部は、仮想物体に係るコンテンツによっては、適用が困難である場合がある。そこで、表示制御部127は、仮想物体に係るコンテンツ情報にさらに応じて、境界表現が異なるように表示を制御してもよい。
また、表示制御部127は、認識精度の情報に基づいて、仮想物体の配置(位置、姿勢、大きさ等)を制御してもよい。図24は、表示制御部127が認識精度の情報に基づいて、仮想物体の配置を制御する変形例を説明するための説明図である。
また、上述した境界表現の第2の具体例では、表示制御部127は、遮蔽に係る境界の近傍にエフェクトを付加する例を説明したが、本実施形態は係る例に限定されない。例えば、表示制御部127は、認識情報に応じて、遮蔽に係る遮蔽領域の内部にエフェクトが付加されるように表示を制御してもよい。図25、図26は、表示制御部127が認識情報に応じて、遮蔽に係る遮蔽領域の内部にエフェクトが付加されるように表示を制御する変形例を説明するための説明図である。
以上、本開示の第1の実施形態について説明した。本実施形態によれば、実物体のセンシングに基づく認識に係る認識情報に応じて、仮想物体と前記実物体との間の境界表現が異なるように表示を制御することで、ユーザに与える違和感を軽減することが可能である。
<2−1.概要>
続いて、本開示の第2の実施形態について説明する。なお、第2の実施形態は、一部において第1の実施形態と同様であるため、適宜省略しながら説明する。以下、第1の実施形態で説明した構成と同様の構成については、同一の符号を付すことで、説明を省略する。
図29は、本開示の第2の実施形態に係る情報処理装置1−2の構成例を示すブロック図である。図29に示した構成のうち、図6に示した構成と同一の符号を付された構成は、図6に示した構成と同様であるため、説明を省略する。図29に示すように、本実施形態に係る情報処理装置1−2は、制御部12−2の機能が図2に示した制御部12と一部異なる点で、第1の実施形態に係る情報処理装置1と異なる。
以上、本実施形態に係る情報処理装置1の構成例について説明した。続いて、本実施形態に係る動作例について説明する。以下では、まず図31、図32を参照して、形状認識に係る処理負荷、及び描画に係る処理負荷が軽減されない場合の動作の例を比較例として説明する。
以上、本開示の第2の実施形態を説明した。以下では、本実施形態の幾つかの変形例を説明する。なお、以下に説明する変形例は、単独で本実施形態に適用されてもよいし、組み合わせで本実施形態に適用されてもよい。また、各変形例は、本実施形態で説明した構成に代えて適用されてもよいし、本実施形態で説明した構成に対して追加的に適用されてもよい。
上記では、形状認識部124が、実物体の3次元形状を形状認識結果として認識する例を説明した。しかし、本実施形態は係る例に限定されない。例えば、形状認識部124は、所定の形状を有し、実物体の形状の近似となる近似モデルを形状認識結果として認識してもよい。例えば、所定の形状は直方体や楕円体、円柱等であってもよい。また、近似モデルとして実物体の形状を覆うような3次元モデルが認識されてもよい。また、係る場合、移動変形部126は、記憶された近似モデルを記憶された形状認識結果として用いて、近似モデルの移動、及び変形により、形状認識結果である遮蔽モデルを取得してもよい。
上記では、形状認識結果が再利用される例を説明したが、本実施形態は係る例に限定されない。遮蔽モデルの描画結果が再利用されてもよい。以下、係る変形例について、図36〜図42を参照して説明を行う。
なお、上記実施形態では、描画を行う前にポリゴン数を削減することで、描画に係る処理負荷を軽減する例を説明したが、本実施形態は係る例に限定されない。例えば、形状認識部124がデプスマップに基づいて形状認識を行う場合、移動速度に応じて、形状認識部124が形状認識を行う前に当該デプスマップが低解像度化されてもよい。
以上、本開示の第2の実施形態について説明した。本実施形態によれば、移動情報に応じて、形状認識に係る処理負荷、及び描画に係る処理負荷を変化させることで、実物体の移動の影響を抑制し、ユーザに与える違和感を軽減させることが可能である。
以上、本開示の実施形態を説明した。最後に、図45を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図45は、本開示の実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図45に示す情報処理装置900は、例えば、情報処理装置1、情報処理装置1−2を実現し得る。本実施形態に係る情報処理装置1、情報処理装置1−2による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
以上説明したように、本開示の実施形態によれば、ユーザに与える違和感を軽減することが可能である。
(1)
実物体のセンシングに基づく認識に係る認識情報が第1の認識情報を含む場合、仮想物体の前記実物体による遮蔽を示す遮蔽表示を、前記仮想物体と前記実物体との間の境界または前記境界の近傍位置において、第1の境界表現を示すように制御し、前記認識情報が前記第1の認識情報とは異なる第2の認識情報を含む場合、前記遮蔽表示を、前記境界または前記境界の近傍位置において、前記第1の境界表現とは異なる第2の境界表現を示すように制御する表示制御部を備える情報処理装置。
(2)
前記表示制御部は、前記実物体のセンシングに基づく形状認識により得られた形状情報を用いて、前記遮蔽表示を制御する、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記第1の認識情報に応じて、前記遮蔽に係る遮蔽領域が第1の大きさを有するように前記遮蔽表示を制御し、前記第2の認識情報に応じて、前記遮蔽領域が、前記第1の大きさとは異なる第2の大きさを有するように前記遮蔽表示を制御する、前記(1)に記載の情報処理装置。
(4)
前記表示制御部は、前記認識情報が前記第1の認識情報を含む場合、前記遮蔽領域のうち前記認識情報に含まれる位置情報に応じた領域が前記第1の大きさを有するように前記遮蔽表示を制御し、前記認識情報が前記第2の認識情報を含む場合、前記遮蔽領域のうち前記位置情報に応じた領域が前記第2の大きさを有するように前記遮蔽表示を制御する、前記(3)に記載の情報処理装置。
(5)
前記表示制御部は、前記認識情報に応じて、前記境界の近傍位置に、エフェクト表示が付加されるように前記遮蔽表示を制御する、前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記表示制御部は、前記認識情報に応じて、前記遮蔽に係る遮蔽領域の内部にエフェクト表示が付加されるように前記遮蔽表示を制御する、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記表示制御部は、前記実物体が前記仮想物体と衝突するように表示を制御する場合に、前記実物体と前記仮想物体との衝突に係る境界の近傍に、エフェクト表示が付加されるように前記遮蔽表示を制御する、前記(1)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記表示制御部は、前記認識情報に含まれる位置情報に応じた位置に前記エフェクト表示が付加されるように前記遮蔽表示を制御する、前記(5)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記表示制御部は、前記認識情報が前記第1の認識情報を含む場合、前記認識情報が前記第2の認識情報を含む場合とは異なる強度を有するように前記エフェクト表示を制御する、前記(5)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記表示制御部は、前記認識情報が前記第1の認識情報を含む場合、前記認識情報が前記第2の認識情報を含む場合とは異なる視認性を有するように前記仮想物体の表示を制御する、前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記表示制御部は、前記仮想物体が前記実物体により操作可能な仮想物体である場合、前記第1の境界表現と前記第2の境界表現のうち、前記仮想物体の表示領域がより大きい境界表現を示すように前記遮蔽表示を制御する、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記表示制御部は、前記仮想物体が3次元形状を有するか否かに応じて、前記遮蔽表示を制御する、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記実物体のセンシングに基づく前記実物体の移動認識と、前記形状認識とを行う認識部をさらに備え、
前記移動認識により前記実物体の移動速度が第1の移動速度であるという移動情報が得られた場合、前記実物体の移動速度が前記第1の移動速度よりも小さい第2の移動速度であるという移動情報が得られた場合よりも、前記認識部が行う前記形状認識に係る処理負荷、及び前記表示制御部が行う描画に係る処理負荷のうち少なくともいずれか一方が減少される、前記(2)に記載の情報処理装置。
(14)
前記認識部は、前記実物体の移動速度が前記第1の移動速度である場合に、前記形状認識を行わない、前記(13)に記載の情報処理装置。
(15)
前記表示制御部は、前記実物体の移動速度が前記第1の移動速度である場合に、前記表示制御部が以前に行った前記描画の結果を用いて前記描画を行う、前記(13)または(14)に記載の情報処理装置。
(16)
前記認識情報は、前記認識に係る認識精度の情報を含む、前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記認識情報は、前記実物体のセンシングに基づいて認識される前記実物体の移動速度の情報を含む、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記表示制御部は、光学的透過性を有する表示部による表示を制御する、前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
実物体のセンシングに基づく認識に係る認識情報が第1の認識情報を含む場合、仮想物体の前記実物体による遮蔽を示す遮蔽表示を、前記仮想物体と前記実物体との間の境界または前記境界の近傍位置において、第1の境界表現を示すように制御し、前記認識情報が前記第1の認識情報とは異なる第2の認識情報を含む場合、前記遮蔽表示を、前記境界または前記境界の近傍位置において、前記第1の境界表現とは異なる第2の境界表現を示すようにプロセッサが制御すること、を含む情報処理方法。
(20)
コンピュータに、
実物体のセンシングに基づく認識に係る認識情報が第1の認識情報を含む場合、仮想物体の前記実物体による遮蔽を示す遮蔽表示を、前記仮想物体と前記実物体との間の境界または前記境界の近傍位置において、第1の境界表現を示すように制御し、前記認識情報が前記第1の認識情報とは異なる第2の認識情報を含む場合、前記遮蔽表示を、前記境界または前記境界の近傍位置において、前記第1の境界表現とは異なる第2の境界表現を示すように制御する機能を実現させるための、プログラム。
11 センサ部
12、12−2 制御部
13 表示部
14 スピーカー
15 通信部
16 操作入力部
17 記憶部
110 外向きカメラ
111 内向きカメラ
112 マイク
113 ジャイロセンサ
114 加速度センサ
115 方位センサ
116 位置測位部
117 生体センサ
120、120−2 認識部
121、122 移動認識部
123、124 形状認識部
125 精度情報取得部
126 移動変形部
127、128 表示制御部
Claims (20)
- 実物体のセンシングに基づく認識に係る認識情報が第1の認識情報を含む場合、仮想物体の前記実物体による遮蔽を示す遮蔽表示を、前記仮想物体と前記実物体との間の境界または前記境界の近傍位置において、第1の境界表現を示すように制御し、前記認識情報が前記第1の認識情報とは異なる第2の認識情報を含む場合、前記遮蔽表示を、前記境界または前記境界の近傍位置において、前記第1の境界表現とは異なる第2の境界表現を示すように制御する表示制御部を備える情報処理装置。
- 前記表示制御部は、前記実物体のセンシングに基づく形状認識により得られた形状情報を用いて、前記遮蔽表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記第1の認識情報に応じて、前記遮蔽に係る遮蔽領域が第1の大きさを有するように前記遮蔽表示を制御し、前記第2の認識情報に応じて、前記遮蔽領域が、前記第1の大きさとは異なる第2の大きさを有するように前記遮蔽表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記認識情報が前記第1の認識情報を含む場合、前記遮蔽領域のうち前記認識情報に含まれる位置情報に応じた領域が前記第1の大きさを有するように前記遮蔽表示を制御し、前記認識情報が前記第2の認識情報を含む場合、前記遮蔽領域のうち前記位置情報に応じた領域が前記第2の大きさを有するように前記遮蔽表示を制御する、請求項3に記載の情報処理装置。
- 前記表示制御部は、前記認識情報に応じて、前記境界の近傍位置に、エフェクト表示が付加されるように前記遮蔽表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記認識情報に応じて、前記遮蔽に係る遮蔽領域の内部にエフェクト表示が付加されるように前記遮蔽表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記実物体が前記仮想物体と衝突するように表示を制御する場合に、前記実物体と前記仮想物体との衝突に係る境界の近傍に、エフェクト表示が付加されるように前記遮蔽表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記認識情報に含まれる位置情報に応じた位置に前記エフェクト表示が付加されるように前記遮蔽表示を制御する、請求項5に記載の情報処理装置。
- 前記表示制御部は、前記認識情報が前記第1の認識情報を含む場合、前記認識情報が前記第2の認識情報を含む場合とは異なる強度を有するように前記エフェクト表示を制御する、請求項5に記載の情報処理装置。
- 前記表示制御部は、前記認識情報が前記第1の認識情報を含む場合、前記認識情報が前記第2の認識情報を含む場合とは異なる視認性を有するように前記仮想物体の表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記仮想物体が前記実物体により操作可能な仮想物体である場合、前記第1の境界表現と前記第2の境界表現のうち、前記仮想物体の表示領域がより大きい境界表現を示すように前記遮蔽表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記仮想物体が3次元形状を有するか否かに応じて、前記遮蔽表示を制御する、請求項1に記載の情報処理装置。
- 前記実物体のセンシングに基づく前記実物体の移動認識と、前記形状認識とを行う認識部をさらに備え、
前記移動認識により前記実物体の移動速度が第1の移動速度であるという移動情報が得られた場合、前記実物体の移動速度が前記第1の移動速度よりも小さい第2の移動速度であるという移動情報が得られた場合よりも、前記認識部が行う前記形状認識に係る処理負荷、及び前記表示制御部が行う描画に係る処理負荷のうち少なくともいずれか一方が減少される、請求項2に記載の情報処理装置。 - 前記認識部は、前記実物体の移動速度が前記第1の移動速度である場合に、前記形状認識を行わない、請求項13に記載の情報処理装置。
- 前記表示制御部は、前記実物体の移動速度が前記第1の移動速度である場合に、前記表示制御部が以前に行った前記描画の結果を用いて前記描画を行う、請求項13に記載の情報処理装置。
- 前記認識情報は、前記認識に係る認識精度の情報を含む、請求項1に記載の情報処理装置。
- 前記認識情報は、前記実物体のセンシングに基づいて認識される前記実物体の移動速度の情報を含む、請求項1に記載の情報処理装置。
- 前記表示制御部は、光学的透過性を有する表示部による表示を制御する、請求項1に記載の情報処理装置。
- 実物体のセンシングに基づく認識に係る認識情報が第1の認識情報を含む場合、仮想物体の前記実物体による遮蔽を示す遮蔽表示を、前記仮想物体と前記実物体との間の境界または前記境界の近傍位置において、第1の境界表現を示すように制御し、前記認識情報が前記第1の認識情報とは異なる第2の認識情報を含む場合、前記遮蔽表示を、前記境界または前記境界の近傍位置において、前記第1の境界表現とは異なる第2の境界表現を示すようにプロセッサが制御すること、を含む情報処理方法。
- コンピュータに、
実物体のセンシングに基づく認識に係る認識情報が第1の認識情報を含む場合、仮想物体の前記実物体による遮蔽を示す遮蔽表示を、前記仮想物体と前記実物体との間の境界または前記境界の近傍位置において、第1の境界表現を示すように制御し、前記認識情報が前記第1の認識情報とは異なる第2の認識情報を含む場合、前記遮蔽表示を、前記境界または前記境界の近傍位置において、前記第1の境界表現とは異なる第2の境界表現を示すように制御する機能を実現させるための、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017154116 | 2017-08-09 | ||
JP2017154116 | 2017-08-09 | ||
PCT/JP2018/018785 WO2019031015A1 (ja) | 2017-08-09 | 2018-05-15 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019031015A1 true JPWO2019031015A1 (ja) | 2020-07-09 |
JP7222351B2 JP7222351B2 (ja) | 2023-02-15 |
Family
ID=65271369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019535607A Active JP7222351B2 (ja) | 2017-08-09 | 2018-05-15 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11288869B2 (ja) |
EP (1) | EP3667625A4 (ja) |
JP (1) | JP7222351B2 (ja) |
CN (1) | CN110998674B (ja) |
WO (1) | WO2019031015A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11245889B1 (en) | 2018-11-08 | 2022-02-08 | Tanzle, Inc. | Perspective based green screening |
WO2021117366A1 (ja) * | 2019-12-10 | 2021-06-17 | ソニーグループ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
US20230127539A1 (en) * | 2020-04-21 | 2023-04-27 | Sony Group Corporation | Information processing apparatus, information processing method, and information processing program |
US11676348B2 (en) * | 2021-06-02 | 2023-06-13 | Meta Platforms Technologies, Llc | Dynamic mixed reality content in virtual reality |
US11521361B1 (en) | 2021-07-01 | 2022-12-06 | Meta Platforms Technologies, Llc | Environment model with surfaces and per-surface volumes |
JP2023022415A (ja) * | 2021-08-03 | 2023-02-15 | 株式会社Subaru | 物体認識装置、コンピュータプログラム及び記録媒体 |
US12056268B2 (en) | 2021-08-17 | 2024-08-06 | Meta Platforms Technologies, Llc | Platformization of mixed reality objects in virtual reality environments |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US12093447B2 (en) | 2022-01-13 | 2024-09-17 | Meta Platforms Technologies, Llc | Ephemeral artificial reality experiences |
US12026527B2 (en) | 2022-05-10 | 2024-07-02 | Meta Platforms Technologies, Llc | World-controlled and application-controlled augments in an artificial-reality environment |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014106543A (ja) * | 2012-11-22 | 2014-06-09 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR115F (ja) | ||||
FR114F (ja) | 1963-08-06 | 1900-01-01 | ||
JP4789745B2 (ja) | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US9946076B2 (en) * | 2010-10-04 | 2018-04-17 | Gerard Dirk Smits | System and method for 3-D projection and enhancements for interactivity |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US9286711B2 (en) * | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Representing a location at a previous time period using an augmented reality display |
US9183676B2 (en) * | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
US9292085B2 (en) * | 2012-06-29 | 2016-03-22 | Microsoft Technology Licensing, Llc | Configuring an interaction zone within an augmented reality environment |
US10241638B2 (en) * | 2012-11-02 | 2019-03-26 | Atheer, Inc. | Method and apparatus for a three dimensional interface |
JP5900393B2 (ja) | 2013-03-21 | 2016-04-06 | ソニー株式会社 | 情報処理装置、操作制御方法及びプログラム |
US9286725B2 (en) * | 2013-11-14 | 2016-03-15 | Nintendo Co., Ltd. | Visually convincing depiction of object interactions in augmented reality images |
CN105814611B (zh) | 2013-12-17 | 2020-08-18 | 索尼公司 | 信息处理设备和方法以及非易失性计算机可读存储介质 |
WO2015173344A1 (en) | 2014-05-15 | 2015-11-19 | Showme Telepresence Aps | Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor |
US10977774B2 (en) | 2015-09-16 | 2021-04-13 | Sony Corporation | Information processing apparatus, information processing method, and program for estimating prediction accuracy |
KR102559625B1 (ko) * | 2016-01-25 | 2023-07-26 | 삼성전자주식회사 | 증강 현실 출력 방법 및 이를 지원하는 전자 장치 |
KR20230133940A (ko) * | 2016-07-25 | 2023-09-19 | 매직 립, 인코포레이티드 | 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화 |
WO2018064213A1 (en) * | 2016-09-27 | 2018-04-05 | Duke University | Systems and methods for using sensing of real object position, trajectory, or attitude to enable user interaction with a virtual object |
US10410422B2 (en) * | 2017-01-09 | 2019-09-10 | Samsung Electronics Co., Ltd. | System and method for augmented reality control |
-
2018
- 2018-05-15 CN CN201880050503.6A patent/CN110998674B/zh active Active
- 2018-05-15 WO PCT/JP2018/018785 patent/WO2019031015A1/ja unknown
- 2018-05-15 JP JP2019535607A patent/JP7222351B2/ja active Active
- 2018-05-15 EP EP18844770.0A patent/EP3667625A4/en active Pending
- 2018-05-15 US US16/635,585 patent/US11288869B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014106543A (ja) * | 2012-11-22 | 2014-06-09 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110998674B (zh) | 2023-11-24 |
CN110998674A (zh) | 2020-04-10 |
US20200242842A1 (en) | 2020-07-30 |
EP3667625A4 (en) | 2020-08-12 |
JP7222351B2 (ja) | 2023-02-15 |
WO2019031015A1 (ja) | 2019-02-14 |
US11288869B2 (en) | 2022-03-29 |
EP3667625A1 (en) | 2020-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7222351B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US12008151B2 (en) | Tracking and drift correction | |
US20230186578A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
CN110413105B (zh) | 虚拟环境内的虚拟对象的有形可视化 | |
JP7036879B2 (ja) | 仮想画像生成システムにおけるテキストをより効率的に表示するための技法 | |
CN110506249B (zh) | 信息处理设备、信息处理方法和记录介质 | |
US11733769B2 (en) | Presenting avatars in three-dimensional environments | |
JP2019053423A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2021147465A1 (zh) | 一种图像渲染方法、电子设备及系统 | |
JPWO2020039568A1 (ja) | 画像生成装置および画像生成方法 | |
CN112116716A (zh) | 基于检测到的对象来定位的虚拟内容 | |
US20230171484A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
CN111507889A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
JP7400721B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111507890A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
WO2019171802A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20200031098A (ko) | 정보 처리 장치, 정보 처리 방법 및 프로그램 | |
WO2020071144A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
EP4296826A1 (en) | Hand-gesture activation of actionable items | |
US11908090B2 (en) | Information processing device, information processing method, and program | |
US20240112303A1 (en) | Context-Based Selection of Perspective Correction Operations | |
WO2022269753A1 (ja) | 情報処理システム、情報処理装置及び画像表示装置 | |
JP2017009916A (ja) | 映像表示装置、映像表示方法、およびプログラム | |
CN116157766A (zh) | 具有基于观看者位置的音频的视觉内容呈现 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7222351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |