JP2019152794A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2019152794A
JP2019152794A JP2018038837A JP2018038837A JP2019152794A JP 2019152794 A JP2019152794 A JP 2019152794A JP 2018038837 A JP2018038837 A JP 2018038837A JP 2018038837 A JP2018038837 A JP 2018038837A JP 2019152794 A JP2019152794 A JP 2019152794A
Authority
JP
Japan
Prior art keywords
dimming
user
information processing
display
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018038837A
Other languages
English (en)
Inventor
翼 塚原
Tsubasa Tsukahara
翼 塚原
満 西部
Mitsuru Nishibe
満 西部
高橋 慧
Kei Takahashi
高橋  慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018038837A priority Critical patent/JP2019152794A/ja
Priority to PCT/JP2019/002072 priority patent/WO2019171802A1/ja
Publication of JP2019152794A publication Critical patent/JP2019152794A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Abstract

【課題】ユーザの視野領域における調光制御をより柔軟に行うことが可能となる。【解決手段】実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成する調光制御部と、前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御する表示制御部と、を備え、情報処理装置が提供される。【選択図】図2

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、情報処理技術に伴い、仮想現実(VR:Virtual Reality)および拡張現実(AR:Augmented Reality)等の表示制御技術が様々な装置、システムまたはサービス等に用いられている。
例えば、以下の特許文献1には、ディスプレイが表示する外界の映像をユーザに視覚させる状態と、眼前の外界をユーザに直接視覚させる状態とを切り替える技術が開示されている。
特開2016−197816号公報
しかし、ユーザの視野領域における調光制御について依然として改善の余地がある。例えば、特許文献1に記載の技術では、視野領域の一部分に対する調光を行うことが十分に考慮されていない。
そこで、本開示は、上記に鑑みてなされたものであり、本開示は、ユーザの視野領域における調光制御をより柔軟に行うことが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提供する。
本開示によれば、実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成する調光制御部と、前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御する表示制御部と、を備え、情報処理装置が提供される。
また、本開示によれば、実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成することと、前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、を有し、前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、を有する、コンピュータにより実行される情報処理方法が提供される。
また、本開示によれば、実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成することと、前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、をコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザの視野領域における調光制御をより柔軟に行うことが可能になる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係る情報処理装置の概要を説明する図である。 視野領域の一部に入射する光量の調節により実世界の物体の遮蔽を行うことができる原理を説明する図である。 ユーザの視野領域における実世界と仮想世界を徐々に切り替える一例を示す図である。 情報処理装置の機能構成の一例を示すブロック図である。 情報処理装置が実世界から仮想世界への切り替えを行う動作の一例を示すフローチャートである。 VR通話の使用イメージの一例を示す図である。 VR通話において、あるユーザの視野領域に進入した他のユーザの遮蔽を行う方法の一例を示す図である。 情報処理装置のハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の一実施形態の概要
2.装置の機能構成
3.装置の動作
4.VR通話アプリケーションへの適用
5.装置のハードウェア構成
6.むすび
<1.本開示の一実施形態の概要>
まず、本開示の一実施形態の概要について説明する。
図1は、本実施形態に係る情報処理装置100の概要を説明する図である。図1に示すように、本実施形態に係る情報処理装置100は、例えばユーザの頭部に装着されるヘッドマウントディスプレイ(HMD:Head Mounted Display)により実現されるが、これに限定されない。例えば、ヘッドマウントディスプレイは、メガネ型であってもよい。なお、情報処理装置100は、ヘッドマウントディスプレイの表示を制御する少なくとも1つのプロセッサであってもよい。あるいは、ヘッドマウントディスプレイに内蔵された、プロセッサとIMU(Inertial Measurement Unit)を含むモジュールであってもよい。
情報処理装置100には、装着時にユーザの視線方向、すなわち外方向を撮影する外向きカメラ131が設けられている。さらに、図1に図示しないが、情報処理装置100には、装着時にユーザの眼を撮影する内向きカメラやマイクロホン(以降、「マイク」と呼称する)等の各種センサが設けられている。外向きカメラ131、および内向きカメラは、それぞれ複数設けられていてもよい。なお外向きカメラ131によりデプスマップ(距離画像)を得ることができ、周囲の環境をセンシングすることが可能である。
なお情報処理装置100の形状は図1に示す例に限定されない。例えば情報処理装置100は、ヘッドバンド型(頭部の全周を回るバンドで装着されるタイプ。また、側頭部だけでなく頭頂部を通るバンドが設ける場合もある)のHMDや、ヘルメットタイプ(ヘルメットのバイザー部分がディスプレイに相当する)のHMDであってもよい。
本開示に係る情報処理装置100は、ユーザの視野領域の一部に入射する光(入射光)の量を、例えば後述の調光素子を用いて調節することで、実世界の物体(実物体)の遮蔽を行う。そして、情報処理装置100は、当該遮蔽を行った視野領域に任意の画像(第1の画像)が映るように表示制御を行う。以下、光量の調整を単に調光という場合がある。なお、本明細書において“遮蔽”とは、ユーザが実物体を視認することを、画像の表示以外によって妨げることと見做されてもよい。以下、“遮蔽を行う”ことを、単に“遮蔽する”という場合がある。ここで、一般的なAR表示装置は、実物体に対して重畳的に情報を表示することはできるが、実物体の遮蔽は行うことができないため視野領域を部分的に仮想世界に切り替えることはできない。一方、情報処理装置100は、上記の処理によって、視野領域を部分的に仮想世界に切り替えることができる。
ここで、図2を参照して、視野領域の一部の入射光の調光を行うことにより実世界の物体を遮蔽できる原理について説明する。図2に示すように、情報処理装置100は、調光部110と、AR表示部120と、を備えており、観察対象物(実物体)からの光が、調光部110、AR表示部120、ユーザの眼球という順に入射するように各構成が配置されている。ここで、“実物体から入射する光”とは、実物体が自発的に発した光や、実物体により反射された外光を含む。すなわち、“実物体から入射する光”は、ユーザが実物体を認識するための光と見做されてよい。また、AR表示部120が本開示における表示装置の少なくとも一部を構成すると見做されてよい。以降で、各構成の概要について説明していく。
調光部110は、部分的に調光を制御することができる調光素子(以降、「部分調光素子」と呼称する)を備えており、AR表示部120および眼球に入射する光を調光可能な部材である。より具体的には、調光部110は、図2に示すように、観察対象物からの光が入射する面において部分調光素子を制御することで、調光される領域10(以降、「調光領域10」と呼称する)と調光されない領域11(以降、「非調光領域11」と呼称する)を生成することができる。なお、非調光領域11は、調光領域10よりも相対的に調光が行われていない領域として見做されてよい。すなわち、非調光領域11は、所定量の入射光を不完全に透過させることで仮想物体の視認性が高められているとともに実空間が視認可能な領域も含み得る。なお、図2には、調光部110が格子状に配置された各領域の調光を制御できる場合を表しているが、これはあくまで一例であり、調光が制御される各領域の形状は任意である。
通常、観察対象物からの光が眼球に入射して網膜上に像を結ぶことで、ユーザは観察対象物を視認することができる。一方、本実施形態において、調光領域10に入射した光は、図2に示すように調光領域10を透過できず網膜上に像を結ぶことができないため(図2の点線部分参照)、ユーザは観察対象物を明瞭に視認することができない。図示していないが、仮に、観察対象物からの光が網膜に像を結ぶことが全くできないように調光領域10が形成された場合、ユーザは観察対象物を全く視認することができなくなる。
なお、観察対象物が完全に遮蔽されていなくても、例えば、周囲が明るい場合には、虹彩の働きによって瞳孔が縮小(縮瞳)することで網膜上に像を結ぶ光が減少するため、調光部110は効果的に観察対象物を遮蔽することができる。また、周囲が暗い場合には、後述するAR表示部120が周囲に比べて相対的に明るくなるため、やはり、調光部110は、効果的に観察対象物を遮蔽することができる。また、調光部110は、必要に応じて、視野領域を全体的に調光した上で、観察対象物からの光が入射する領域における調光の度合いをより強めることで観察対象物を効果的に遮蔽してもよい。また、AR表示部120および眼球に入射する光を調光することができるのであれば、調光部110の形状は任意である。
AR表示部120は、調光領域10に対応する領域に任意の画像を映すことができるディスプレイである。例えば、AR表示部120は、調光領域10に対応するディスプレイ領域に観察対象物とは全く異なる物体を表示することで、あたかも観察対象物が他の物体に置き換わったような印象をユーザに与えることができる。
また、情報処理装置100は、ユーザの視野領域において調光領域10から非調光領域11にわたってユーザが認識する像が実質的に連続するよう、調光領域10の画像の表示制御を行ってもよい。より具体的には、AR表示部120は、観察対象物と同一または類似の物体を表示することで、実世界が再現されたような印象をユーザに与えることができる。また、AR表示部120は、調光領域10に対応するディスプレイ領域を、非調光領域11に関する情報(非調光領域11に対応するディスプレイ領域の輝度値等)に基づいて補間することで、あたかも観察対象物が存在しないような印象(換言すると、観察対象物が消えたような印象)をユーザに与えることができる。ここで、非調光領域11に関する情報は、実物体の背景に関する情報を含むものと見做されてもよい。この場合、非調光時にユーザが観察対象物を認識するべき位置には、背景に対応する画像が表示される。この背景に対応する画像は、一般的な画像編集技術によって生成され補完画像であり得る。さらに、情報処理装置100は、調光時に、ユーザから見て観察対象物の一部が非調光領域に存在する場合、前記調光領域に隣接する前記非調光領域に画像(第2の画像)を表示するようAR表示部120を制御してもよい。言い換えれば、観察対象物が完全に遮蔽されていない場合、AR表示部120は、非調光領域11に関する情報(非調光領域11に対応するディスプレイ領域の輝度値等)に基づいて観察対象物の遮蔽を補助する画像を生成し、当該画像を調光領域10に対応するディスプレイ領域に表示することもできる。上記はあくまで一例であり、AR表示部120の表示内容は適宜変更され得る。
以上で説明した調光部110およびAR表示部120を制御することで、情報処理装置100は、ユーザの視野領域における実世界と仮想世界の切り替えを徐々に、あるいは段階的に行うことができる。
ここで、図3を参照して、ユーザの視野領域における実世界と仮想世界の段階的な切り替えの一例について説明する。例えば、図3の3Aでは、全視野領域において実世界が映っている。その後、情報処理装置100が、徐々に実世界から仮想世界への切り替えを行うことで視野領域において実世界と仮想世界が混在した3Bの状態に遷移し、最終的に全視野領域において仮想世界が映っている3Cの状態に遷移する。すなわち、情報処理装置100は、ユーザの視線の移動に応じて、調光領域10の面積を徐々に増加させるとともに、調光領域10における画像の面積を増加させるものと見做されてもよい。なお、情報処理装置100は、上記とは逆に、仮想世界から実世界への段階的な切り替えを行ってもよい。このような処理によって、情報処理装置100は、ユーザに違和感を与えることなく実世界と仮想世界を切り替えることができる。なお、図3には、AR表示部120が実世界の人および物体に対応する画像を表示する場合を一例として表したが、これに限定されない。
ここで、上記のような段階的な切り替えについての具体的な制御方法は任意である。例えば、情報処理装置100は、ユーザの視線方向に基づいて段階的な切り替えを行ってもよい。より具体的には、情報処理装置100は、装着時にユーザの眼を撮影する内向きカメラによってユーザの視線方向を推定することができる。そして、情報処理装置100は、ユーザの視線が注がれていない領域、または、ユーザの視線が注がれた領域から一定以上離れた領域から順次実世界と仮想世界との切り替えを行ってもよい。これによって、情報処理装置100は、実世界と仮想世界との切り替えをユーザに知覚させにくくすることができる。換言すると、情報処理装置100は、いつの間にか実世界と仮想世界とが切り替わっているような印象をユーザに与えることができる。
また、情報処理装置100は、デプスマップが作成された領域、または、デプスマップの尤度が高い領域から実世界と仮想世界の切り替えを行ってもよい。より具体的には、情報処理装置100は、実世界と仮想世界との切り替えの際に外向きカメラ131の撮影画像に基づいて作成されたデプスマップを使用する。そして、情報処理装置100は、デプスマップが作成された領域、または、一定値よりも高い尤度のデプスマップが作成された領域から切り替えを行ってもよい。これによって、全視野領域においてデプスマップもしくは高い尤度のデプスマップが作成されるまで待つことなく順次切り替えを行うことができる。上記の処理はあくまで一例であり、適宜変更され得る。
また、情報処理装置100は、実世界と仮想世界とを切り替えるにあたり、座標変換処理、色変換処理または遅延補正処理を行うことで、ユーザに与える違和感をより軽減させることができる。
座標変換処理についてより具体的に説明すると、情報処理装置100は、AR表示部120に画像を表示する際、外向きカメラ131の視点を原点とする座標系からユーザの視点を原点とする座標系への変換処理を行う。これによって、情報処理装置100は、ユーザから見た実物体の位置、向きおよび大きさに対応するように仮想物体(画像)を表示することができる。このため、ユーザに与える違和感をより軽減させることができる。なお、情報処理装置100は、仮想物体の表示制御に応じて、仮想物体が調光領域からはみ出さないように、ユーザから見た実物体の位置、向きおよび大きさに対応するように調光領域10の位置、形状および大きさのうち少なくとも1つを変化させてもよい。これにより、情報処理装置100は、実物体の遮蔽をより確実に行うことができる。
なお、座標変換処理の具体的方法は特に限定されない。例えば、ユーザが情報処理装置100を装着した際、情報処理装置100は、内向きカメラをはじめとする各種センサを用いて、外向きカメラ131と眼球との位置関係を把握することで座標変換処理を実現してもよい。また、外向きカメラ131の視野領域がユーザの視野領域の全てを包含することができない場合、情報処理装置100は、その包含されない領域を周囲の輝度値に基づいて補間してもよい。また、情報処理装置100の位置がずれた場合、情報処理装置100は、再度、外向きカメラ131と眼球との位置関係を把握し直して座標変換処理に反映させてもよい。なお、一般的な自由視点技術が用いられる場合には、情報処理装置100は、座標変換処理を行わなくてもよい。
色変換処理についてより具体的に説明すると、情報処理装置100は、実物体の状態変化に応じた実物体の色彩の変化の予測に基づいて、調光が行われていない場合にユーザが知覚するべき実物体の色彩に対応する色彩を調光領域10の表示画像に付する。これによって、情報処理装置100は、ユーザに与える違和感をより軽減させることができる。色変換処理の具体的内容も特に限定されない。例えば、情報処理装置100は、ユーザが知覚する色に関するパラメータ(明度、彩度、輝度、ホワイトバランス等)であればいずれの変換処理を行ってもよい。
遅延補正処理についてより具体的に説明すると、情報処理装置100は、外向きカメラ131をはじめとする各種センサの出力に基づいて、実世界の人、物体または自装置を装着したユーザの状態を把握し、所定時間経過後におけるこれらの状態(位置、向き、形、動き、色彩等)を予測する。例えば、情報処理装置100は、自装置に搭載されている外向きカメラ131、加速度センサまたはジャイロセンサの出力に基づいて自装置を装着したユーザの動きを予測する。
そして、情報処理装置100は、当該予測に基づいて調光部110による調光およびAR表示部120による表示を制御することで、実世界の人、物体またはユーザの状態が変化しても、これらの遮蔽および画像の表示を適切に行うことができる。例えば、これらが動いていても、調光領域10が実物体からずれることなく、適切に実物体の遮蔽を行うことができる。なお、実世界の人、物体またはユーザの動きが激しい場合(例えば、これらの運動量が一定値以上となったとき)、情報処理装置100は、一時的に、調光領域10を拡大させることによって調光領域10が実物体からずれることを防いでもよい。あるいは、情報処理装置100は、実物体が第1の運動量を有する場合、実物体が第1の運動量よりも小さい第2の運動量を有する場合よりも、調光領域10を大きくするものと見做されても良い。その際、AR表示部120は、一時的に拡大された調光領域10に対応するディスプレイ領域を、その周囲の輝度値に基づいて補間することで、ユーザに与える違和感を軽減させることができる。
また、全視野領域(または一定面積よりも広い視野領域)が仮想世界に切り替わった場合、情報処理装置100は、上記の変換処理または遅延補正処理を適宜省略してもよい。例えば、全視野領域が仮想世界に切り替わった場合、情報処理装置100は、座標変換処理を省略し、外向きカメラ131の視点を原点とする座標系のままの画像を表示してもよい(「カメラスルー表示」とも呼称する)。全視野領域が仮想世界に切り替わった後には、ユーザは仮想物体と実物体との位置のずれを認識することができないため、カメラスルー表示に変更されても違和感を受けにくい。これによって、情報処理装置100は、処理負荷を軽減させ、処理速度を向上させることができる。例えば、外向きカメラ131の視野領域がユーザの視野領域の全てを包含することができない場合、情報処理装置100は、その包含されない領域を周囲の輝度値に基づいて補間等をすることになる。ここで、情報処理装置100は、座標変換処理を省略することによって、当該補間等に要する処理の負荷を削減することができる。
また、ユーザに危険が及んでいると判断される場合(外向きカメラ131の撮影画像の解析によって、任意の物体(例えば、自動車等)がユーザに迫っていると判断される場合等)において、情報処理装置100は、安全性確保のために実世界から仮想世界への切り替えを中止し調光を解除することで(または、調光の度合いを低減させることで)、ユーザが実世界を視認できるようにしてもよい。また、情報処理装置100の位置がずれた場合においても、情報処理装置100は、上記と同様に、ユーザが実世界を視認できるようにしてもよい。
また、本開示の技術は様々なアプリケーション(サービス)に適用され得る。本書では、本開示の技術がVR通話アプリケーションに適用される場合を、「4.VR通話アプリケーションへの適用」にて説明する。なお、当該技術が適用されるアプリケーションは特に限定されない。
<2.装置の機能構成>
上記では、本実施形態の概要について説明した。続いて、図4を参照して、情報処理装置100の機能構成について説明する。図4は、情報処理装置100の機能構成の一例を示すブロック図である。
図4に示すように、情報処理装置100は、調光部110と、AR表示部120と、センサ部130と、制御部140と、操作入力部150と、スピーカ160と、通信部170と、記憶部180と、を備える。
(調光部110)
調光部110は、部分調光素子を用いて部分的な調光を行う。ここで、部分調光素子に用いられる調光素子は、電圧の印加等の制御によって光の透過率を制御可能な部材である。一般的な調光素子は領域全体の透過率を一様に制御するが、例えば液晶ディスプレイと同様の構成にすることで任意のピクセルの透過率が制御され得る。調光部110は、この原理を用いる部分調光素子を備えることで、部分的な調光を可能にしている。なお、調光部110は、部分的な調光を行うだけでなく、領域全体を調光してもよい。また、調光部110は、網膜投射方式にて部分的な調光を実現してもよい。
また、調光部110は、特定の波長帯域の光または特定の偏光の透過を制御可能な部材(色フィルター、偏光フィルター等)をさらに備えることによって、特定の波長帯域の光や特定の偏光のみを遮蔽したり、AR表示部120を透過させたりしてもよい。例えば、調光部110は、実物体から入射する光について、ピクセル単位で特定の偏光を遮蔽することで、実物体の遮蔽をより厳密に行うことができる。ここで、“実物体から入射する光”とは、実物体が自発的に発した光や、実物体により反射された外光を含む、すなわち、“実物体から入射する光”は、ユーザが実物体を認識するための光と見做されてよい。
(AR表示部120)
AR表示部120は、調光部110と連携するようにディスプレイに画像を表示する。AR表示部120は、例えばホログラム光学技術を用いて表示を行うレンズ部、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等により実現される。また、AR表示部120が透過型または半透過型の部材であることを想定して説明するが、これに限定されない。
(制御部140)
制御部140は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。実世界と仮想世界との切り替え処理については、例えば、制御部140は、外向きカメラ131をはじめとするセンサ部130の出力に基づいてユーザの視野領域内の実物体を認識し、その認識結果、デプスマップの作成状況、ユーザの視線またはアプリケーションの内容等の様々な要素に基づいて実世界と仮想世界との切り替えを行う領域、タイミングまたはその内容を決定する。
また、制御部140は、VR通話アプリケーション(以降、「VR通話」と呼称する場合がある)に関する処理全般を制御する。VR通話の詳細については「4.VR通話アプリケーションへの適用」にて説明する。
また、本実施形態による制御部140は、図4に示すように、認識エンジン141と、調光制御部142と、表示制御部143と、を備える。
認識エンジン141は、センサ部130によりセンシングされた各種センサ情報を用いてユーザまたは周辺の各種状況を認識する機能を有する。より具体的には、認識エンジン141は、Depth認識エンジン141a、頭部姿勢認識エンジン141b、SLAM(Simultaneous Localization and Mapping)認識エンジン141c、視線認識エンジン141d、音声認識エンジン141e、位置認識エンジン141fおよび行動認識エンジン141gを含む。なお、図4に示すこれらの認識エンジンは一例であって、本実施形態はこれに限定されない。
Depth認識エンジン141aは、センサ部130によりセンシングされた各種センサ情報を用いて、ユーザ周辺の空間におけるデプス情報を認識する。例えばDepth認識エンジン141aは、外向きカメラ131により取得した周辺の撮像画像を解析して、周辺空間の物体の距離情報および物体の平面位置を認識し得る。なおDepth認識のアルゴリズムについては一般的に知られているアルゴリズムを用いてもよく、本実施形態では特に限定しない。
頭部姿勢認識エンジン141bは、センサ部130によりセンシングされた各種センサ情報を用いて、ユーザの頭部の姿勢(身体に対する顔の向きまたは傾きを含む)を認識する。例えば頭部姿勢認識エンジン141bは、外向きカメラ131により撮像された周辺の撮像画像、ジャイロセンサ134により取得されたジャイロ情報、加速度センサ135により取得された加速度情報、および方位センサ136により取得された方位情報の少なくともいずれかを解析して、ユーザの頭部の姿勢を認識し得る。なお頭部姿勢の認識アルゴリズムは一般的に知られているアルゴリズムを用いてもよく、本実施形態では特に限定しない。
SLAM認識エンジン141cは、センサ部130によりセンシングされた各種センサ情報を用いて、自己位置の推定と周辺空間の地図作成を同時に行い、周辺空間内における自身の位置を同定し得る。例えばSLAM認識エンジン141cは、外向きカメラ131により取得した周辺の撮像画像を解析して、情報処理装置100の自己位置を同定し得る。なおSLAM認識のアルゴリズムについては一般的に知られているアルゴリズムを用いてもよく、本実施形態では特に限定しない。
なお認識エンジン141は、上述したDepth認識エンジン141aの認識結果およびSLAM認識エンジン141cの認識結果に基づいて、空間認識(空間把握)を行うことが可能である。具体的には、認識エンジン141は、周辺3次元空間における情報処理装置100の位置を認識することができる。
視線認識エンジン141dは、センサ部130によりセンシングされた各種センサ情報を用いて、ユーザの視線検出を行う。例えば視線認識エンジン141dは、内向きカメラ132により取得したユーザの眼の撮像画像を解析して、ユーザの視線方向を認識する。なお視線検出のアルゴリズムについては特に限定しないが、例えば目頭と虹彩の位置関係、または角膜反射(プルキニエ像等)と瞳孔の位置関係に基づいて、ユーザの視線方向を認識し得る。また、視線認識エンジン141dは、のヘッドマウントディスプレイである情報処理装置100の正面を視線方向とみなしてもよい。
音声認識エンジン141eは、センサ部130によりセンシングされた各種センサ情報を用いて、ユーザまたは環境音の認識を行う。例えば音声認識エンジン141eは、マイク133により取得した収音情報に対してノイズ除去や音源分離等を行い、音声認識、形態素解析、音源認識、または騒音レベルの認識等を行い得る。
位置認識エンジン141fは、センサ部130によりセンシングされた各種センサ情報を用いて、情報処理装置100の絶対位置を認識する。例えば位置認識エンジン141fは、測位部137により測位された位置情報、および予め取得した地図情報に基づいて、情報処理装置100の場所(例えば駅、学校、家、会社、電車、テーマパーク等)を認識する。
行動認識エンジン141gは、センサ部130によりセンシングされた各種センサ情報を用いて、ユーザの行動を認識する。例えば行動認識エンジン141gは、外向きカメラ131の撮像画像、マイク133の収音音声、ジャイロセンサ134の角速度情報、加速度センサ135の加速度情報、方位センサ136の方位情報、および測位部137の絶対位置情報の少なくともいずれかを用いて、ユーザの行動状況(活動状態の一例)を認識する。ユーザの行動状況としては、例えば静止状態、歩行状態(ゆっくり歩行、ジョグ)、走行状態(ダッシュ、高速走行)、座っている状態、立っている状態、寝ている状態、自転車に乗っている状態、電車に乗っている状態、自動車に乗っている状態が認識し得る。また、行動認識エンジン141gは、より具体的には、角速度情報および加速度情報に基づいて測定される活動量に応じて状態状況を認識してもよい。なお本実施形態による上記各種センサ情報は、ユーザの活動状態に関する情報の一例と言える。
調光制御部142は、調光部110による調光処理を制御する。より具体的には、調光制御部142は、制御部140によって決定された実世界と仮想世界との切り替えの内容に基づいて調光部110に対して制御信号を提供することで調光部110による調光処理を制御する。これによって、調光制御部142は、調光部110の調光を部分的に制御することができ、調光領域10と非調光領域11を生成することができる。
表示制御部143は、AR表示部120による表示処理を制御する。より具体的には、表示制御部143は、制御部140によって決定された実世界と仮想世界との切り替えの内容に基づいてAR表示部120に対して制御信号を提供することでAR表示部120による表示処理を制御する。ここで、表示制御部143は、調光制御部142による調光制御と連携することによって調光領域10に対応するディスプレイ領域に画像を表示させることができる。なお、上記のとおり、調光領域10に対応するディスプレイ領域付近に補間的な画像を表示させることで、実物体の遮蔽を補助してもよい。
(センサ部130)
センサ部130は、ユーザまたは周辺環境に関する各種情報を取得する機能を有する。例えばセンサ部130は、外向きカメラ131、内向きカメラ132、マイク133、ジャイロセンサ134、加速度センサ135、方位センサ136、および測位部137を含む。なおここで挙げるセンサ部130の具体例は一例であって、本実施形態はこれに限定されない。また、各センサは複数あってもよい。
外向きカメラ131および内向きカメラ132は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を各々有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
マイク133は、ユーザの音声や周囲の環境音を収音し、音声データとして制御部140に出力する。
ジャイロセンサ134は、例えば3軸ジャイロセンサにより実現され、角速度(回転速度)を検出する。
加速度センサ135は、例えば3軸加速度センサ(Gセンサとも称す)により実現され、移動時の加速度を検出する。
方位センサ136は、例えば3軸地磁気センサ(コンパス)により実現され、絶対方向(方位)を検出する。
測位部137は、外部からの取得信号に基づいて情報処理装置100の現在位置を検知する機能を有する。具体的には、例えば測位部137は、GPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、情報処理装置100が存在している位置を検知し、検知した位置情報を制御部140に出力する。また、測位部137は、GPSの他、例えばWi−Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
(操作入力部150)
操作入力部150は、スイッチ、ボタン、またはレバー等の物理的な構造を有する操作部材により実現される。
(スピーカ160)
スピーカ160は、制御部140の制御に従って、音声信号を再生する。
(通信部170)
通信部170は、有線/無線により他の装置との間でデータの送受信を行うための通信モジュールである。通信部170は、例えば有線LAN(Local Area Network)、無線LAN、Wi−Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth(登録商標)、近距離/非接触通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して無線通信する。
(記憶部180)
記憶部180は、上述した制御部140が各機能を実行するためのプログラム、パラメータまたは画像データ等を格納する。例えば記憶部180には、AR表示部120が表示する人や物体に関する画像データ等が記憶されている。
以上、本実施形態に係る情報処理装置100の構成について具体的に説明したが、本実施形態による情報処理装置100の構成は図4に示す例に限定されない。例えば情報処理装置100の制御部140の少なくとも一部の処理が、通信部170を介して接続するクラウド上のサーバで行われるようにしてもよい。
<3.装置の動作>
続いて、図5を参照して、情報処理装置100の動作について説明する。図5は、情報処理装置100が実世界から仮想世界への切り替えを行う動作の一例を示すフローチャートである。
切り替えにあたり、まず、制御部140が、外向きカメラ131をはじめとするセンサ部130の出力に基づいてユーザの視野領域内の実物体を認識し、その認識結果、デプスマップの作成状況、ユーザの視線、アプリケーションの内容等の様々な要素に基づいて実世界から仮想世界への切り替えを行う領域、タイミングまたはその内容を決定する。その後、ステップS1000では、表示制御部143が、この決定に基づいて制御信号をAR表示部120に提供する。ステップS1004では、AR表示部120が制御信号に基づいて情報処理装置100を装着しているユーザの視点にて、ディスプレイに表示させる画像のレンダリング処理を行う。
ステップS1008では、AR表示部120がレンダリング後の仮想物体をディスプレイに表示する。ステップS1012では、調光制御部142が制御信号を調光部110に提供することで、ステップS1016にて、AR表示部120による仮想物体の表示と連携するように、調光部110が視野領域を部分的に調光し実物体を徐々に遮蔽していく。そして、ステップS1020にて、全視野領域(または一定面積よりも広い視野領域)の遮蔽が完了した場合、ステップS1024にて、表示制御部143が、ユーザ視点からカメラスルー表示に切り替えるための制御信号をAR表示部120に提供する。この制御信号を受信したAR表示部120は、ステップS1028にて、ユーザ視点に変換されていた表示をカメラスルー表示に切り替える(換言すると、座標変換等の各種変換処理を省略する)。
上記のフローチャートはあくまで一例であり、適宜変更され得る。例えば、ステップS1024およびステップS1028にて実現するカメラスルー表示への切り替え処理は実施されなくてもよい。また、各ステップの動作が適宜入れ替えられたり、並列的に行われたりしてもよい。
<4.VR通話アプリケーションへの適用>
上記では、情報処理装置100の動作について説明した。続いて、本開示をVR通話アプリケーションへ適用した場合の一例について説明する。ここで、VR通話とは、複数のユーザが互いに音声と映像を送信し合うことで双方向のコミュニケーションを実現するアプリケーションを指す。
本開示が適用されたVR通話においては、ユーザは、通話相手が遠隔(直接会話ができない程度の離隔距離を想定)にいる場合には、AR表示部120に通話相手のアバターが表示された状態で、アプリケーションを介して通話を行う。これによって、VR通話は、あたかも通話相手と直接会話をしているような感覚をユーザに与えることができる。そして、遠隔に位置していた通話相手がユーザに近づいた場合(直接会話ができる程度の離隔距離を想定)、情報処理装置100は、ユーザがアバターではなく実物の通話相手を視認できるように調光部110およびAR表示部120を制御し、通話機能を停止しユーザ同士を直接会話させる。これによって、VR通話は、ユーザ同士がVR通話を介して通話する状態から、直接会話する状態への移行を円滑に行うことができる。
なお、アバターは、通話相手の外見を再現する3Dモデルであることを想定して説明するが、これに限定されない。例えば、アバターは、通話相手の属性(性別、年齢、国籍等)と類似の属性を有する架空のキャラクターであってもよい。また、アバターは、通話相手の表情の撮影画像が所定の方法で取得され、この撮影画像に基づいて通話相手の表情が顔部分に再現されたものであってもよい。
また、アバターは、ユーザと対面するように位置してもよいし、ユーザと並ぶように位置してもよい(すなわち、アバターの横顔がユーザによって見られてもよい)。なお、AR表示部120がアバターを表示する際には、センサ部130によって取得された各種センシングデータに基づいて実世界との矛盾が発生しないようにアバターに対して各種加工を行う。例えば、情報処理装置100は、外向きカメラ131の撮影画像を解析することで外光の強度または照射方向を把握し、アバターが外光に照らされているようにアバターの表面に加工を施してもよい。
ここで、図6を参照して、VR通話の使用イメージの一例について説明する。例えば、ユーザAとユーザBがVR通話を用いて互いに通話をしながら待ち合わせをする場面を想定する(図6は、ユーザAの視野領域を表している)。
ユーザBが遠隔に位置する場合には、6Aのように、ユーザBのアバターがユーザAに対面するように表示される。これによって、情報処理装置100は、ユーザAに対してユーザBと直接会話をしているような感覚を与えることができる。このとき、ユーザBがユーザAの視野領域に進入しても、調光部110およびAR表示部120が連携することによってユーザAには見えないようにユーザBが遮蔽されている。
その後、ユーザBが到着し、6Bのように、ユーザBがアバターと重畳するように位置すると、情報処理装置100は、6Cのように、アバターではなくユーザBがユーザAに視認されるように調光部110およびAR表示部120を制御する。6Cのように、ユーザAとユーザBが直接会話できる位置関係に立った場合には、情報処理装置100は、通話機能を停止しユーザ同士を直接会話させる。
これによって、情報処理装置100は、ユーザAとユーザBがVR通話を介して通話する状態から、直接会話する状態への移行を円滑に行うことができる。すなわち、情報処理装置100は、いつの間にか、会話の相手がアバターから実世界のユーザBに入れ替わっているような感覚をユーザAに対して与えることができる。なお、情報処理装置100は、上記とは逆に、ユーザAとユーザBが直接会話する状態から、VR通話を介して通話する状態へ移行させてもよい。
続いて、図7を参照して、ユーザAに対して遠隔に位置していたユーザBがユーザAの視野領域に進入した場合に、ユーザBを遮蔽する方法の一例について説明する。
図7に示すように、ユーザAの視野角と、外向きカメラ131の画角が異なっており、外向きカメラ131の画角の方がユーザAの視野角よりも大きいとする。このとき、状態1のように、ユーザBがユーザAの視野角外かつ外向きカメラ131の画角内に進入した場合、情報処理装置100は、外向きカメラ131の撮影画像を解析することによってユーザBを認識する。そして、情報処理装置100は、状態2のように、ユーザBがユーザAの視野角内に進入する場合には、調光部110およびAR表示部120を制御することで、ユーザBをユーザAに見えないように遮蔽する。
そして、実世界のユーザBがアバターと重畳するように位置すると、情報処理装置100は、アバターではなく実世界のユーザBがユーザAに視認されるように調光部110およびAR表示部120を制御する。
これによって、情報処理装置100は、アバターと実世界のユーザBがユーザAによって同時に視認されることを防ぐことができるため、ユーザAに与える違和感を軽減させることができる。
<5.装置のハードウェア構成>
上記では、本開示をVR通話へ適用した場合の一例について説明した。続いて、情報処理装置100のハードウェア構成について説明する。上述した部分的な調光処理等は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図8は、情報処理装置100のハードウェア構成の一例を示すブロック図である。情報処理装置100は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、を備える。また、情報処理装置100は、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置(HDD)910と、ドライブ911と、通信装置912とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。当該CPU901、ROM902およびRAM903の協働により、制御部140の機能が実現される。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段や、外向きカメラ131等の各種センサがセンシングデータを入力するための入力手段として機能し、入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。ユーザは、入力装置908を操作することにより、各装置に対して各種のデータを入力したり処理動作を指示したりすることができる。当該入力装置908により、センサ部130または操作入力部150の機能が実現される。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力装置909は、部分的に調光を制御することができる部分調光素子を含む。さらに、出力装置909は、スピーカおよびヘッドホンなどの音声出力装置を含む。出力装置909は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をイメージまたはテキストで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。当該出力装置909により、調光部110、AR表示部120またはスピーカ160の機能が実現される。
ストレージ装置910は、記憶部180の一例として構成されたデータ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
ドライブ911は、記憶媒体用リーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体913に記録されている情報を読み出して、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体913に情報を書き込むこともできる。
通信装置912は、例えば、通信網914に接続するための通信デバイス等で構成された通信インタフェースである。当該通信装置912により、通信部170の機能が実現される。
<6.むすび>
以上で説明してきたように、本開示に係る情報処理装置100は、ユーザの視野領域の一部に入射する光を調光することで実世界の物体を遮蔽し、当該遮蔽された視野領域に任意の画像が映るように表示制御を行う。これによって、情報処理装置100は、ユーザの視野領域において、実世界と仮想世界を部分的に切り替えることができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成する調光制御部と、
前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御する表示制御部と、を備え、
情報処理装置。
(2)
前記調光制御部は、前記ユーザが前記実物体を視認することを妨げるように前記調光領域を生成する、
前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記視野領域において前記調光領域から前記非調光領域にわたって前記ユーザが認識する像が実質的に連続するよう前記第1の画像の表示制御を行う、
前記(2)に記載の情報処理装置。
(4)
前記第1の画像は、前記実物体に対応する画像を含み、
前記表示制御部は、前記ユーザに認識される前記実物体の像が実質的に連続するように前記実物体に対応する画像を表示するよう前記表示装置を制御する、
前記(3)に記載の情報処理装置。
(5)
前記第1の画像は、前記実物体の背景に対応する画像を含み、
前記表示制御部は、前記ユーザに認識される前記背景の像が実質的に連続するように前記背景に対応する画像を表示するよう前記表示装置を制御する、
前記(3)から(4)のいずれか1項に記載の情報処理装置。
(6)
前記表示制御部は、前記ユーザから見て前記実物体の一部が前記非調光領域に存在する場合、前記調光領域に隣接する前記非調光領域に第2の画像を表示するよう前記表示装置を制御する、
前記(3)から(5)のいずれか1項に記載の情報処理装置。
(7)
前記表示制御部は、前記ユーザの視点を原点とする座標系に基づいて、前記ユーザから見た前記実物体の位置、向き、および大きさの変化に応じた変換処理が施された前記第1の画像を表示するよう前記表示装置を制御する、
前記(3)から(6)のいずれか1項に記載の情報処理装置。
(8)
前記調光制御部は、前記変換処理が施された前記第1の画像の表示制御に応じて、前記第1の画像が前記調光領域からはみ出さないように、前記ユーザから見た前記実物体の位置、向き、および大きさに対応するように前記調光領域の位置、形状、大きさを変化させる、
前記(7)に記載の情報処理装置。
(9)
前記表示制御部は、前記調光領域が所定の面積より大きい場合に、前記変換処理を省略する、
前記(7)または(8)に記載の情報処理装置。
(10)
前記表示制御部は、前記実物体の状態変化に応じた前記実物体の色彩の変化の予測に基づいて、前記調光が行われていない場合に前記ユーザが知覚するべき前記実物体の色彩に対応する色彩を有する前記第1の画像を表示するよう前記表示装置を制御する、
前記(2)から(9)のいずれか1項に記載の情報処理装置。
(11)
前記調光制御部は、前記実物体が第1の運動量を有する場合、前記実物体が前記第1の運動量よりも小さい第2の運動量を有する場合よりも、前記調光領域を大きくする、
前記(10)に記載の情報処理装置。
(12)
前記調光制御部は、前記調光領域の面積の増減を徐々に行う、
前記(1)から(11)のいずれか1項に記載の情報処理装置。
(13)
前記調光制御部は、前記ユーザの視線が注がれていない領域、または、前記視線が注がれた領域から一定以上離れた領域から前記調光を行う、
前記(12)に記載の情報処理装置。
(14)
前記調光制御部は、デプスマップが作成された領域、または、前記デプスマップの尤度が一定値以上である領域から前記調光を行う、
前記(12)に記載の情報処理装置。
(15)
前記調光制御部は、前記ユーザの視線の移動に応じて、前記調光領域の面積を徐々に増加させるとともに、前記第1の画像の面積を増加させる、
前記(12)から(14)のいずれか1項に記載の情報処理装置。
(16)
前記調光制御部は、前記調光において、特定の波長帯域の光または特定の偏光が前記表示装置を透過すること制限する、
前記(1)から(15)のいずれか1項に記載の情報処理装置。
(17)
前記表示装置は、ヘッドマウントディスプレイである、
前記(1)から(16)のいずれか1項に記載の情報処理装置。
(18)
前記表示制御部および前記調光制御部は、少なくとも1つのプロセッサを構成し、
前記情報処理装置は、前記ヘッドマウントディスプレイを更に備える、
前記(17)に記載の情報処理装置。
(19)
実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成することと、
前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、を有し、
前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、を有する、
コンピュータにより実行される情報処理方法。
(20)
実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成することと、
前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、
前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、
をコンピュータに実現させるためのプログラム。
100 情報処理装置
110 調光部
120 AR表示部
130 センサ部
131 外向きカメラ
132 内向きカメラ
133 マイク
134 ジャイロセンサ
135 加速度センサ
136 方位センサ
137 測位部
140 制御部
141 認識エンジン
141a Depth認識エンジン
141b 頭部姿勢認識エンジン
141c SLAM認識エンジン
141d 視線認識エンジン
141e 音声認識エンジン
141f 位置認識エンジン
141g 行動認識エンジン
142 調光制御部
143 表示制御部
150 操作入力部
160 スピーカ
170 通信部
180 記憶部

Claims (20)

  1. 実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成する調光制御部と、
    前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御する表示制御部と、を備え、
    情報処理装置。
  2. 前記調光制御部は、前記ユーザが前記実物体を視認することを妨げるように前記調光領域を生成する、
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記視野領域において前記調光領域から前記非調光領域にわたって前記ユーザが認識する像が実質的に連続するよう前記第1の画像の表示制御を行う、
    請求項2に記載の情報処理装置。
  4. 前記第1の画像は、前記実物体に対応する画像を含み、
    前記表示制御部は、前記ユーザに認識される前記実物体の像が実質的に連続するように前記実物体に対応する画像を表示するよう前記表示装置を制御する、
    請求項3に記載の情報処理装置。
  5. 前記第1の画像は、前記実物体の背景に対応する画像を含み、
    前記表示制御部は、前記ユーザに認識される前記背景の像が実質的に連続するように前記背景に対応する画像を表示するよう前記表示装置を制御する、
    請求項3に記載の情報処理装置。
  6. 前記表示制御部は、前記ユーザから見て前記実物体の一部が前記非調光領域に存在する場合、前記調光領域に隣接する前記非調光領域に第2の画像を表示するよう前記表示装置を制御する、
    請求項3に記載の情報処理装置。
  7. 前記表示制御部は、前記ユーザの視点を原点とする座標系に基づいて、前記ユーザから見た前記実物体の位置、向き、および大きさの変化に応じた変換処理が施された前記第1の画像を表示するよう前記表示装置を制御する、
    請求項3に記載の情報処理装置。
  8. 前記調光制御部は、前記変換処理が施された前記第1の画像の表示制御に応じて、前記第1の画像が前記調光領域からはみ出さないように、前記ユーザから見た前記実物体の位置、向き、および大きさに対応するように前記調光領域の位置、形状、大きさを変化させる、
    請求項7に記載の情報処理装置。
  9. 前記表示制御部は、前記調光領域が所定の面積より大きい場合に、前記変換処理を省略する、
    請求項7に記載の情報処理装置。
  10. 前記表示制御部は、前記実物体の状態変化に応じた前記実物体の色彩の変化の予測に基づいて、前記調光が行われていない場合に前記ユーザが知覚するべき前記実物体の色彩に対応する色彩を有する前記第1の画像を表示するよう前記表示装置を制御する、
    請求項2に記載の情報処理装置。
  11. 前記調光制御部は、前記実物体が第1の運動量を有する場合、前記実物体が前記第1の運動量よりも小さい第2の運動量を有する場合よりも、前記調光領域を大きくする、
    請求項2に記載の情報処理装置。
  12. 前記調光制御部は、前記調光領域の面積の増減を徐々に行う、
    請求項1に記載の情報処理装置。
  13. 前記調光制御部は、前記ユーザの視線が注がれていない領域、または、前記視線が注がれた領域から一定以上離れた領域から前記調光を行う、
    請求項12に記載の情報処理装置。
  14. 前記調光制御部は、デプスマップが作成された領域、または、前記デプスマップの尤度が一定値以上である領域から前記調光を行う、
    請求項12に記載の情報処理装置。
  15. 前記調光制御部は、前記ユーザの視線の移動に応じて、前記調光領域の面積を徐々に増加させるとともに、前記第1の画像の面積を増加させる、
    請求項12に記載の情報処理装置。
  16. 前記調光制御部は、前記調光において、特定の波長帯域の光または特定の偏光が前記表示装置を透過すること制限する、
    請求項1に記載の情報処理装置。
  17. 前記表示装置は、ヘッドマウントディスプレイである、
    請求項1に記載の情報処理装置。
  18. 前記表示制御部および前記調光制御部は、少なくとも1つのプロセッサを構成し、
    前記情報処理装置は、前記ヘッドマウントディスプレイを更に備える、
    請求項17に記載の情報処理装置。
  19. 実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成することと、
    前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、を有し、
    前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、を有する、
    コンピュータにより実行される情報処理方法。
  20. 実物体からの入射光の量を制限する調光を行うことで、ユーザの視野領域において前記調光を行った調光領域と前記調光が前記調光領域よりも相対的に行われていない非調光領域を生成することと、
    前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、
    前記ユーザから見て前記調光領域に第1の画像を表示するよう表示装置を制御することと、
    をコンピュータに実現させるためのプログラム。
JP2018038837A 2018-03-05 2018-03-05 情報処理装置、情報処理方法およびプログラム Pending JP2019152794A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018038837A JP2019152794A (ja) 2018-03-05 2018-03-05 情報処理装置、情報処理方法およびプログラム
PCT/JP2019/002072 WO2019171802A1 (ja) 2018-03-05 2019-01-23 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018038837A JP2019152794A (ja) 2018-03-05 2018-03-05 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019152794A true JP2019152794A (ja) 2019-09-12

Family

ID=67845989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018038837A Pending JP2019152794A (ja) 2018-03-05 2018-03-05 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
JP (1) JP2019152794A (ja)
WO (1) WO2019171802A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021186581A1 (ja) * 2020-03-17 2021-09-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2022091398A1 (ja) * 2020-11-01 2022-05-05 正典 伊原 透過率制御部を備えた表示装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112153319B (zh) 2020-09-02 2023-02-24 芋头科技(杭州)有限公司 基于视频通信技术的ar信息显示方法和装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08292394A (ja) * 1995-01-24 1996-11-05 Matsushita Electric Ind Co Ltd 頭部搭載型画像表示装置
JP5309448B2 (ja) * 2007-01-26 2013-10-09 ソニー株式会社 表示装置、表示方法
JP5151207B2 (ja) * 2007-03-28 2013-02-27 株式会社ニコン 表示装置
US8619005B2 (en) * 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
JP6299067B2 (ja) * 2013-02-14 2018-03-28 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6326219B2 (ja) * 2013-11-26 2018-05-16 圭祐 戸田 表示装置および表示方法
JP6620420B2 (ja) * 2015-05-22 2019-12-18 セイコーエプソン株式会社 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016192137A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP6780642B2 (ja) * 2015-06-15 2020-11-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017203952A (ja) * 2016-05-13 2017-11-16 株式会社リコー 画像表示装置、眼鏡型画像表示装置及び両眼型画像表示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021186581A1 (ja) * 2020-03-17 2021-09-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP7454648B2 (ja) 2020-03-17 2024-03-22 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US11948483B2 (en) 2020-03-17 2024-04-02 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
WO2022091398A1 (ja) * 2020-11-01 2022-05-05 正典 伊原 透過率制御部を備えた表示装置

Also Published As

Publication number Publication date
WO2019171802A1 (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
CN104076512B (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
US20170111723A1 (en) Personal Area Network Devices System and Method
US11487354B2 (en) Information processing apparatus, information processing method, and program
US20170053443A1 (en) Gesture-based reorientation and navigation of a virtual reality (vr) interface
US20200202161A1 (en) Information processing apparatus, information processing method, and program
WO2019171802A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN113741839A (zh) 基于修改的环境光亮度值生成显示数据
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR20200112837A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2019031015A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN112241199B (zh) 虚拟现实场景中的交互方法及装置
JPWO2018198499A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20230343049A1 (en) Obstructed objects in a three-dimensional environment
WO2020044916A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20230221833A1 (en) Methods for displaying user interface elements relative to media content
US11170539B2 (en) Information processing device and information processing method
WO2019142621A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020071144A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20240103686A1 (en) Methods for controlling and interacting with a three-dimensional environment
JP2016142966A (ja) 頭部装着型表示装置、情報処理装置、画像表示装置、画像表示システム、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
US20240104819A1 (en) Representations of participants in real-time communication sessions
US20240104877A1 (en) Methods for time of day adjustments for environments and environment presentation during communication sessions
US20240103617A1 (en) User interfaces for gaze tracking enrollment
US20240104859A1 (en) User interfaces for managing live communication sessions
US20240103608A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences