JP6844542B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6844542B2
JP6844542B2 JP2017539717A JP2017539717A JP6844542B2 JP 6844542 B2 JP6844542 B2 JP 6844542B2 JP 2017539717 A JP2017539717 A JP 2017539717A JP 2017539717 A JP2017539717 A JP 2017539717A JP 6844542 B2 JP6844542 B2 JP 6844542B2
Authority
JP
Japan
Prior art keywords
prediction accuracy
information processing
virtual object
prediction
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017539717A
Other languages
English (en)
Other versions
JPWO2017047178A1 (ja
Inventor
知浩 香取
知浩 香取
木村 淳
淳 木村
遼 深澤
遼 深澤
近藤 一臣
一臣 近藤
翼 塚原
翼 塚原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017047178A1 publication Critical patent/JPWO2017047178A1/ja
Application granted granted Critical
Publication of JP6844542B2 publication Critical patent/JP6844542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • G06V30/2247Characters composed of bars, e.g. CMC-7

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Ophthalmology & Optometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、実世界に付加的な情報を重畳してユーザに提示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに提示される情報は、アノテーションとも呼ばれ、テキスト、アイコンまたはアニメーションなど様々な形態の仮想的なオブジェクトを用いて可視化され得る。
ARの仮想オブジェクト(仮想物体)は、概して、実オブジェクトの表面に表示されたり、実オブジェクトの上空に浮遊させて表示されたりする等、実オブジェクトに紐付けて表示される。そのため、実オブジェクトの位置又は姿勢の変化に、仮想オブジェクトの表示を適切に追随させることが望ましい。そのような要求を満たす技術のひとつとして、下記特許文献1では、実オブジェクトの位置又は姿勢を認識し、認識結果に基づいて仮想オブジェクトを表示する際に、認識の安定度に応じて表示を変化させる技術が開示されている。
特開2012−221250号公報
しかし、上記特許文献1に開示された技術では、依然として仮想オブジェクトの表示の乱れが生じる場合があった。例えば、認識が安定している場合であっても、適切な表示制御がなされずに仮想オブジェクトの表示が乱れ、ユーザが不快感を覚える場合があった。そこで、本開示では、仮想オブジェクトの表示の乱れに起因する不快感をより軽減することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、を備える情報処理装置が提供される。
また、本開示によれば、実オブジェクトの位置又は姿勢の予測に係る予測精度をプロセッサにより推定することと、前記予測精度の推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力することと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータを、実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、仮想オブジェクトの表示の乱れに起因する不快感をより軽減することが可能である。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理装置の外観構成の一例を示す図である。 技術的課題を説明するための説明図である。 技術的課題を説明するための説明図である。 技術的課題を説明するための説明図である。 第1の実施形態に係る情報処理装置の論理的な構成の一例を示すブロック図である。 同実施形態に係る情報処理装置において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係る情報処理装置において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。 同実施形態に係る情報処理装置において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係る情報処理装置において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係る情報処理装置において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るUI例を説明するための説明図である。 同実施形態に係るHMDの論理的な構成の一例を示すブロック図である。 同実施形態に係るHMDの論理的な構成の一例を示すブロック図である。 同実施形態に係るHMDの論理的な構成の一例を示すブロック図である。 変形例に係る情報処理装置の論理的な構成の一例を示すブロック図である。 同実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.はじめに
1.1.外観構成例
1.2.技術的課題
2.第1の実施形態
2.1.構成例
2.2.処理の流れ
2.3.UI例
3.シースルー型HMDへの適用例
3.1.構成例1
3.2.構成例2
3.3.構成例3
4.変形例
5.ハードウェア構成例
6.まとめ
<<1.はじめに>>
<1.1.外観構成例>
まず、図1を参照して、本開示の一実施形態に係る情報処理装置の外観構成の一例について説明する。
図1は、本実施形態に係る情報処理装置1の外観構成の一例を示す図である。図1に示す情報処理装置1は、スマートグラスまたはHMD(Head Mounted Display)とも称される装置である。情報処理装置1は、例えばユーザの頭部を周回するようなフレーム構造の装着ユニット50を持ち、装着ユニット50によりユーザの頭に固定される。そしてこの情報処理装置1は、図1に示すような装着状態において、ユーザの眼前に、左眼用と右眼用の一対の表示部20A及び20Bが配置される構成とされている。この表示部20には、例えば透過型のディスプレイが用いられ、情報処理装置1は透過型のディスプレイの透過率を制御することで、スルー状態、即ち透明または半透明の状態にできる。表示部20がスルー状態とされることで、情報処理装置1を眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
表示部20は、透明または半透明の状態のまま、テキストや図等の画像を表示することで、実空間の風景にARの仮想オブジェクトを重畳表示することができる。即ち、情報処理装置1は、透過型のHMDとして実現されてもよい。なお、透過型のHMDにおいては、図1に示したように、装着ユニット50により情報処理装置1がユーザの頭に固定されて、ユーザの両眼と表示部20との相対的な位置関係が固定化されることが望ましい。相対的な位置関係が変化すると、仮想オブジェクトを表示すべきディスプレイ上の位置が変化し得るためである。
また、表示部20は、撮像部10A及び10Bで撮像された実空間の撮像画像を表示しつつ、当該実空間の撮像画像に仮想オブジェクトを重畳表示することも可能である。また、表示部20は、撮像部10A及び10Bであたかも仮想空間を撮像したかのような画像を表示しつつ、当該仮想空間の画像に仮想オブジェクトを重畳表示することも可能である。即ち、情報処理装置1は、没入型(ビデオスルー型)のHMDとして実現されてもよい。
他にも、表示部20は、ユーザの網膜に直接的に画像を投影するLED光源等として実現されてもよい。即ち、情報処理装置1は、プロジェクション型のHMDとして実現されてもよい。
表示部20には、多様なコンテンツが仮想オブジェクトとして表示され得る。コンテンツは、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像された静止画コンテンツ、電子書籍等のデータであってもよい。また、かかるコンテンツは、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲームプログラムに基づくゲーム画像など、表示対象となるあらゆるデータが想定される。
撮像部10A及び10Bは、ユーザが情報処理装置1を装着した状態において、ユーザが視認する方向の実空間を撮像範囲として撮像するように配置されている。撮像部10A及び10Bは、ユーザが視認する方向の距離を示す情報(以下、深度情報とも称する)も取得可能なステレオカメラとして実現されてもよい。撮像部10A及び10Bがステレオカメラとして実現される場合、情報処理装置1は、実空間に存在する実物体の形状及び姿勢を精度よく認識することが可能である。以下では、撮像部10A及び10Bを、外向きステレオカメラ10とも称する。
一方で、撮像部10C及び10Dは、ユーザが情報処理装置1を装着した状態において、ユーザの方向、より詳しくはユーザの両眼を撮像範囲として撮像するように配置されている。撮像部10C及び10Dは、ユーザの両眼の方向の深度情報も取得可能なステレオカメラとして実現されてもよい。撮像部10C及び10Dがステレオカメラとして実現される場合、情報処理装置1は、ユーザの眼球の位置、瞳孔の位置、及び視線の向き等をより精度よく認識することが可能である。以下では、撮像部10C及び10Dを、内向きステレオカメラ10とも称する。
また、図1では図示していないが、情報処理装置1は、スピーカ又はイヤホンスピーカを有していてもよい。また、情報処理装置1は、外部音声を取得するマイクロフォンを有していてもよい。
なお、図1に示す情報処理装置1の外観は一例であり、情報処理装置1をユーザが装着するための構造は多様に考えられる。情報処理装置1は、一般に眼鏡型、あるいは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼前に近接して表示部20が設けられていればよい。また、表示部20は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
また、スピーカ又はイヤホンスピーカも、左右の耳に対応して2つ設けられてもよいし、片方の耳に対応して1つ設けられてもよい。また、マイクロフォンも、ひとつ以上設けられてもよいし、その配置は任意である。
以上、本実施形態に係る情報処理装置1の外観構成の一例について説明した。
なお、以下では、一例として、情報処理装置1が透過型のHMDとして実現される場合を想定して説明する。情報処理装置1の表示部20(透過型ディスプレイ)に表示される像(透過して視認される背景及び重畳表示される仮想オブジェクトを含む)を、以下では実空間画像とも称する。
<1.2.技術的課題>
続いて、図2〜図4を参照して、技術的課題を説明する。
図2〜図4は、技術的課題を説明するための説明図である。図2では、実空間画像に含まれる実オブジェクトの位置又は姿勢の変化の一例を示している。図中、左から右へ時間は流れる。
情報処理装置1は、実オブジェクト70の位置又は姿勢の変化を予測しながら、予測した位置又は姿勢に対応する位置又は姿勢で、仮想オブジェクトを表示するものとする。そのために、まず、情報処理装置1は、時刻Tにおいて、実空間画像60Aに含まれる実オブジェクト70に関する情報を検知(センシング)する。例えば、情報処理装置1は、ユーザ視点での実空間の様子をカメラで撮像し、デジタルデータとして読み出す。次いで、情報処理装置1は、時刻Tにおいて、時刻Tにおいて検知した情報に基づいて、時刻Tにおける実オブジェクト70の位置又は姿勢の変化を予測する。例えば、情報処理装置1は、撮像画像に基づいて実オブジェクト70を認識して、認識した実オブジェクト70の位置又は姿勢の変化を予測する。そして、情報処理装置1は、時刻Tにおいて、予測結果に基づいて実空間画像60B内に仮想オブジェクト80を表示する。
ここで注目すべきは、予測のための情報を検知した時刻Tから仮想オブジェクト80を表示する時刻Tまでの間に時間(即ち、タイムラグ)があることである。このタイムラグにおける実オブジェクト70の予測が精度よく行われない場合、仮想オブジェクト80が本来表示すべき位置又は姿勢からずれた位置又は姿勢で表示されてしまう、という表示の乱れが生じ、ユーザに混乱又は不快感を与えてしまい得る。以下、図3及び図4を参照して、この点について説明する。
図3では、予測が精度よく行われた場合に、時刻Tにおいて表示される実空間画像60Cの一例を示している。実空間画像60Cに示すように、仮想オブジェクト80は、実オブジェクト70の位置に正確に重畳されている。このため、ユーザに混乱又は不快感を与えることはない。
図4では、予測が精度よく行われなかった場合に、時刻Tにおいて表示される実空間画像60Dの一例を示している。実空間画像60Dに示すように、仮想オブジェクト80は、実オブジェクト70の位置から離れた位置に表示されている。このような表示ずれは、ユーザに混乱又は不快感を与えてしまう。
同様の技術的課題は、透過型のディスプレイを有する装置以外にも、非透過型のディスプレイを有する、例えばビデオスルー型のHMDにも同様に生じ得る。例えば、実空間の様子をリアルタイムにディスプレイに表示しつつ、並行して予測した位置又は姿勢に仮想オブジェクトを表示する形態においては、上述した表示の乱れが同様に生じ得る。
このような課題に関し、上記特許文献1に記載された技術では表示の乱れを十分に抑制することが困難であると考えられる。例えば、認識が安定している場合であっても、予測の精度が低い場合には、仮想オブジェクトの表示が乱れる場合がある。例えば、実オブジェクトが不規則に動作している場合に、表示の乱れが顕著に生じ得る。また、上記特許文献1では、時刻Tにおいて、時刻Tにおいて撮像された実空間の画像に仮想オブジェクトが重畳表示されていた。即ち、上記特許文献1に記載された技術は、時刻Tと時刻Tとのタイムラグの間に実オブジェクトが移動したり姿勢が変化したりすることが考慮されていないので、上記説明した技術的課題を解決し得るものではない。
そこで、上記事情を一着眼点にして本開示の一実施形態に係る情報処理装置1を創作するに至った。本実施形態に係る情報処理装置1は、上記タイムラグに係る予測精度に基づく表示制御を行うことで、仮想オブジェクトの表示の乱れを抑制し、また表示が乱れる場合であっても、ユーザに与える混乱又は不快感を軽減することができる。
なお、以下では、時刻Tを検知時刻とも称し、時刻Tを表示時刻とも称する。
<<2.第1の実施形態>>
まず、図5を参照して、第1の実施形態に係る情報処理装置の構成の一例を説明する。
<2.1.構成例>
図5は、本実施形態に係る情報処理装置の論理的な構成の一例を示すブロック図である。図5に示すように、本実施形態に係る情報処理装置1は、実オブジェクト検知部100、実オブジェクト認識部120、実オブジェクト予測部140、視点検知部200、視点認識部220、視点予測部240、描画遅延検知部300、視界内状態予測部400、予測精度推定部500、出力制御部600及び表示部700を含む。
(実オブジェクト検知部100)
実オブジェクト検知部100は、検知時刻Tにおける実オブジェクトに関する情報を検知する機能を有する。例えば、実オブジェクト検知部100は、実オブジェクトをセンシング対象とするセンサにより検知された情報を取得する。そのようなセンサとしては、例えばカメラ、デプスセンサ、赤外線センサ、電波センサなどが挙げられる。なお、図1に示した例においては、実オブジェクト検知部100は外向きステレオカメラ10として実現され得る。
(実オブジェクト認識部120)
実オブジェクト認識部120は、実オブジェクト検知部100により取得された情報に基づいて、実オブジェクトを認識する機能を有する。実オブジェクト認識部120は、実オブジェクトの位置又は姿勢を認識する。実オブジェクトの位置又は姿勢とは、世界座標系における実オブジェクトの位置又は姿勢を意味するものとする。世界座標系は、実空間内で固定的に定義される絶対的な座標を表す座標系である。
実オブジェクトの認識には、多様な手法が採用され得る。
例えば、実オブジェクトの認識は、撮像画像から計算される特徴量を、予め登録された実オブジェクトの特徴量と照合することにより行われてもよい。特徴量は、例えばSIFT法またはRandom Ferns法などの公知の特徴量算出技術によって算出され得る。
また、実オブジェクトの認識は、実オブジェクトに付された既知の図形若しくは記号、人工マーカ(例えば、バーコード若しくはQRコード(登録商標))又は自然マーカなどを認識することにより行われてもよい。
他にも、実オブジェクトの認識は、ステレオカメラにより得られる画像に基づく、画素毎の深度情報及び当該深度情報の信頼度に基づいて行われてもよい。例えば、実オブジェクト認識部120は、異なる視点から同一の実空間を撮像対象とした複数の撮像画像上での実物体の違い(両眼視差)に基づいて、実オブジェクトの位置及び形状(即ち、撮像部からみた実空間の凹凸)を認識する。なお、ステレオ画像認識の特性上、色合い等の変化が少ない領域に係る深度情報の信頼度が低下し得る。深度情報は、ToF(Time of Flight)方式のデプスセンサ等の任意の技術を用いて取得されてもよい。
(実オブジェクト予測部140)
実オブジェクト予測部140は、実オブジェクト認識部120による認識結果に基づいて、表示時刻Tにおける実オブジェクトに関する予測を行う機能を有する。例えば、実オブジェクト予測部140は、表示時刻Tにおける実オブジェクトの位置又は姿勢を予測する機能を有する。そのために、実オブジェクト予測部140は、認識された実オブジェクトの位置又は姿勢のログを蓄積しておき、蓄積されたログに基づいて予測を行う。以下に、予測方法の一例を説明する。
例えば、実オブジェクト予測部140は、時刻t0において座標(xt0,yt0,zt0)にある実オブジェクトが、時刻tにおいて存在する位置を次式で予測する。
(xt,yt,zt)=(xt0+Vxt0(t−t0),yt0+Vyt0(t−t0),zt0+Vzt0(t−t0))
・・・(1)
上記数式(1)は、時刻t0において、実オブジェクトが速度Vt0=(Vxt0,Vyt0,Vzt0)で移動している場合に、時刻tまでの間等速直線運動をすると仮定して予測する場合に用いられる。
(視点検知部200)
視点検知部200は、検知時刻Tにおける視点に関する情報を検知する機能を有する。視点は、ユーザの眼の位置又は姿勢(即ち、視線の向き)を意味していてもよいし、表示部700の位置又は姿勢を意味していてもよいし、これらの双方を含んでいてもよい。例えば、視点検知部200は、ユーザ又は情報処理装置1自身をセンシング対象とするセンサにより検知された情報を取得する。そのようなセンサとしては、例えばカメラ、デプスセンサ、ジャイロセンサ、加速度センサ、GNSS(Global Navigation Satellite System)などが挙げられる。なお、図1に示した例においては、視点検知部200は、内向きステレオカメラ10及び外向きステレオカメラ10として実現され得る。例えば、内向きステレオカメラ10による撮像画像は、顔上の相対座標系に対して目がどちらを向いているかを認識するために用いられ得る。また、外向きステレオカメラ10による撮像画像は、外界の特徴点の移動を認識し、世界座標系における視点(即ち、頭)の移動を認識するため(即ち、後述するSLAM法のため)に用いられ得る。これらの認識は、後述する視点認識部220により行われる。
(視点認識部220)
視点認識部220は、視点検知部200により取得された情報に基づいて、視点の位置又は姿勢を認識する機能を有する。視点の位置又は姿勢とは、世界座標系における視点の位置又は姿勢を意味するものとする。
視点の認識には、多様な手法が採用され得る。
例えば、視点の認識は、SfM(Structure from Motion)法またはSLAM(Simultaneous Localization And Mapping)法などの公知の画像認識技術により行われてもよい。その場合、視点の認識は、例えば情報処理装置1の装置固有の座標系に対する基準環境(実空間)の座標系の相対的な位置および姿勢の認識により行われる。例えば、SLAM法が利用される場合、情報処理装置1のプロセッサが、装置の位置、姿勢、速度および角速度、ならびに撮像画像に含まれる少なくとも1つの特徴点の位置を含む状態変数を、拡張カルマンフィルタの原理に基づいて撮像画像のフレームごとに更新する。これによって、装置の位置および姿勢を基準とする基準環境の位置および姿勢を、単眼カメラからの入力画像を利用して認識することができる。なお、SLAM法の詳しい説明は、例えば“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Andrew J.Davison,Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されている。
他にも、視点の認識は、撮像部の実空間における相対的な位置および姿勢を認識するものであればどのようなものであってもよい。例えば、撮像部に設けられうる深度センサからの深度データに基づいて環境認識行列が認識されてもよい。また、赤外線測距システムまたはモーションキャプチャシステムなどの環境認識システムからの出力データに基づいて環境認識行列が認識されてもよい。こうした技術の一例は、例えばS.Izadi, et al, KinectFusion: Real-time 3D Reconstruction and Interaction Using a Moving Depth Camera, ACM Symposium on User Interface Software and Technology, 2011に記載されているが、この例には限られず、公知の様々な技術が利用可能である。
あるいは、視点の認識は、実空間を撮像した一連のフレーム画像のステッチング解析によって、各フレーム画像の相対的な位置関係を特定することによって行われてもよい。この場合、ステッチング解析は、基底平面上に各フレーム画像を貼りつける2次元ステッチング解析、または空間内の任意の位置に各フレーム画像を貼りつける3次元ステッチング解析でありうる。
さらに、視点の認識は、情報処理装置1に含まれる加速度センサ又はジャイロセンサ等の慣性センサを併用して行われてもよい。その場合、より高速に視点が認識され得る。また、高速にユーザ(カメラ位置)が動いたことによる動きボケなどで、撮像画像に基づく視点の認識が困難な場合にも、ある程度の精度で認識することが可能である。
(視点予測部240)
視点予測部240は、視点認識部220による認識結果に基づいて、表示時刻Tにおける視点に関する予測を行う機能を有する。例えば、視点予測部240は、表示時刻Tにおける視点の位置又は姿勢を予測する。そのために、視点予測部240は、認識された視点の位置又は姿勢のログを蓄積しておき、蓄積されたログに基づいて予測を行う。具体的な予測方法としては、実オブジェクト予測部140に関して上記説明したものと同様の予測方法が採用され得る。
(描画遅延検知部300)
描画遅延検知部300は、検知時刻Tと表示時刻Tとのタイムラグを検知する機能を有する。タイムラグは所定値であってもよいし、動的に変化していてもよい。タイムラグの長さは、検知時刻Tから表示時刻Tまでの間に行われる各種処理の処理時間によって変動し得る。例えば処理負荷が低い時にはタイムラグが短くなり、処理負荷が高い場合にはタイムラグが長くなり得る。また、各種処理を実行するCPU、GPU、センサ等の動作周波数設定、省電力設定のON/OFF等によってもタイムラグの長さは変動し得る。例えば、描画遅延検知部300は、各種処理の処理負荷、動作周波数設定、省電力設定のON/OFF等に基づいて、タイムラグを検知し得る。
(視界内状態予測部400)
視界内状態予測部400は、表示時刻Tにおいてユーザの視界(即ち、実空間画像内)に映る実オブジェクトの位置又は姿勢を予測する機能を有する。この予測は、予測のための情報が検知される時点Tから仮想オブジェクトが表示される時点Tまでのタイムラグに係る予測である。視界内状態予測部400は、このタイムラグの間に、実オブジェクトがどのように動き、視点がどのように動くか、という実オブジェクト予測部140及び視点予測部240による予測結果に基づいて、予測を行う。なお、ユーザの視界に映る実オブジェクトの位置又は姿勢とは、ユーザの眼から見た表示部700の表示面上の実オブジェクトの位置又は姿勢を意味するものとする。
(予測精度推定部500)
予測精度推定部500は、表示部700に映る(例えば、透過型ディスプレイを透過する、又は非透過型ディスプレイに表示される)実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する機能を有する。具体的には、予測精度推定部500は、視界内状態予測部400による予測の精度を推定する。また、予測精度推定部500は、予測精度が低い場合に、低い要因を推定してもよい。
予測精度の推定方法は多様に考えられる。
例えば、予測精度推定部500は、検知時刻Tと表示時刻Tとのタイムラグに基づいて予測精度を推定してもよい。例えば、予測精度推定部500は、タイムラグが長いほど予測精度が低く、タイムラグが短いほど予測精度が高いと推定する。タイムラグが長いほど、誤差が生じる可能性が高まるためである。他にも、予測精度推定部500は、タイムラグが閾値以上である場合に予測精度が低いと判定し、タイムラグが閾値未満である場合に予測精度が高いと判定してもよい。
例えば、予測精度推定部500は、実オブジェクト又は視点の位置又は姿勢の予測に用いられる対象物の、動きの大きさ又は規則性の少なくともいずれかに基づいて予測精度を推定してもよい。具体的には、予測精度推定部500は、対象物の動きが大きいほど予測精度を低く推定し、対象物の動きが小さいほど予測精度を高く推定する。同様に、予測精度推定部500は、対象物の動きの規則性が低いほど予測精度を低く推定し、対象物の動きの規則性が高いほど予測精度を高く推定する。タイムラグの場合と同様に、閾値が用いられてもよい。なお、ここでいう対象物とは、例えば実オブジェクト、表示部700、及びユーザの眼等を指す。即ち、予測精度推定部500は、実オブジェクトの動きの大きさ又は規則性に基づいて予測精度を推定してもよい。また、予測精度推定部500は、表示部700の動きの大きさ又は規則性に基づいて予測精度を推定してもよい。また、予測精度推定部500は、ユーザの眼の動きの大きさ又は規則性に基づいて予測精度を推定してもよい。
(出力制御部600)
出力制御部600は、表示部700による仮想オブジェクトの表示処理(描画処理)を制御する。詳しくは、出力制御部600は、視界内状態予測部400により予測された実オブジェクトの位置に対応する位置に、又は視界内状態予測部400により予測された実オブジェクトの姿勢に対応する姿勢で、仮想オブジェクトを表示させる。これにより、例えば実オブジェクトの表面に仮想オブジェクトを重畳的に表示したり、実オブジェクトの上空に仮想オブジェクトを紐付けて表示したりすることが可能となる。
ここで、仮想オブジェクトの表示位置は、ユーザが知覚する実空間における位置(即ち、世界座標系における位置)を意味していてもよいし、表示部700(例えば、透過型のディスプレイ)上の位置(即ち、画面上の座標)を意味していてもよい。ただし、いずれを意味するかによって、仮想オブジェクトの表示は異なり得る。例えば、ユーザが知覚する位置としては遠近感があっても、表示部700上では同じ位置に表示されている場合がある。
出力制御部600は、予測精度推定部500による推定結果に基づいて、実オブジェクトに対応する仮想オブジェクトの表示を制御する。予測精度が高いほど表示の乱れが生じにくく、予測精度が低いほど表示の乱れが生じやすいためである。出力制御部600は、予測精度を加味した表示を行うことで、仮想オブジェクトの表示の乱れをより抑制することが可能となる。
例えば、出力制御部600は、予測精度が高いほど対応する実オブジェクトとの関連性が高くなるよう仮想オブジェクトを表示させ、予測精度が低いほど対応する実オブジェクトとの関連性が低くなるよう仮想オブジェクトを表示させてもよい。予測精度が低いほど、例えば実オブジェクトから離れた位置に仮想オブジェクトが表示される等の表示の乱れが発生し得るためである。そのような場合に、関連性が低く(例えば、おおまかに)表示されることで、実オブジェクトから離れた位置に仮想オブジェクトが表示される場合であっても、ユーザは関連性をおおまかに把握することが可能である。このように、仮想オブジェクトの表示が乱れる場合であっても、その影響を関連性が低い表示により軽減することが可能となる。予測精度が高い場合は、関連性が高く表示されることで、ユーザは関連性を明確に把握することが可能である。このような表示制御に係る具体的なUI例は、図7〜図11を参照して後に詳しく説明する。例えば、図7に関しては、関連性が高い表示とは仮想オブジェクトを小さく表示することを指し、関連性が低い表示とは仮想オブジェクトを大きく表示することを指す。仮想オブジェクトが小さく表示されるほど、仮想オブジェクトに実オブジェクトが隙間なく収まることとなり、高い関連性が表現される。一方で、仮想オブジェクトが大きく表示されるほど、仮想オブジェクトに実オブジェクトが隙間を設けて収まることとなり、低い関連性が表現される。他の例として、図11に関しては、関連性が高い表示とはモーションブラー処理を適用しない表示を指し、関連性が低い表示とはモーションブラー処理を適用する表示を指す。仮想オブジェクトにモーションブラー処理が適用されない場合、仮想オブジェクトの表示位置が明確になり、実オブジェクトとの関連性が明確に(即ち、高く)表現される。仮想オブジェクトにモーションブラー処理が適用される場合、仮想オブジェクトの表示位置が曖昧になり、実オブジェクトとの関連性が曖昧に(即ち、低く)表現される。
例えば、出力制御部600は、予測精度が高いほど仮想オブジェクトを明確に表示させ、予測精度が低いほど仮想オブジェクトを曖昧に表示させてもよい。より具体的には、出力制御部600は、予測精度が低いほど仮想オブジェクトをぼかして表示させてもよい。予測精度が低いほど、例えば実オブジェクトから離れた位置に仮想オブジェクトが表示される等の表示の乱れが発生し得るためである。そのような場合に、仮想オブジェクトそのものが曖昧に(例えば、薄く)表示されることで、実オブジェクトから離れた位置に仮想オブジェクトが表示される場合であっても、そのずれの印象を弱めることが可能である。このように、仮想オブジェクトの表示が乱れる場合であっても、その影響を曖昧な表示により軽減することが可能となる。予測精度が高い場合は、適切な位置に仮想オブジェクトが明確に表示されることが可能である。このような表示制御に係る具体的なUI例は、図10〜図12を参照して後に詳しく説明する。
出力制御部600は、仮想オブジェクトの表示を予測精度が低い要因に応じた表示にさせてもよい。例えば、出力制御部600は、表示の乱れの影響をより軽減することが可能な描画手法を、要因に応じて選択する。これにより、仮想オブジェクトの表示が乱れる場合であっても、その影響を軽減することが可能となる。
具体的なUI例については、後に詳しく説明する。
なお、上記では、出力制御部600は、仮想オブジェクトの表示を制御すると説明したが、より詳しくは、出力制御部600は、表示部700に仮想オブジェクトを表示させるための情報を出力する。その場合、出力制御部600は、仮想オブジェクトを描画する領域、姿勢、大きさ等を決定して、仮想オブジェクトをレンダリングした画像情報を生成し、生成した画像情報を出力する。そして、表示部700は、この画像情報に基づいて表示を行う。
(表示部700)
表示部700は、ユーザへ情報を表示する機能を有する。表示部700は、出力制御部600による制御に基づき仮想オブジェクトを表示する。表示部700は、実空間にある実オブジェクトを透過しつつ仮想オブジェクトを表示する透過型の表示装置であってもよい。その場合、情報処理装置1は、図1に示した透過型のHMDとして実現され、表示部700は、図1に示した表示部20A及び20Bとして実現される。また、表示部700は、撮像された実オブジェクトをリアルタイムに表示しつつ仮想オブジェクトをさらに表示する非透過型の表示装置であってもよい。その場合、情報処理装置1は、没入型(ビデオスルー型)のHMDとして実現され得る。
(補足)
図5では、各構成要素が同一の装置内に含まれる例を示したが、本技術はかかる例に限定されない。例えば、情報処理装置1の各構成要素は、複数の装置に分離して含まれていてもよく、例えば情報処理を行うサーバと入出力を行うクライアントとに分離して含まれ得る。また、各種センサは、環境設置型の装置であってもよい。また、描画遅延検知部300が検知するタイムラグには、例えば通信遅延等が含まれてもよい。
以下に、情報処理装置1としての機能が複数の装置の協働により実現される場合における、各構成要素がどのような装置に含まれるかの一例を示す。ここでは、HMDのような表示部700を有する装置をローカルとも称し、クラウド上のサーバ等のローカル以外の装置を外部とも称する。
実オブジェクト検知部100は、ローカルに含まれてもよいし、外部に含まれてもよい。例えば、車の窓ガラスが表示部700として機能する場合に、車外のカメラが実オブジェクト検知部100として機能し得る。
実オブジェクト認識部120は、ローカルに含まれてもよいし、外部に含まれてもよい。例えば、認識処理の全部がクラウド上で行われてもよいし、一部の負荷の大きい認識処理がクラウド上で行われてもよい。
実オブジェクト予測部140は、ローカルに含まれてもよいし、外部に含まれてもよい。ただし、実オブジェクト予測部140が外部に含まれる場合、レイテンシが大きくなるため予測が困難になり得る。
視点検知部200は、ローカルに含まれてもよいし、外部に含まれてもよい。例えば、車の窓ガラスが表示部700として機能する場合に、アイウェアに含まれるセンサが視点検知部200として機能し得る。
視点認識部220は、ローカルに含まれてもよいし、外部に含まれてもよい。ただし、視点認識部220は、視点検知部200と同じ側に含まれることが望ましい。
視点予測部240は、ローカルに含まれてもよいし、外部に含まれてもよい。ただし、視点予測部240が外部に含まれる場合、レイテンシが大きくなるため予測が困難になり得る。
描画遅延検知部300は、ローカルに含まれることが望ましい。ローカルと外部との通信遅延等も含めて遅延を検知するためである。
視界内状態予測部400は、ローカルに含まれてもよいし、外部に含まれてもよい。ただし、視界内状態予測部400が外部に含まれる場合、レイテンシが大きくなるため予測が困難になり得る。
予測精度推定部500は、ローカルに含まれてもよいし、外部に含まれてもよい。ただし、予測精度推定部500が外部に含まれる場合、レイテンシが大きくなるため予測が困難になり得る。
出力制御部600は、ローカルに含まれてもよいし、ローカル及び外部の双方に含まれてもよい。例えば、仮想オブジェクトの描画はクラウド上で行われ、仮想オブジェクトの出力位置合わせがローカルで行われてもよい。
以上、本実施形態に係る情報処理装置1の構成例を説明した。続いて、図6を参照して、情報処理装置1において実行される処理の流れを説明する。
<2.2.処理の流れ>
図6は、本実施形態に係る情報処理装置1において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。
図6に示すように、まず、実オブジェクト認識部120は、検知時刻Tにおいて実オブジェクト検知部100により検知された情報に基づいて、実オブジェクトの位置又は姿勢を認識する(ステップS102)。次いで、実オブジェクト予測部140は、表示時刻Tにおける実オブジェクトの位置又は姿勢を予測する(ステップS104)。
また、視点認識部220は、検知時刻Tにおいて視点検知部200により検知された情報に基づいて、視点の位置又は姿勢を認識する(ステップS106)。次いで、視点予測部240は、表示時刻Tにおける視点の位置又は姿勢を予測する(ステップS108)。
そして、視界内状態予測部400は、実オブジェクト予測部140及び視点予測部240による予測結果に基づいて、視界内の実オブジェクトの位置又は姿勢を予測する(ステップS110)。次に、予測精度推定部500は、予測精度を推定する(ステップS112)。予測精度の演算のために、描画遅延検知部300は、タイムラグの長さを検知してもよい。
次いで、出力制御部600は、予測精度は閾値より高いか否かを判定する(ステップS114)。高いと判定された場合(ステップS114/YES)、出力制御部600は、通常の表示方法を用いて、表示部700に仮想オブジェクトを表示させる(ステップS116)。例えば、出力制御部600は、実オブジェクトとの関連性が高く表現された仮想オブジェクトを表示する。一方で、低いと判定された場合(ステップS114/NO)、出力制御部600は、精度が低い場合の表示方法を用いて、表示部700に仮想オブジェクトを表示させる(ステップS118)。例えば、出力制御部600は、実オブジェクトとの関連性が低く表現された仮想オブジェクトを表示する。
その後、処理が継続される場合(ステップS120/NO)、処理は再度ステップS102に戻り、継続されない場合(ステップS120/YES)、処理は終了する。
以上、処理の流れの一例について説明した。
<2.3.UI例>
続いて、図7〜22を参照して、UI例について詳しく説明する。
(1)予測精度に応じたUIの変化
まず、予測精度に応じたUIの変化について説明する。
・仮想オブジェクトの大きさの変化
情報処理装置1(例えば、出力制御部600)は、予測精度に応じて仮想オブジェクトの大きさを変化させてもよい。例えば、情報処理装置1は、表示すべき領域を含むように、予測精度が低いほど仮想オブジェクトを大きく表示する。また、情報処理装置1は、表示すべき領域に含まれるように、予測精度が低いほど仮想オブジェクトを小さく表示する。このような処理により、表示すべき領域から外れた位置に仮想オブジェクトが表示されることが防止されるので、表示の乱れが抑制される。以下、前者については図7を参照し、後者については図8を参照して、具体的に説明する。
図7は、本実施形態に係るUI例を説明するための説明図である。本UI例は、実オブジェクトが収まるような仮想オブジェクトを表示するアプリケーションを想定したUI例である。例えば、予測精度が高い場合、情報処理装置1は、実空間画像60Aに示すように、仮想オブジェクト80を小さく表示する。実空間画像60Aを参照すると、予測精度が高いため、小さい表示であっても、仮想オブジェクト80内に実オブジェクト70が収まっている。一方で、予測精度が低い場合、情報処理装置1は、実空間画像60Bに示すように、仮想オブジェクト80を大きく表示する。実空間画像60Bを参照すると、予測精度が低いため、実オブジェクト70の位置は仮想オブジェクト80の中心から外れている一方、仮想オブジェクト内に実オブジェクト70が収まっている。このような処理により、仮想オブジェクト80内に少なくとも実オブジェクト70が収まることとなる。
図8は、本実施形態に係るUI例を説明するための説明図である。本UI例は、掲示板に仮想的なポスターを重ねて表示するアプリケーションを想定したUI例である。例えば、予測精度が高い場合、情報処理装置1は、実空間画像60Aに示すように、掲示板70の板面と同程度のサイズでポスター80を表示する。一方で、予測精度が低い場合、情報処理装置1は、実空間画像60Bに示すように、掲示板70の板面よりも小さいサイズでポスター80を表示する。このような処理により、掲示板70の板面に少なくともポスター80が重なって表示されることとなる。
・仮想オブジェクトの表示/非表示
情報処理装置1(例えば、出力制御部600)は、予測精度に応じて仮想オブジェクトの表示/非表示を切り替えてもよい。例えば、情報処理装置1は、予測精度が高い場合は仮想オブジェクトを表示して、低い場合は仮想オブジェクトを非表示にする。これにより、予測精度が低い場合に少なくとも表示の乱れの発生を抑止することが可能となる。この点について、図9を参照して説明する。
図9は、本実施形態に係るUI例を説明するための説明図である。本UI例は、図7と同様に、実オブジェクトが収まるような仮想オブジェクトを表示するアプリケーションを想定したUI例である。例えば、予測精度が高い場合、情報処理装置1は、実空間画像60Aに示すように、仮想オブジェクト80を小さく表示する。実空間画像60Aを参照すると、予測精度が高いため、小さい表示であっても、仮想オブジェクト80内に実オブジェクト70が収まっている。一方で、予測精度が低い場合、情報処理装置1は、実空間画像60Bに示すように、仮想オブジェクト80を表示しない。このような処理により、少なくとも表示の乱れを抑止することが可能となる。
・仮想オブジェクトの描画エフェクトの変化
情報処理装置1(例えば、出力制御部600)は、予測精度に応じて仮想オブジェクトに適用する描画エフェクトを変化させてもよい。例えば、情報処理装置1は、予測精度が低いほど仮想オブジェクトの境界を曖昧にするアニメーションを適用する。これにより、仮想オブジェクトの表示が乱れる場合であっても、その影響を軽減することが可能となる。採用される描画エフェクトは多様に考えられる。以下では、その典型的な例として、図10及び図11を参照してモーションブラー処理について説明し、図12を参照してマスク処理について説明する。
(モーションブラー処理)
情報処理装置1は、仮想オブジェクトにモーションブラー処理を適用し、仮想オブジェクトにモーションブラーを付加して表示させ得る。まず、図10を参照して、モーションブラー処理の適用方針を説明する。
図10は、本実施形態に係るUI例を説明するための説明図である。仮想オブジェクト80Aが、デフォルトの表示であるものとする。情報処理装置1は、視界内における仮想オブジェクト80Aの移動方向81への移動量の予測精度が低下すると、所定量又は一瞬だけ移動方向81へのモーションブラー処理を適用した仮想オブジェクト80Bを描画する。これにより、仮想オブジェクトの境界が曖昧になる。情報処理装置1は、予測精度が回復した場合、モーションブラー処理の適用を停止した仮想オブジェクト80Cを再度描画する。
以上、モーションブラー処理の適用方針を説明した。続いて、図11を参照してモーションブラー処理の具体例を説明する。
図11は、本実施形態に係るUI例を説明するための説明図である。本UI例は、実オブジェクトに対して吹き出しを表示するアプリケーションを想定したUI例である。例えば、予測精度が高い場合、情報処理装置1は、実空間画像60Aに示すように、モーションブラー処理を適用せず吹き出し80を明確に表示する。実空間画像60Aを参照すると、予測精度が高いため、吹き出し80が正しく人物70を指している。一方で、予測精度が低い場合、情報処理装置1は、実空間画像60Bに示すように、モーションブラー処理を適用した吹き出し80を表示する。実空間画像60Bを参照すると、予測精度が低いため、吹き出し80が指す位置は人物70から外れている一方、吹き出し80が指す位置が曖昧に表示されているため、その表示ずれが目立っていない。その上、人物70の動きに追従するようにモーションブラー処理が適用されているので、吹き出し80が人物70に追従することが表現されている。このような処理により、表示の乱れの影響を軽減することが可能となる。
(マスク処理)
情報処理装置1は、例えば仮想オブジェクトにマスク処理を適用し、仮想オブジェクトの外縁部ほど希薄に表示させ得る。以下、図12を参照して、マスク処理の適用方針を説明する。
図12は、本実施形態に係るUI例を説明するための説明図である。仮想オブジェクト80Aが、デフォルトの表示であるものとする。情報処理装置1は、視界内における仮想オブジェクト80Aの動きに関する予測精度が低下すると、仮想オブジェクトを覆うサイズの円82を描画して重畳することで、境界が曖昧になった仮想オブジェクト80Bを描画する。円82は、外縁部ほど透過率が低く、中心ほど透過率が高いことが望ましい。その場合、仮想オブジェクト80Bに示すように、境界ほど曖昧になる表示が実現される。情報処理装置1は、予測精度が回復した場合、マスク処理の適用を停止した仮想オブジェクト80Cを再度描画する。
(2)精度低下要因に応じた描画手法の変化
続いて、精度低下要因に応じた描画手法の変化について説明する。
情報処理装置1(出力制御部600)は、予測精度が低い要因に応じて仮想オブジェクトの描画手法を変化させてもよい。例えば、予測精度が低い要因が、視点の動きに起因するもの(例えば、視点が大きく動いたこと等)である場合、情報処理装置1は、仮想オブジェクトを非表示にする。一方で、予測精度が低い要因が、実オブジェクトの動きに起因するもの(例えば、実オブジェクトが大きく動いたこと等)である場合、情報処理装置1は、仮想オブジェクトにモーションブラー処理を適用する。以下、図13を参照して、精度低下要因に応じた描画手法の変化に関する処理の流れを説明する。
図13は、本実施形態に係る情報処理装置1において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。ステップS202〜S216に係る処理は、図6を参照して上記説明したS102〜S116に係る処理と同様であるため、ここでの詳細な説明は省略する。
ステップS214において、予測精度が低いと判定された場合(ステップS214/NO)、予測精度推定部500は、予測精度が低い要因を推定する(ステップS218)。
予測精度が低い要因が、視点が大きく動いていることであると推定された場合(ステップS220/YES)、出力制御部600は、仮想オブジェクトを非表示にする(ステップS222)。一方で、予測精度が低い要因が、実オブジェクトが大きく動いていること等であって、視点が大きく動いていることではないと推定された場合(ステップS220/NO)、出力制御部600は、仮想オブジェクトにモーションブラー処理を適用する(ステップS224)。
その後、処理が継続される場合(ステップS226/NO)、処理は再度ステップS202に戻り、継続されない場合(ステップS226/YES)、処理は終了する。
(3)状況に応じた表示の変化
続いて、状況に応じた表示の変化について説明する。
情報処理装置1(出力制御部600)は、多様な情報に基づいて仮想オブジェクトの表示を制御し得る。例えば、情報処理装置1は、ユーザに関する情報、仮想オブジェクトに関する情報、実オブジェクトに関する情報、環境に関する情報、又は情報処理装置1に関する情報等に基づいて、仮想オブジェクトの表示を制御し得る。
ユーザに関する情報としては、例えば注視点(視線又は焦点)、行動認識結果(静止、歩く、走る、階段昇降、自動車運転、スポーツの種別)、移動速度、生体情報(心拍、体温、発汗、血圧、発汗、脈拍、呼吸、瞬目、眼球運動、凝視時間、瞳孔径の大きさ、血圧、脳波、体動、体位、皮膚温度、皮膚電気抵抗、MV(マイクロバイブレーション)、筋電位、SPO2(血中酸素飽和度))、感情推定結果(喜怒哀楽)、ユーザの姿勢、ユーザの位置、ユーザ設定(手入力)等が挙げられる。
仮想オブジェクトに関する情報としては、例えば表示サイズ、表示位置、表示の姿勢、表示のアニメ―ション態様(移動速度、移動方向、軌道、更新頻度)、コンテンツの属性(種類、重要度、優先度、アプリケーション種類(ブラウザ、マップ、メーラー、IME、SNS))、解像度、色等が挙げられる。
実オブジェクトに関する情報に関する情報としては、例えば実オブジェクトの種別、形状、位置、姿勢、材質、色等が挙げられる。
環境に関する情報としては、背景(重要な情報、背景色)、照度、場所(屋内、屋外、シチュエーション(ジオフェンス)、行動履歴(慣れた場所にいるかどうか)、周辺状況(他者、車などの有無、密度)、時間、高度、気温、風向き、風量等が挙げられる。
情報処理装置1に関する情報としては、ディスプレイ解像度、ディスプレイ方式、センサの有無、ID、バッテリー残量、バッテリー容量、外部記憶媒体スロットの有無、通信方式、音響特性、イメージャの特性、3D撮影性能、3D表示性能、デバイスの姿勢、デバイスの位置等が挙げられる。情報処理装置1がHMDとして実現される場合、情報処理装置1に関する情報は、HMD方式を含み得る。また、情報処理装置1がウェアラブルデバイスとして実現される場合、情報処理装置1に関する情報は、ウェアラブルデバイスの装着状態(装着、非装着、装着箇所)、装着位置等を含み得る。
以下では、一例として、仮想オブジェクトに関する情報に応じた表示の変化の具体例を説明する。
・コンテンツの内容に応じた表示の変化
図14は、本実施形態に係る情報処理装置1において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。
図14に示すように、出力制御部600は、コンテンツが2次元であり、テキストである場合(ステップS302/YES且つステップS304/YES)、仮想オブジェクトにモーションブラー処理を適用しない(ステップS306)。モーションブラー処理が適用されると、テキストが読み辛くなるためである。一方で、出力制御部600は、コンテンツが2次元でない、又はテキストでない場合(ステップS302/NO又はステップS304/NO)、仮想オブジェクトにモーションブラー処理を適用する(ステップS308)。
以上により処理は終了する。なお、コンテンツが3Dである場合、後に説明する3D用の表示制御処理が実行されてもよい。
・仮想オブジェクトの表示位置に応じた表示の変化
例えば、情報処理装置1(例えば、出力制御部600)は、ユーザの位置と仮想オブジェクトの表示位置(実空間における位置)との距離に応じて、仮想オブジェクトの表示を変化させてもよい。以下では、仮想オブジェクトのコンテンツは3次元であるものとする。
図15は、本実施形態に係るUI例を説明するための説明図である。自転車に乗っているユーザ90の前方の視界91に仮想オブジェクトが表示される状況を想定する。図15に示すように、90の前方の空間は、ユーザからの距離がγまでの空間92、γからβまでの空間93、βからαまでの空間94、及びα以上の空間95に区分けされる。なお、α、β及びγの値は所定値であってもよいし、例えばユーザの移動速度等に応じて変動してもよい。情報処理装置1は、仮想オブジェクトの表示位置がどの空間に属するかに応じて、適用する描画手法を切り替え得る。以下、図16を参照して、詳しい処理の流れを説明する。
図16は、本実施形態に係る情報処理装置1において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。
図16に示すように、出力制御部600は、ユーザから仮想オブジェクトの表示位置までの距離がαを超える場合(ステップS402/YES)、仮想オブジェクトにモーションブラー処理又はマスク処理を適用する(ステップS404)。
また、出力制御部600は、ユーザから仮想オブジェクトの表示位置までの距離がαを下回り(ステップS402/NO)、且つβを超える場合(ステップS406/YES)、仮想オブジェクトにアルファフェード処理又はワイヤー処理を適用する(ステップS408)。
また、出力制御部600は、ユーザから仮想オブジェクトの表示位置までの距離がβを下回り(ステップS406/NO)、且つγを超える場合(ステップS410/YES)、仮想オブジェクトに高速スクロール処理を適用する(ステップS412)。高速スクロール処理については、後に詳しく説明する。
また、出力制御部600は、ユーザから仮想オブジェクトの表示位置までの距離がγを下回る場合(ステップS410/NO、且つステップS414/YES)、仮想オブジェクトを非表示にする(ステップS416)。
また、出力制御部600は、ユーザから仮想オブジェクトの表示位置までの距離がγを下回らない場合(ステップS414/NO)、仮想オブジェクトにスケール調整、輝度値調整、色変化等を適用する。本ステップは、例えば仮想オブジェクトが表示面上に貼り付く等、距離を有さない場合等に実行され得る。
以上により、処理は終了する。
続いて、図17及び図18を参照して、高速スクロール処理について説明する。図17及び図18は、本実施形態に係るUI例を説明するための説明図である。
図17は、高速スクロール処理が適用されていないUI例を示している。図17に示した実空間画像60Aでは、歩行中のユーザの前方を歩行する人物が含まれており、仮想オブジェクトとして複数の標識80が等間隔に表示されている。標識80の実空間における位置が固定であるとすると、ユーザが移動した場合、その移動量に応じて標識80の表示面上の位置は変化する。図17に示した例では、ユーザは実空間画像60Aの奥行き方向に並んだ標識80に並行して移動しているので、ユーザの移動に応じて標識80は画枠に向かって移動し、画枠から外に出ると非表示となる。そのため、実空間画像60Aでは、画枠に重なる標識80については画枠内の一部分のみが表示されている。
図18は、高速スクロール処理が適用されているUI例を示している。図18に示した実空間画像60Bでは、自転車で走行中のユーザの前方を自転車で走行する人物が含まれており、図17と同様に複数の標識80が表示されている。ただし、図18に示した例では、図17に示した例と比較して、ユーザの移動速度が速いので、標識80が画枠に向かって移動する速度が速い。そのため、図18に示した例では、標識80が画枠に向かって移動する際に、画枠に近づくほど標識80が加速して(間隔が開いて)曖昧に表示されている。即ち、ユーザが標識80に近づくほど標識80が加速する。これにより、画枠に近い標識80は早く画枠から外れることとなるので、画枠に重なる標識80について画枠内の一部分のみが表示される時間が短くなる。また、人間が、同じ速度で動く物体であっても遠くの物体ほど遅く近くの物体ほど速いと認知するという観点から、仮想オブジェクトがユーザに近づいて画枠に近くなるほど加速して曖昧に表示されることは、仮想オブジェクトの表示の不自然さを軽減する効果がある。なお、標識80が加速する際、標識80の実空間における位置が一時的に変動してもよい。
(4)設定用UI
続いて、設定用UIについて説明する。
情報処理装置1(例えば、出力制御部600)は、仮想オブジェクトの表示に関する設定用の画面を表示してもよい。ユーザは、設定用UIを用いて、モーションブラーの強さや、高速スクロール処理の加速度等を設定することができる。以下、図19〜図22を参照して、設定用UIの表示に係る処理の流れ及びUI例について説明する。
図19は、本実施形態に係る情報処理装置1において実行される仮想オブジェクトの表示制御処理の流れの一例を示すフローチャートである。
図19に示すように、まず、出力制御部600は、メニューUIを表示する(ステップS502)。メニューUIの一例を図20に示す。図20は、本実施形態に係るUI例を説明するための説明図である。図20に示すように、実空間画像60Aには、仮想オブジェクトとして、メニューアイテム80A〜80Cが表示されている。メニューアイテム80Aは、ムービー再生のためのメニューアイテムである。メニューアイテム80Bは、表示設定のためのメニューアイテムである。メニューアイテム80Cは、ゲーム実行のためのメニューアイテムである。
ユーザによりメニューアイテム80Bが選択されると、出力制御部600は、設定用UIを表示する(ステップS504)。そして、情報処理装置1(例えば、実オブジェクト認識部120又は視点検知部200)は、ユーザ設定を受け付けて(ステップS506)、設定を完了する(ステップS508)。ここでは、図21及び図22を参照して、ユーザ設定の受け付けについて説明する。
図21は、本実施形態に係るUI例を説明するための説明図である。実空間画像60Bでは、モーションブラーを適用する範囲又は強弱を設定するための設定用UIとして、アイコン80D〜80Fが表示されている。これらのアイコンは、ユーザの周囲の実空間に固定されているものとする。アイコン80Dが選択されると、モーションブラーの強度が6.0となる。アイコン80Eが選択されると、モーションブラーの強度が6.2となる。アイコン80Fが選択されると、モーションブラーの強度が6.4となる。なお、これらの数字はあくまで一例である。ユーザは、頭部を左右に振ってアイコン80D〜80Fのいずれかを正面に位置させる、又は視線をアイコン80D〜80Fのいずれかに向けることで、アイコンの選択を行い、モーションブラーの強度を設定することができる。
図22は、本実施形態に係るUI例を説明するための説明図である。実空間画像60Cでは、モーションブラーを適用する範囲又は強弱を設定するための設定用UIとして、アイコン80G〜80Iが表示されている。これらのアイコンは、ユーザの周囲の実空間に固定されているものとする。アイコン80Hは、モーションブラーの強度の設定値を示している。アイコン80Gが選択されると、アイコン80Hにおけるモーションブラーの強度の設定値が減少する。アイコン80Iが選択されると、アイコン80Hにおけるモーションブラーの強度の設定値が増加する。アイコン80Hが選択されると、モーションブラーの強度の設定が完了される。ユーザは、頭部を左右に振ってアイコン80G〜80Iのいずれかを正面に位置させる、又は視線をアイコン80G〜80Iのいずれかに向けることで、アイコンの選択を行い、モーションブラーの強度を設定することができる。
以上、本実施形態に係る情報処理装置1により提供されるUI例を説明した。
<<3.シースルー型HMDへの適用例>>
続いて、上記説明した第1の実施形態に係る情報処理装置1を、シースルー型HMDとして実現した場合の構成例を説明する。
<3.1.構成例1>
図23は、本実施形態に係るHMD1の論理的な構成の一例を示すブロック図である。図23に示すように、本実施形態に係るHMD1は、図5を参照して上記説明した情報処理装置1の構成を基本として、さらに詳細な構成要素を有している。以下、各々の構成要素について詳しく説明する。
実オブジェクト検知部100は、カメラ102を含む。カメラ102は、実空間の画像を撮像するデバイスである。カメラ102は、HMD1の装着時にユーザの視界(前方)を撮像するように設置される。カメラ102は、撮像画像、及び撮像時刻のタイムスタンプを、実オブジェクト認識処理部122に提供する。
実オブジェクト認識部120は、実オブジェクト認識処理部122及び実オブジェクト辞書124を含む。実オブジェクト認識処理部122は、カメラ102により取得された実空間の情報と、実オブジェクト辞書124に登録されている実オブジェクトの特徴とを比較し、重畳対象の実オブジェクトを発見及び認識する。実オブジェクト認識処理部122は、認識した実オブジェクトの位置又は姿勢と、認識に用いた情報に付与されたタイムスタンプを、実オブジェクト予測処理部142に提供する。実オブジェクト辞書124は、重畳対象の実オブジェクトの特徴を記録したデータである。例えば、実オブジェクト辞書124は、実オブジェクトをカメラ102で撮影した際に得られる特徴点の情報を含み得る。
実オブジェクト予測部140は、実オブジェクト予測処理部142及び実オブジェクト認識履歴144を含む。実オブジェクト予測処理部142は、実オブジェクト認識処理部122が認識した実オブジェクトの位置又は姿勢と、実オブジェクト認識履歴144とを参照し、実オブジェクトの移動又は姿勢の変化を推定する。実オブジェクト予測処理部142は、推定結果に基づいて、表示時刻Tにおける実オブジェクトの位置又は姿勢を推定する。実オブジェクト予測処理部142は、実オブジェクト認識処理部122から提供されたタイムスタンプが示す時刻をTとし、描画遅延検知部300が出力する遅延ΔTをTに加えた時刻をTと仮定して予測を行う。例えば、実オブジェクト予測処理部142は、実オブジェクトがTからTまで等速直線運動を行うと仮定して予測する。実オブジェクト予測処理部142は、予測した実オブジェクトの位置又は姿勢、及び予測に利用した時刻Tのタイムスタンプを、視界内状態予測処理部402へ提供する。実オブジェクト認識履歴144は、実オブジェクト認識処理部122から提供された、過去数回分の実オブジェクトの位置又は姿勢の認識結果、及びそれに付随するタイムスタンプの履歴である。
視点検知部200は、加速度センサ202及びジャイロセンサ204を含む。加速度センサ202は、視点移動を検知するため、HMD1にかかる加速度を取得するセンサである。加速度センサ202は、取得した加速度と、取得した時刻のタイムスタンプを視点認識処理部222に提供する。ジャイロセンサ204は、HMD1の角速度を取得するセンサである。ジャイロセンサ204は、取得した角速度と、取得した時刻のタイムスタンプを視点認識処理部222に提供する。
視点認識部220は、視点認識処理部222を含む。視点認識処理部222は、加速度センサ202及びジャイロセンサ204により取得された加速度及び角速度に基づいて、ユーザの視点の位置又は姿勢を認識する。視点認識処理部222は、認識結果、及び認識に用いたセンサ情報に付与されたタイムスタンプを、視点予測処理部242に提供する。
視点予測部240は、視点予測処理部242及び視点認識履歴244を含む。視点予測処理部242は、視点認識処理部222の認識結果と視点認識履歴244とを参照し、視点の位置又は姿勢(向き)の変化を推定する。視点予測処理部242は、推定結果に基づいて、時刻Tにおける視点の位置又は姿勢を推定する。視点予測処理部242は、視点認識処理部222から提供されたタイムスタンプが示す時刻をTとし、描画遅延検知部300が出力する遅延ΔTをTに加えた時刻をTと仮定して予測を行う。例えば、視点予測処理部242は、視点がTからTまで等速直線運動を行うと仮定して予測する。視点予測処理部242は、予測した視点の位置又は姿勢、及び予測に利用した時刻Tのタイムスタンプを、視界内状態予測処理部402へ提供する。視点認識履歴244は、視点認識処理部222から提供された、過去数回分の視点の位置又は姿勢の認識結果、及びそれに付随するタイムスタンプの履歴である。
描画遅延検知部300は、表示時刻Tが検知時刻Tに対してどの程度遅延しているかを検知する。描画遅延検知部300は、実オブジェクト検知部100及び視点検知部200のそれぞれが実空間の情報を取得した時点のタイムスタンプと、取得した情報を元にディスプレイコントローラ704が画像を出力する時点のタイムスタンプを比較し、その差分を遅延(ΔT)として検知する。描画遅延検知部300は、検知した遅延を、実オブジェクト予測部140、視点予測部240、及び視界内状態予測部400のそれぞれに提供する。
視界内状態予測部400は、視界内状態予測処理部402を含む。視界内状態予測処理部402は、実オブジェクト予測処理部142が予測した移動後の実オブジェクトの位置又は姿勢と、視点予測処理部242が予測した移動後の視点の位置又は姿勢に基づいて、視界内の状態を予測する。詳しくは、視界内状態予測処理部402は、ディスプレイコントローラ704の画像出力のタイミング(表示時刻T)において、仮想オブジェクトの重畳対象の実オブジェクトが、視界内のどの位置にどの姿勢で存在するかを予測する。
予測精度推定部500は、予測精度推定処理部502、予測関連情報履歴504及び精度低下要因推定部506を含む。予測精度推定処理部502は、視界内状態予測処理部402が行なった予測の精度を示す情報をアプリケーション604に提供する。予測関連情報履歴504は、予測精度推定処理部502が推定の際に使用した情報のログである。例えば、予測関連情報履歴504は、視界内状態予測処理部402の予測結果、予測に利用された実オブジェクト又は視点の位置又姿勢及びその各々に付随するタイムスタンプ、描画遅延検知部300が出力した遅延ΔTを含み得る。精度低下要因推定部506は、予測精度推定処理部502が、予測精度が低いと判断した場合に、予測精度が低下した要因を推定し、推定結果を示す情報をアプリケーション604に提供する。例えば、精度低下要因推定部506は、予測関連情報履歴504を参照し、実オブジェクトが不規則に動いているために予測精度が低い、ユーザが頭を大きく動かし視点が動いているために予測精度が低いといった要因を推定する。
出力制御部600は、GPU602及びアプリケーション604を含む。GPU602は、画像処理に関連する様々な演算を実行する処理装置である。GPU602は、アプリケーション604の指示に基づき描画を行い、描画結果をディスプレイコントローラ704へ提供する。アプリケーション604は、ユーザが使用する主機能を提供するソフトウェアである。アプリケーション604は、機能の一つとして、実空間上の実オブジェクトに仮想オブジェクトを重畳して表示するUIを提供する。アプリケーション604は、仮想オブジェクトを表示するにあたり、どのような仮想オブジェクトをどのような表現でどこに描画するかを決定し、GPU602に描画命令を発行することで描画を実施する。アプリケーション604は、仮想オブジェクトの表示内容を、予測精度推定処理部502の予測結果、及び精度低下要因推定部506の推定結果に応じて変化させる。
表示部700は、ディスプレイ702及びディスプレイコントローラ704を含む。ディスプレイ702は、ディスプレイコントローラ704の出力信号を受け、映像を表示するデバイスである。ディスプレイコントローラ704は、GPU602の描画結果を受け、ディスプレイ702に映像信号を出力するデバイスである。ディスプレイコントローラ704は、信号を出力する際、出力タイミングの時刻を示す情報をタイムスタンプとして出力し、描画遅延検知部300へ提供する。
以上、HMD1の構成例を説明した。ただし、本技術は、HMD1は、上記説明した構成例以外の構成を取り得る。以下、その一例を説明する。
<3.2.構成例2>
図24は、本実施形態に係るHMD1の論理的な構成の一例を示すブロック図である。図24に示すように、本構成例に係るHMD1は、実オブジェクト検知部100に関し図23に示した構成例と相違する。以下、相違点について説明する。
実オブジェクト検知部100は、カメラ102及びデプスセンサ104を含む。デプスセンサ104は、奥行き情報を取得するセンサである。デプスセンサ104は、カメラ102と同一の方向の奥行き情報を取得するように設置される。デプスセンサ104は、取得した奥行き情報、及び取得した時刻のタイムスタンプを、実オブジェクト認識処理部122に提供する。なお、カメラ102及びデプスセンサ104としての機能は、ステレオカメラとして実現されてもよい。
実オブジェクト認識処理部122は、カメラ102及びデプスセンサ104により取得された実空間の情報と、実オブジェクト辞書124に登録されている実オブジェクトの特徴とを比較し、重畳対象の実オブジェクトを発見及び認識する。また、実オブジェクト辞書124は、実オブジェクトをカメラ102で撮影した際に得られる特徴点の情報、及び実オブジェクトの立体形状に関する情報を含み得る。
<3.3.構成例3>
図25は、本実施形態に係るHMD1の論理的な構成の一例を示すブロック図である。図25に示すように、本構成例に係るHMD1は、視点検知部200に関し図23に示した構成例と相違する。以下、相違点について説明する。
視点検知部200は、加速度センサ202、ジャイロセンサ204及びカメラ206を含む。カメラ206は、ユーザの両眼を撮像範囲として設置される。カメラ206は、取得した撮像画像と、取得した時刻のタイムスタンプを視点認識処理部222に提供する。
視点認識処理部222は、加速度センサ202、ジャイロセンサ204、及びカメラ206により取得された、加速度、角速度及び撮像画像に基づいて、ユーザの視点の位置又は姿勢を認識する。
<<4.変形例>>
続いて、本実施形態に係る情報処理装置1の変形例を説明する。本変形例に係る情報処理装置1は、予測精度に応じてタイムラグの長さを調整する。
図26は、本変形例に係る情報処理装置1の論理的な構成の一例を示すブロック図である。図26に示すように、本変形例に係る情報処理装置1は、図5に示した構成要素に加えて、時間制御部800を含む。
時間制御部800は、予測精度に応じてタイムラグの長さを制御する機能を有する。上述したように、タイムラグが短いと予測精度の向上が期待される。そのため、時間制御部800は、予測精度が十分でない場合にタイムラグを短くし、予測精度が過度である場合にタイムラグを長くする。これにより、時間制御部800は、望ましい予測精度を維持することができる。なお、時間制御部800は、例えばCPU、GPU、又はセンサ等の動作速度を上げる又は下げることで、タイムラグの長さを制御し得る。もちろん、時間制御部800は、動作速度を変えずにタイムラグの長さを制御してもよい。
ここで、動作速度を上げると消費電力が増大し得る。そのため、タイムラグの長さの制御を別の観点から言えば、時間制御部800は、情報処理装置1の消費電力を制御することで、タイムラグの長さを制御してもよい。例えば、時間制御部800は、予測精度推定部500が推定する予測精度が閾値を超える範囲で電力消費を制御する。具体的には、時間制御部800は、予測精度が閾値を下回る場合に消費電力を上げて動作速度を高速化し、予測精度が閾値を超える場合に消費電力を下げて動作速度を低速化する。これにより、いたずらに消費電力が増大することを防止しつつ、予測精度を維持することができる。
なお、消費電力を削減するための技術のひとつとして、情報処理装置1(例えば、出力制御部600)は、例えばユーザが注目している領域に表示される仮想オブジェクト又は注目している仮想オブジェクトに関する処理を、他よりも優先してもよい。例えば、情報処理装置1は、他の仮想オブジェクトに関する処理の処理速度(フレームレート等)を低下させてもよい。これにより、ユーザビリディが低下しない範囲で、省電力化が実現される。
また、情報処理装置1は、動作モードとして通常モードと省電力モードとを有していてもよい。具体的には、情報処理装置1は、通常モードにおいては、消費電力を上げて動作速度を高速化する。また、情報処理装置1は、省電力モードにおいては、消費電力を下げて動作速度を低速化する。例えば、情報処理装置1は、屋内であれば充電が容易であるため通常モードで動作し、屋外であれば省電力モードで動作する、といった動作の切り替えを、自動的に行ってもよい。
<<5.ハードウェア構成例>>
最後に、図27を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図27は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図27に示す情報処理装置900は、例えば、図5、図23〜図26にそれぞれ示した情報処理装置1を実現し得る。本実施形態に係る情報処理装置1による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図27に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図5、図23〜図26にそれぞれ示した実オブジェクト認識部120、実オブジェクト予測部140、視点認識部220、視点予測部240、描画遅延検知部300、視界内状態予測部400、予測精度推定部500、及び出力制御部600を形成し得る。また、CPU901は、例えば、図26に示した時間制御部800を形成し得る。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
他にも、入力装置906は、ユーザに関する情報を検知する装置により形成され得る。例えば、入力装置906は、画像センサ(例えば、カメラ)、深度センサ(例えば、ステレオカメラ)、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ、力センサ等の各種のセンサを含み得る。また、入力装置906は、情報処理装置900の姿勢、移動速度等、情報処理装置900自身の状態に関する情報や、情報処理装置900の周辺の明るさや騒音等、情報処理装置900の周辺環境に関する情報を取得してもよい。また、入力装置906は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して装置の緯度、経度及び高度を含む位置情報を測定するGNSSモジュールを含んでもよい。また、位置情報に関しては、入力装置906は、Wi−Fi(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものであってもよい。
入力装置906は、例えば、図5、図23〜図26にそれぞれ示した実オブジェクト検知部100及び視点検知部200を形成し得る。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。上記表示装置は、例えば、図5、図23〜図26にそれぞれ示した表示部700を形成し得る。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<<6.まとめ>>
以上、図1〜図27を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、情報処理装置1は、表示部700に映る実オブジェクトの位置又は姿勢の予測に係る予測精度を推定して、推定結果に基づいて実オブジェクトに対応する仮想オブジェクトを表示させる。予測精度が高いほど表示の乱れが生じにくく、予測精度が低いほど表示の乱れが生じやすい。そのため、情報処理装置1は、予測精度を加味した表示を行うことで、仮想オブジェクトの表示の乱れを抑制し、表示の乱れに起因する不快感をより軽減することが可能となる。
また、情報処理装置1は、予測精度が高いほど仮想オブジェクトの表示が明確になり、予測精度が低いほど仮想オブジェクトの表示が曖昧になるようにする。これにより、仮想オブジェクトの表示にずれが発生すると見込まれる場合であっても、その影響を曖昧な表示により軽減して、ユーザの混乱又は不快感を軽減することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、情報処理装置1は仮想オブジェクトの位置又は姿勢を制御するものとして、位置と姿勢とを択一的に記載したが、本技術は係る例に限定されない。情報処理装置1は、位置及び姿勢の双方を制御してもよい。その場合、上記説明において、実オブジェクト及び仮想オブジェクトの位置及び姿勢に関して記載された「又は」を「及び」に読み替えればよい。
また、本明細書においてフローチャート及びシーケンス図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、
前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、
を備える情報処理装置。
(2)
前記出力制御部は、前記予測精度が高いほど対応する前記実オブジェクトとの関連性が高くなるよう前記仮想オブジェクトを表示させ、前記予測精度が低いほど対応する前記実オブジェクトとの関連性が低くなるよう前記仮想オブジェクトを表示させるための情報を出力する、前記(1)に記載の情報処理装置。
(3)
前記出力制御部は、前記予測精度が低いほど前記仮想オブジェクトをぼかして表示させるための情報を出力する、前記(1)又は(2)に記載の情報処理装置。
(4)
前記出力制御部は、前記仮想オブジェクトにモーションブラーを付加して表示させるための情報を出力する、前記(3)に記載の情報処理装置。
(5)
前記出力制御部は、前記仮想オブジェクトの外縁部ほど希薄に表示させるための情報を出力する、前記(3)に記載の情報処理装置。
(6)
前記出力制御部は、前記予測精度に応じて前記仮想オブジェクトの大きさを変化させる、前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記出力制御部は、前記予測精度に応じて前記仮想オブジェクトに適用する描画エフェクトを変化させる、前記(2)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記出力制御部は、前記仮想オブジェクトの表示を前記予測精度が低い要因に応じた表示にさせるための情報を出力する、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記出力制御部は、前記要因が視点の動きに起因するものである場合、前記仮想オブジェクトを非表示にさせるための情報を出力する、前記(8)に記載の情報処理装置。
(10)
前記出力制御部は、前記要因が前記実オブジェクトの動きに起因するものである場合、前記仮想オブジェクトにモーションブラーを付加して表示させるための情報を出力する、前記(8)に記載の情報処理装置。
(11)
前記予測精度推定部は、前記位置又は姿勢の予測に用いられる対象物の、動きの大きさ又は規則性の少なくともいずれかに基づいて前記予測精度を推定する、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記対象物は、前記実オブジェクトである、前記(11)に記載の情報処理装置。
(13)
前記対象物は、前記表示部である、前記(11)又は(12)に記載の情報処理装置。
(14)
前記対象物は、ユーザの眼である、前記(11)〜(13)のいずれか一項に記載の情報処理装置。
(15)
前記位置又は姿勢の予測は、予測のための情報が検知される時点から前記仮想オブジェクトが表示される時点までの時間に係る予測である、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記予測精度に応じて前記時間の長さを制御する時間制御部をさらに備える、前記(15)に記載の情報処理装置。
(17)
前記時間制御部は、前記情報処理装置の消費電力を制御することで、前記時間の長さを制御する、前記(16)に記載の情報処理装置。
(18)
前記予測精度推定部は、前記時間が長いほど前記予測精度が低く、前記時間が短いほど前記予測精度が高いと推定する、前記(15)〜(17)のいずれか一項に記載の情報処理装置。
(19)
前記出力制御部は、予測された前記実オブジェクトの位置に対応する位置に、又は予測された前記実オブジェクトの姿勢に対応する姿勢で前記仮想オブジェクトを表示させるための情報を出力する、前記(1)〜(18)のいずれか一項に記載の情報処理装置。
(20)
前記表示部は、実空間にある前記実オブジェクトを透過しつつ前記仮想オブジェクトを表示する透過型の表示装置である、前記(1)〜(19)のいずれか一項に記載の情報処理装置。
(21)
前記表示部は、撮像された前記実オブジェクトをリアルタイムに表示しつつ前記仮想オブジェクトをさらに表示する非透過型の表示装置である、前記(1)〜(19)のいずれか一項に記載の情報処理装置。
(22)
実オブジェクトの位置又は姿勢の予測に係る予測精度をプロセッサにより推定することと、
前記予測精度の推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力することと、
を含む情報処理方法。
(23)
コンピュータを、
実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、
前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、
として機能させるためのプログラム。
1 情報処理装置
100 実オブジェクト検知部
120 実オブジェクト認識部
140 実オブジェクト予測部
200 視点検知部
220 視点認識部
240 視点予測部
300 描画遅延検知部
400 視界内状態予測部
500 予測精度推定部
600 出力制御部
700 表示部
800 時間制御部

Claims (20)

  1. 実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、
    前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、
    を備え
    前記予測精度推定部は、前記予測精度が低いと判定された場合に、前記予測精度が低い要因を推定し、
    前記出力制御部は、前記要因が視点の動きに起因するものである場合と、前記要因が視点の動きに起因するものではない場合とで、前記仮想オブジェクトの描画手法を異なる手法に切り替えて表示させるための情報を出力する、
    情報処理装置。
  2. 前記出力制御部は、前記予測精度が高いほど対応する前記実オブジェクトとの関連性が高くなるよう前記仮想オブジェクトを表示させ、前記予測精度が低いほど対応する前記実オブジェクトとの関連性が低くなるよう前記仮想オブジェクトを表示させるための情報を出力する、請求項1に記載の情報処理装置。
  3. 前記出力制御部は、前記予測精度が低いほど前記仮想オブジェクトをぼかして表示させるための情報を出力する、請求項1に記載の情報処理装置。
  4. 前記出力制御部は、前記仮想オブジェクトにモーションブラーを付加して表示させるための情報を出力する、請求項3に記載の情報処理装置。
  5. 前記出力制御部は、前記仮想オブジェクトの外縁部ほど希薄に表示させるための情報を出力する、請求項3に記載の情報処理装置。
  6. 前記出力制御部は、前記予測精度に応じて前記仮想オブジェクトの大きさを変化させる、請求項2に記載の情報処理装置。
  7. 前記出力制御部は、前記予測精度に応じて前記仮想オブジェクトに適用する描画エフェクトを変化させる、請求項2に記載の情報処理装置。
  8. 前記出力制御部は、前記仮想オブジェクトの表示を前記予測精度が低い要因に応じた表示にさせるための情報を出力する、請求項1に記載の情報処理装置。
  9. 前記出力制御部は、前記要因が視点の動きに起因するものである場合、前記仮想オブジェクトを非表示にさせるための情報を出力する、請求項8に記載の情報処理装置。
  10. 前記出力制御部は、前記要因が前記実オブジェクトの動きに起因するものである場合、前記仮想オブジェクトにモーションブラーを付加して表示させるための情報を出力する、請求項8に記載の情報処理装置。
  11. 前記予測精度推定部は、前記位置又は姿勢の予測に用いられる対象物の、動きの大きさ又は規則性の少なくともいずれかに基づいて前記予測精度を推定する、請求項1に記載の情報処理装置。
  12. 前記対象物は、前記実オブジェクトである、請求項11に記載の情報処理装置。
  13. 前記対象物は、前記表示部である、請求項11に記載の情報処理装置。
  14. 前記対象物は、ユーザの眼である、請求項11に記載の情報処理装置。
  15. 前記位置又は姿勢の予測は、予測のための情報が検知される時点から前記仮想オブジェクトが表示される時点までの時間に係る予測である、請求項1に記載の情報処理装置。
  16. 前記予測精度に応じて前記時間の長さを制御する時間制御部をさらに備える、請求項15に記載の情報処理装置。
  17. 前記予測精度推定部は、前記時間が長いほど前記予測精度が低く、前記時間が短いほど前記予測精度が高いと推定する、請求項15に記載の情報処理装置。
  18. 前記出力制御部は、予測された前記実オブジェクトの位置に対応する位置に、又は予測された前記実オブジェクトの姿勢に対応する姿勢で前記仮想オブジェクトを表示させるための情報を出力する、請求項1に記載の情報処理装置。
  19. 実オブジェクトの位置又は姿勢の予測に係る予測精度をプロセッサにより推定することと、
    前記予測精度の推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力することと、
    を含み、
    前記推定することは、前記予測精度が低いと判定された場合に、前記予測精度が低い要因を推定し、
    前記出力することは、前記要因が視点の動きに起因するものである場合と、前記要因が視点の動きに起因するものではない場合とで、前記仮想オブジェクトの描画手法を異なる手法に切り替えて表示させるための情報を出力する、
    情報処理方法。
  20. コンピュータを、
    実オブジェクトの位置又は姿勢の予測に係る予測精度を推定する予測精度推定部と、
    前記予測精度推定部による推定結果に基づいて、前記実オブジェクトに対応する仮想オブジェクトを表示部に表示させるための情報を出力する出力制御部と、
    として機能させ
    前記予測精度推定部は、前記予測精度が低いと判定された場合に、前記予測精度が低い要因を推定し、
    前記出力制御部は、前記要因が視点の動きに起因するものである場合と、前記要因が視点の動きに起因するものではない場合とで、前記仮想オブジェクトの描画手法を異なる手法に切り替えて表示させるための情報を出力する、
    プログラム。
JP2017539717A 2015-09-16 2016-06-14 情報処理装置、情報処理方法及びプログラム Active JP6844542B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015182380 2015-09-16
JP2015182380 2015-09-16
PCT/JP2016/067709 WO2017047178A1 (ja) 2015-09-16 2016-06-14 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017047178A1 JPWO2017047178A1 (ja) 2018-07-05
JP6844542B2 true JP6844542B2 (ja) 2021-03-17

Family

ID=58288617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017539717A Active JP6844542B2 (ja) 2015-09-16 2016-06-14 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10977774B2 (ja)
EP (1) EP3352050A4 (ja)
JP (1) JP6844542B2 (ja)
CN (1) CN108027652B (ja)
WO (1) WO2017047178A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018225187A1 (ja) * 2017-06-07 2018-12-13 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理装置、サーバ装置、画像提供方法および画像生成方法
WO2019026713A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN110998674B (zh) 2017-08-09 2023-11-24 索尼公司 信息处理装置、信息处理方法和程序
JP6630322B2 (ja) * 2017-08-30 2020-01-15 シナノケンシ株式会社 映像解析方法
DE102017217923A1 (de) 2017-10-09 2019-04-11 Audi Ag Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug
US11263456B2 (en) 2017-10-31 2022-03-01 Sony Corporation Virtual object repositioning versus motion of user and perceived or expected delay
CN107918955A (zh) * 2017-11-15 2018-04-17 百度在线网络技术(北京)有限公司 增强现实方法和装置
KR102521557B1 (ko) * 2018-01-04 2023-04-14 삼성전자주식회사 스크롤 입력에 기반하여 이미지 표시를 제어하는 전자 장치 및 방법
CA3088248C (en) * 2018-01-11 2022-10-04 Nikon-Essilor Co., Ltd. Image generating device, eyeglass lens selection system, method for image generation and program
WO2019150781A1 (ja) * 2018-01-30 2019-08-08 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE102018201661A1 (de) * 2018-02-05 2019-08-08 Audi Ag Verfahren zum Überlagern eines virtuellen graphischen Objekts über eine reale Umgebung mittels einer AR-Anzeigeeinrichtung für Augmented-Reality sowie Kraftfahrzeug
EP3751422A4 (en) * 2018-02-07 2021-04-21 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP2019179966A (ja) * 2018-03-30 2019-10-17 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
US11378805B2 (en) 2018-06-25 2022-07-05 Maxell, Ltd. Head-mounted display, head-mounted display linking system, and method for same
CN112513944A (zh) * 2018-07-23 2021-03-16 奇跃公司 用于头部姿势预测的深度预测器循环神经网络
JP2021182174A (ja) * 2018-08-07 2021-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
CN112585673A (zh) * 2018-08-29 2021-03-30 索尼公司 信息处理设备、信息处理方法及程序
JP7418075B2 (ja) 2018-09-18 2024-01-19 キヤノン株式会社 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム
US11048465B2 (en) 2018-09-18 2021-06-29 Canon Kabushiki Kaisha Imaging display device, wearable device, and imaging display system
JP7093418B2 (ja) 2018-09-20 2022-06-29 富士フイルム株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2020071029A1 (ja) 2018-10-04 2020-04-09 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体
JP7175715B2 (ja) * 2018-10-31 2022-11-21 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10812771B1 (en) * 2019-06-12 2020-10-20 At&T Intellectual Property I, L.P. Methods, systems, and devices for adjusting image content for streaming panoramic video content
US10699124B1 (en) * 2019-09-09 2020-06-30 Ar, Llc Augmented reality content selection and display based on printed objects having security features
US11961294B2 (en) 2019-09-09 2024-04-16 Techinvest Company Limited Augmented, virtual and mixed-reality content selection and display
DE112021003465T5 (de) 2020-06-30 2023-05-17 Sony Group Corporation Informationsprozessor, informationsverarbeitungsverfahren und speichermedium
EP4207088A4 (en) * 2020-10-07 2024-03-06 Samsung Electronics Co., Ltd. AUGMENTED REALITY DISPLAY METHOD AND ELECTRONIC DEVICE FOR USING IT
CN112687222B (zh) * 2020-12-28 2021-12-17 北京大学 基于脉冲信号的显示方法、装置、电子设备及介质
JP2022123692A (ja) * 2021-02-12 2022-08-24 ソニーグループ株式会社 画像処理装置、画像処理方法、画像処理システム
CN116964637A (zh) * 2021-03-08 2023-10-27 索尼集团公司 信息处理装置、信息处理方法、程序和信息处理系统
WO2022241701A1 (zh) * 2021-05-20 2022-11-24 华为技术有限公司 一种图像处理方法及装置
US11960345B2 (en) * 2021-05-25 2024-04-16 Samsung Electronics Co., Ltd. System and method for controlling operational modes for XR devices for performance optimization
EP4369177A1 (en) * 2021-07-31 2024-05-15 Huawei Technologies Co., Ltd. Display method, device and system
US11759711B2 (en) * 2021-09-28 2023-09-19 Sony Group Corporation Method for quasi-random placement of virtual items in an extended reality (XR) space
WO2023140110A1 (ja) * 2022-01-20 2023-07-27 ソニーグループ株式会社 端末装置、位置姿勢推定方法、およびプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3218730B2 (ja) * 1992-10-19 2001-10-15 株式会社ニコン 予測機能を有する焦点調節装置
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
CN100478849C (zh) * 2007-04-10 2009-04-15 南京航空航天大学 基于多加速度传感器的虚拟现实头盔防眩晕系统及方法
JP5047090B2 (ja) * 2008-07-31 2012-10-10 キヤノン株式会社 システム
JP5091976B2 (ja) 2010-04-09 2012-12-05 株式会社東芝 映像表示装置、映像表示方法及び映像表示プログラム
JP2011258159A (ja) 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
JP5732988B2 (ja) 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
KR101896026B1 (ko) * 2011-11-08 2018-09-07 삼성전자주식회사 휴대 단말기에서 움직임 블러를 생성하는 장치 및 방법
US20140176591A1 (en) * 2012-12-26 2014-06-26 Georg Klein Low-latency fusing of color image data
US9618749B2 (en) * 2013-08-30 2017-04-11 Intel Corporation Nausea and seizure detection, prediction, and mitigation for head-mounted displays
US9607409B2 (en) * 2013-12-23 2017-03-28 Empire Technology Development Llc Suppression of real features in see-through display
US10565925B2 (en) * 2014-02-07 2020-02-18 Samsung Electronics Co., Ltd. Full color display with intrinsic transparency
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
CN104539929B (zh) * 2015-01-20 2016-12-07 深圳威阿科技有限公司 带有运动预测的立体图像编码方法和编码装置
KR101919077B1 (ko) * 2017-08-24 2018-11-16 에스케이텔레콤 주식회사 증강 현실 표시 방법 및 장치
US10425593B2 (en) * 2017-10-19 2019-09-24 Paypal, Inc. Digital image filtering and post-capture processing using user specific data
US10375313B1 (en) * 2018-05-07 2019-08-06 Apple Inc. Creative camera
US10482583B1 (en) * 2018-05-10 2019-11-19 Google Llc Generating and displaying blur in images

Also Published As

Publication number Publication date
EP3352050A1 (en) 2018-07-25
US20180240220A1 (en) 2018-08-23
EP3352050A4 (en) 2019-05-22
CN108027652A (zh) 2018-05-11
US10977774B2 (en) 2021-04-13
JPWO2017047178A1 (ja) 2018-07-05
WO2017047178A1 (ja) 2017-03-23
CN108027652B (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
JP6844542B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11288807B2 (en) Method, electronic device and storage medium for segmenting image
JP6780642B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN108700982B (zh) 信息处理设备、信息处理方法以及程序
WO2016157677A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN112334869A (zh) 电子设备及其控制方法
KR101920983B1 (ko) 헤드 마운트형 디스플레이 상에서의 정보의 디스플레이
US11244496B2 (en) Information processing device and information processing method
JP2014526157A (ja) ヘッドマウントディスプレイの全視野の分類
WO2021147465A1 (zh) 一种图像渲染方法、电子设备及系统
JP2024503881A (ja) コンテキストアウェアエクステンデッドリアリティシステム
US11907420B2 (en) Managing devices having additive displays
US20220189433A1 (en) Application programming interface for setting the prominence of user interface elements
JP2017182247A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7400721B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11366318B2 (en) Electronic device and control method thereof
US20240219998A1 (en) Method And Device For Dynamic Sensory And Input Modes Based On Contextual State
US20240112303A1 (en) Context-Based Selection of Perspective Correction Operations
US20240023830A1 (en) Method and Device for Tiered Posture Awareness
JP7400810B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2023009318A1 (en) Method and device for enabling input modes based on contextual state

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R151 Written notification of patent or utility model registration

Ref document number: 6844542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151