JP2014115457A - 情報処理装置および記録媒体 - Google Patents

情報処理装置および記録媒体 Download PDF

Info

Publication number
JP2014115457A
JP2014115457A JP2012269270A JP2012269270A JP2014115457A JP 2014115457 A JP2014115457 A JP 2014115457A JP 2012269270 A JP2012269270 A JP 2012269270A JP 2012269270 A JP2012269270 A JP 2012269270A JP 2014115457 A JP2014115457 A JP 2014115457A
Authority
JP
Japan
Prior art keywords
unit
display
image
user
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012269270A
Other languages
English (en)
Other versions
JP6094190B2 (ja
JP2014115457A5 (ja
Inventor
Yoichiro Sako
曜一郎 佐古
Takatoshi Nakamura
隆俊 中村
Hiroyuki Hanatani
博幸 花谷
Kazuhiro Watanabe
一弘 渡邊
Kazuyuki Sakota
和之 迫田
Mitsuru Takehara
充 竹原
Kazunori Hayashi
和則 林
Yasunori Kamata
恭則 鎌田
Takayasu Kon
孝安 今
Akira Tange
明 丹下
Tomoya Onuma
智也 大沼
Yuki Koga
有希 甲賀
Kohei Asada
宏平 浅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012269270A priority Critical patent/JP6094190B2/ja
Priority to US14/093,877 priority patent/US9245389B2/en
Priority to CN201310641526.3A priority patent/CN103869468B/zh
Publication of JP2014115457A publication Critical patent/JP2014115457A/ja
Publication of JP2014115457A5 publication Critical patent/JP2014115457A5/ja
Priority to US15/006,102 priority patent/US20160140768A1/en
Application granted granted Critical
Publication of JP6094190B2 publication Critical patent/JP6094190B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】実世界において、ユーザ自身を俯瞰する三人称視点の画像を表示制御することが可能な情報処理装置および記録媒体を提供する。
【解決手段】表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する制御、または前記表示部を透過する制御を行う第1の表示制御モードと、ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードとを有する表示制御部と、前記ユーザからの指示に応じて、前記表示制御部による表示制御モードを、前記第1の表示制御モードから前記第2の表示制御モードに切り替えるよう制御する切替制御部と、を備える、情報処理装置。
【選択図】図1

Description

本開示は、情報処理装置および記録媒体に関する。
近年、3次元グラフィックスで表示された仮想空間、すなわち3次元仮想空間に、アバタと称されるユーザ自身を表すオブジェクトを送り込み、仮想空間内を歩き回ったり、他のユーザのアバタと対話(チャット)したりすることができるシステムが提案されている。また、仮想空間を、2次元グラフィックスよりも3次元グラフィックスで描画した方が、ユーザは、自身がその仮想空間にいるかのような感覚を享受することができる。
このような3次元仮想空間においては、現実には想定し難い事象や人間が空想する世界の事象を表現することができる。例えば、下記特許文献1では、3次元仮想空間において、一人称視点(パイロットアバター視点)と三人称視点を切り替えることで、自身が仮想世界にいるかのような感覚および体外離脱をしているかのような感覚の双方をユーザに提供する技術が提案されている。
特開平11−161812号公報
しかしながら、特許文献1は、仮想空間における体外離脱感覚を提供する技術であって、現実世界において実際に体外離脱をしているかのような感覚をユーザに提供することについては何ら言及されていない。
そこで、本開示では、実世界において、ユーザ自身を俯瞰する三人称視点の画像を表示制御することが可能な、新規かつ改良された情報処理装置および記録媒体を提案する。
本開示によれば、表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する制御、または前記表示部を透過する制御を行う第1の表示制御モードと、ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードとを有する表示制御部と、前記ユーザからの指示に応じて、前記表示制御部による表示制御モードを、前記第1の表示制御モードから前記第2の表示制御モードに切り替えるよう制御する切替制御部と、を備える、情報処理装置を提案する。
本開示によれば、コンピュータに、表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する制御、または前記表示部を透過する制御を行う第1の表示制御モードと、ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードとを有する表示制御部と、前記ユーザからの指示に応じて、前記表示制御部による表示制御モードを、前記第1の表示制御モードから前記第2の表示制御モードに切り替えるよう制御する切替制御部、として機能させるためのプログラムが記録された記録媒体を提案する。
以上説明したように本開示によれば、実世界において、ユーザ自身を俯瞰する三人称視点の画像を表示制御することが可能となる。
本開示の一実施形態による表示制御システムの概要を説明するための図である。 本開示の一実施形態によるHMDの外観を示すブロック図である。 本開示の一実施形態によるHMDの内部構成例を示すブロック図である。 本開示の一実施形態による表示制御処理を示すフローチャートである。 第2の撮像画像にユーザの位置を示すインジケータを重畳表示する場合について説明するための図である。 本実施形態による外側表示部に表示する体外離脱中であることを表す画像の一例を示す図である。 本実施形態による外側表示部に表示する体外離脱中であることを表す画像の一例を示す図である。 仮想カメラを想定した場合の表示制御システムについて説明するための図である。 仮想カメラを想定した場合の表示制御システムにおける表示制御処理を示すフローチャートである。 サーバを含む表示制御システムにおける表示制御処理を示すフローチャートである。 サーバを含む表示制御システムにおける他の表示制御処理を示すフローチャートである。 スマートフォンの表示部に体外離脱視点の風景(第2の撮像画像)を表示する第1のシステム構成例について説明するための図である。 スマートフォンの表示部に体外離脱視点の風景(第2の撮像画像)を表示する第2のシステム構成例について説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による表示制御システムの概要
2.HMDの構成および動作処理
2−1.HMDの外観
2−2.HMDの内部構成
2−3.表示制御処理
2−4.補足
3.他の実施形態
3−1.仮想カメラ
3−2.サーバによる制御処理
3−3.他のデバイス例
4.まとめ
<<1.本開示の一実施形態による表示制御システムの概要>>
図1は、本開示の一実施形態による表示制御システムの概要を説明するための図である。図1に示すように、本実施形態による表示制御システムは、HMD(Head Mounted Display)1と外部カメラ32を含む。HMD1と外部カメラ32は、Wi−Fi等の無線通信によりデータの送受信を行う。
HMD1は、図1に示すようにユーザPに装着される眼鏡型のウェアラブル装置である。HMD1は、装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2が配置される構成となっている。
表示部2は透過型であってもよく、HMD1により表示部2がスルー状態、即ち透明または半透明の状態とされることで、ユーザPは、HMD1を眼鏡のように常時装着していても通常の生活には支障がない。
したがって、表示部2が透過状態に制御されている場合、ユーザPは、図1左に示すように表示部2を介してユーザ視点(一人称視点)の風景2−1を視認することができる。若しくは、HMD1は、HMD1に設けられた、ユーザの視線方向を撮像する撮像部(第1の撮像部)により撮像した撮像画像をリアルタイムで表示部2に表示することで、図1左に示すようにユーザ視点(一人称視点)の風景2−1を実質的に提供することが可能である。このように、表示部2を透過制御、若しくは第1の撮像部で撮像したユーザ視点の第1の撮像画像を表示する制御により、ユーザ視点(一人称視点)の風景を提供するモードを、本明細書では第1の表示制御モードと称する。
ここで、上述した特許文献1では、パイロットアバタの視点から、パイロットアバタを視認する三人称視点に切り替えることで体外離脱感覚を提供しているが、これは仮想空間における人工画像(CG画像)の提供に過ぎない。これに対し、本開示による表示制御システムでは、現実世界において実際に体外離脱をしているかのような感覚をユーザに提供することが可能である。
具体的には、本実施形態によるHMD1は、ユーザPからの視点切替指示(体外離脱指示)に応じて、ユーザ自身を俯瞰する実世界の三人称視点の風景(撮影画像)を表示部2に表示する。このような体外離脱視点(三人称視点)の風景を表示するモードを、本明細書において第2の表示制御モードと称する。
例えば、図1中央および図1右に示すように、HMD1は、ユーザPからの指示に応じて、表示部2に、ユーザPを画角に含む外部カメラ32(第2の撮像部)で撮像された第2の撮像画像2−2、2−3をリアルタイムで表示するよう制御する。撮像画像2−2、2−3は、図1に示すように、ユーザPを画角に含む所定の三人称視点からの映像であって、例えばHMD1からの指示に応じて、または自動的に外部カメラ32がズーム制御を行うことで取得され、HMD1の表示部2に順次表示される。撮像画像2−2、2−3が順次表示部2にリアルタイムで表示されることで、ユーザPは、現実世界において実際に体外離脱をして、上空に浮かんでいくような感覚を享受することができる。
以上、本実施形態による表示制御システムの概要について説明した。続いて、本実施形態による表示制御システムに含まれるHMD1(情報処理装置)の構成および動作処理について、図2〜図4を参照して説明する。
なお、上述した外部カメラ32(第2の撮像部)は、室内や室外に設置されている防犯・監視用の定点カメラであってもよいし、飛行物体(ラジオコントロールされる小型装置や飛行船等)に搭載されるカメラであってもよい。特に大量のカメラが世界の至るところに配置されている環境においては、どこに居てもHMD1が周囲に設置されているカメラをサーチして、ユーザPを画角に含むカメラからユーザPを撮像した画像(第2の撮像画像)をリアルタイムで取得することができる。
さらに、外部カメラ32(第2の撮像部)は、ユーザPの頭部に装着されたHMD1から伸びたアームの先に取り付けられ、ユーザPを画角に含めて撮像することが可能なカメラ(潜望鏡型カメラ)であってもよい。
<<2.HMDの構成および動作処理>>
<2−1.HMDの外観>
図2は、本実施形態によるHMD1の外観を説明するための図である。図2に示す眼鏡型のHMD1は、シースルーHMDとも称され、上述したように表示部2が透過状態に制御され得る。
具体的には、HMD1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを有し、図2に示すように両耳殻にかけられることでユーザに装着される。
そしてこのHMD1は、図2に示すような装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2が配置される構成とされている。この表示部2には、例えば液晶パネルが用いられ、HMD1は液晶パネルの透過率を制御することで、図2に示すようなスルー状態、即ち透明または半透明の状態(透過状態または半透過状態)にできる。表示部2がスルー状態にされることで、HMD1を眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
表示部2は、撮像レンズ3aで撮像された現実空間の撮像画像を表示部2に表示することも可能である。また、表示部2は、HMD1が外部機器から受信したコンテンツや、HMD1の記憶媒体に記憶されるコンテンツを再生表示することも可能である。外部機器とは、図1に示す外部カメラ32の他、携帯電話端末、スマートフォン、パーソナルコンピュータ、サーバ等の情報処理装置である。
表示部2に再生表示されるコンテンツとしては、上述したような外部カメラ32で撮像された、ユーザPを画角に含む三人称視点の撮像画像2−2、2−3の他、映画やビデオクリップなどの動画コンテンツや、電子書籍等のテキストデータであってもよい。また、かかるコンテンツは、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲームプログラムに基づくゲーム画像など、表示対象となるあらゆるデータが想定される。
また、図2に示すように、ユーザPが装着した状態において、ユーザが視認する方向を被写体方向として撮像するように、前方に向けて撮像レンズ3aが配置されている。さらに、撮像レンズ3aによる撮像方向に対して照明を行う発光部4aが設けられる。発光部4aは例えばLED(Light Emitting Diode)により形成される。
また、図2では左耳側しか示されていないが、装着状態でユーザの右耳孔および左耳孔に挿入できる一対のイヤホンスピーカ5aが設けられる。
また右眼用の表示部2の右方と、左眼用の表示部2の左方に、外部音声を集音するマイクロホン6a、6bが配置される。
なお図1に示すHMD1の外観は一例であり、HMD1をユーザが装着するための構造は多様に考えられる。HMD1は、一般に眼鏡型、あるいは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部2が設けられていればよい。また表示部2は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
またイヤホンスピーカ5aは、左右のステレオスピーカとせずに、一方の耳にのみ装着するために1つ設けられるのみでもよい。またマイクロホンも、マイクロホン6a、6bのうちの一方でもよい。
また、マイクロホン6a、6bやイヤホンスピーカ5aを備えない構成も考えられる。また発光部4aを設けない構成も考えられる。
以上、本実施形態によるHMD1の外観について説明した。なお、本実施形態では、ユーザPに装着されるメガネ型のHMD1の表示部2が表示制御され、HMD1において体外離脱視点の風景(第2の撮像画像)を表示する場合について説明しているが、本実施形態はHMD1に限定されない。例えば、本実施形態による表示制御システムは、スマートフォン、携帯電話端末、PDA(Personal Digital Assistants)、PC(Personal Computer)、タブレット端末、デジタルカメラ、デジタルビデオカメラ、携帯用音楽再生装置、携帯用映像処理装置、または携帯用ゲーム機器等の表示部に、体外離脱視点の風景(第2の撮像画像)を表示するよう制御してもよい。
<2−2.HMDの内部構成>
次に、本実施形態によるHMD1の内部構成について図3を参照して説明する。図3は、図2に示すHMD1の内部構成例を示すブロック図である。
図3に示すように、HMD1は、表示部2、撮像部3、照明部4、音声出力部5、音声入力部6、システムコントローラ10、撮像制御部11、表示画像処理部12、表示駆動部13、表示制御部14、撮像信号処理部15、音声信号処理部16、画像解析部17、照明制御部18、GPS受信部21、ストレージ部25、通信部26、画像入出力コントロール27、音声入出力コントロール28、および音声合成部29を有する。
(システムコントローラ)
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インタフェース部を備えたマイクロコンピュータにより構成され、HMD1の各構成を制御する。
また、システムコントローラ10は、図2に示すように、HMD1の位置を特定する位置特定部10a、HMD1の動作を制御する動作制御部10bとして機能する。
位置特定部10aは、GPS受信部21、画像解析部17、または音声信号処理部16から出力されるデータに基づいて、HMD1の現在位置(現在地)を特定する。具体的には、例えば位置特定部10aは、GPS受信部21から実時間で受信される現在位置情報(緯度経度等)を現在位置として特定する。また、位置特定部10aは、実時間で撮像部3により撮影され、画像解析部17により解析された撮影画像を現在位置として特定してもよい。また、位置特定部10aは、実時間で音声入力部6により集音され、音声信号処理部16により処理された音声で示された名称を現在位置として特定してもよい。なお、名称とは、住所、地名、施設名(公園名含む)、または建物名等である。
動作制御部10bは、HMD1の各動作を制御する。より具体的には、本実施形態による動作制御部10bは、ユーザからの体外離脱視点への切替指示に応じて、表示制御部14の表示制御モードを、第1の表示制御モードから第2の表示制御モードに切り替えるよう制御する切替制御部として機能する。上述したように、第1の表示制御モードでは一人称視点の景色がユーザPに提供され、第2の表示制御モードでは体外離脱視点すなわち三人称視点からユーザPを撮像した撮像画像がリアルタイムでユーザPに提供される。
また、動作制御部10b(切替制御部)は、ユーザからの体外離脱視点への切替指示を、ボタン/スイッチ操作入力、視線入力、音声入力、ジェスチャ入力、筋電入力、または脳波入力により受け付けることができる。
ボタン/スイッチ操作入力とは、HMD1に設けられた物理的なボタン/スイッチ(不図示)による操作入力である。ユーザPは、体外離脱視点への切替を指示するためのボタン/スイッチを押下することで指示を行うことができる。
また、視線入力とは、ユーザPの眼を撮影するようHMD1において内側方向に向けて設けられた撮像レンズ(不図示)により撮像された画像に基づいて検出される指示入力の方法である。動作制御部10bは、撮像されたユーザPの眼の瞳孔の動きを追跡して視線の向きを算出することで、ユーザがどこを見つめているか(視線方向)を特定することができる。ユーザPは、所定方向に所定時間視線を向けたり、瞬きを所定回数行ったりすることで、体外離脱視点への切替を指示することができる。
また、音声入力とは、音声入力部6により集音され、音声信号処理部16において音声認識されることで検出され得る指示入力の方法である。例えば、ユーザPは、「体外離脱」等と発声することで体外離脱視点への切替を指示することができる。
また、ジェスチャ入力とは、ユーザPの手によるジェスチャを撮像レンズ3aで撮影し、画像解析部17で認識され得る指示入力の方法である。なお、ジェスチャ入力は、HMD1に設けられる加速度センサやジャイロにより検出され得るユーザPの頭部の動きによる指示入力の方法であってもよい。
また、筋電入力とは、ユーザPがウィンク等で左眼、右眼、または両眼を開閉する際に発生する筋電の変化を、HMD1に設けられた筋電センサ(不図示)で測定し、その測定結果に基づいて検出される指示入力の方法である。ユーザPは、例えば、左眼でウィンクすることにより体外離脱視点への切替を指示し、右眼でウィンクすることにより、上空からのようなさらに高い位置への体外離脱視点へ導き、両眼をつぶることで、体外離脱視点を元の視点(一人称視点)に戻すことができる。
さらに、脳波入力とは、ユーザPがリラックスしたり、集中したりすること等で起こる脳波の変化を、HMD1に設けられた脳波センサ(不図示)で測定し、その測定結果に基づいて検出される指示入力の方法である。ユーザPは、例えば、体外離脱をイメージして集中することにより、体外離脱視点への切替を指示することができる。
(撮像部)
撮像部3は、撮像レンズ3a、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
また、図2に示すようにユーザPの視認方向を被写体方向として撮影するよう前方に向けて設けられている撮像レンズ3aを用いて撮像した撮像画像は、ユーザ視点(一人称視点)の第1の撮像画像である。また、このようなユーザ視点の第1の撮像画像を撮像することができる撮像部3は、本開示による第1の撮像部の一例である。
(撮像信号処理部)
撮像信号処理部15は、撮像部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/D(アナログ/デジタル)コンバータを備える。これにより、撮像信号処理部15は、デジタルデータとしての撮像信号を得る。また、撮像信号処理部15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。
(撮像制御部)
撮像制御部11は、システムコントローラ10からの指示に基づいて、撮像部3及び撮像信号処理部15の動作を制御する。例えば撮像制御部11は、撮像部3、撮像信号処理部15の動作のオン/オフを制御する。また撮像制御部11は撮像部3に対して、オートフォーカス、自動露出調整、絞り調整、ズームなどの動作を実行させるための制御(モータ制御)を行うものとされる。また撮像制御部11はタイミングジェネレータを備え、固体撮像素子及び撮像信号処理部15のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに撮像制御部11は、固体撮像素子及び撮像信号処理部15における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整(例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度調整は、撮像レンズ系における波長フィルタの挿入や、撮像信号に対する波長フィルタ演算処理により可能である。これらの場合、撮像制御部11は、波長フィルタの挿入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。
(画像入出力コントロール)
上記撮像部3で撮像され、撮像信号処理部15で処理された撮像信号(撮像による画像データ)は画像入出力コントロール27に供給される。画像入出力コントロール27は、システムコントローラ10の制御に応じて、画像データの転送を制御する。即ち撮像系(撮像信号処理部15)、表示系(表示画像処理部12)、ストレージ部25、通信部26の間の画像データの転送を制御する。
例えば画像入出力コントロール27は、撮像信号処理部15で処理された撮像信号としての画像データを、表示画像処理部12に供給したり、ストレージ部25に供給したり、通信部26に供給する動作を行う。また画像入出力コントロール27は、例えばストレージ部25から再生された画像データを、表示画像処理部12に供給したり、通信部26に供給する動作を行う。また画像入出力コントロール27は例えば通信部26で受信された画像データ(外部カメラ32から受信した第2の撮像画像等)を、表示画像処理部12に供給したり、ストレージ部25に供給する動作を行う。
(表示画像処理部)
表示画像処理部12は、例えばいわゆるビデオプロセッサとされ、供給された画像データに対して各種表示処理を実行できる部位とされる。例えば画像データの輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。
(表示駆動部)
表示駆動部13は、表示画像処理部12から供給される画像データを、例えば液晶ディスプレイとされる表示部2において表示させるための画素駆動回路で構成されている。即ち表示部2においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。また表示駆動部13は、表示制御部14の指示に従って、表示部2の各画素の透過率を制御し、表示部2をスルー状態にすることもできる。
(表示制御部)
表示制御部14は、システムコントローラ10の制御に応じて、表示画像処理部12の処理動作や表示駆動部13の動作を制御する。具体的には、表示制御部14は、表示画像処理部12に対して、上述した画像データの輝度レベル調整等を行うよう制御する。
また、本実施形態による表示制御部14は、第1の表示制御モードと第2の表示制御モードとを有し、システムコントローラ10の動作制御部10b(切替制御部)による制御に従って、表示制御モードを切り替える。第1の表示制御モードとは、表示部2に撮像部3(第1の撮像部)が撮像するユーザ視点の第1の撮像画像を表示する制御、または表示部2を透過する制御を行う表示制御モードである。これにより、表示制御部14は、ユーザPに、ユーザ視点(一人称視点)の風景を提供することができる。
また、第2の表示制御モードとは、ユーザPを画角に含む外部カメラ32(第2の撮像部)が撮像する第2の撮像画像を表示部2に表示する制御を行う表示制御モードである。これにより、表示制御部14は、ユーザPに、体外離脱視点(三人称視点)の風景を提供することができる。また、上記外部カメラ(第2の撮像部)が撮像する第2の撮像画像は、通信部26を介して外部カメラ32からリアルタイムで取得される。
(音声入力部)
音声入力部6は、図2に示したマイクロホン6a、6bと、そのマイクロホン6a、6bで得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを音声入出力コントロール28に出力する。
(音声入出力コントロール)
音声入出力コントロール28は、システムコントローラ10の制御に応じて、音声データの転送を制御する。具体的には、音声入出力コントロール28は、音声入力部6、音声信号処理部16、ストレージ部25、通信部26の間の音声信号の転送を制御する。例えば、音声入出力コントロール28は、音声入力部6で得られた音声データを、音声信号処理部16に供給したり、ストレージ部25に供給したり、通信部26に供給する動作を行う。
また音声入出力コントロール28は例えばストレージ部25で再生された音声データを、音声信号処理部16に供給したり、通信部26に供給する動作を行う。また音声入出力コントロール28は例えば通信部26で受信された音声データを、音声信号処理部16に供給したり、ストレージ部25に供給する動作を行う。
より具体的には、本実施形態による音声入出力コントロール28は、動作制御部10b(切替制御部)により表示制御モードの切り替え制御が行われる際、所定の効果音を出力するよう制御する音声出力制御部として機能する。例えば、音声入出力コントロール28(音声出力制御部)が体外離脱を想起させるような所定の音を出力することで、ユーザPは、体外離脱の感覚を視覚の他、聴覚で享受することができる。
(音声信号処理部)
音声信号処理部16は、例えばデジタルシグナルプロセッサ、D/A変換器などからなる。この音声信号処理部16には、音声入力部6で得られた音声データや、ストレージ部25、あるいは通信部26からの音声データが、音声入出力コントロール28を介して供給される。音声信号処理部16は、供給された音声データに対して、システムコントローラ10の制御に応じて、音量調整、音質調整、音響エフェクト等の処理を行う。そして処理した音声データをアナログ信号に変換して音声出力部5に供給する。なお、音声信号処理部16は、デジタル信号処理を行う構成に限られず、アナログアンプやアナログフィルタによって信号処理を行うものでも良い。
(音声出力部)
音声出力部5は、図2に示した一対のイヤホンスピーカ5aと、そのイヤホンスピーカ5aに対するアンプ回路を有する。また、音声出力部5は、いわゆる骨伝導スピーカとして構成されてもよい。さらにユーザは、音声出力部5により、外部音声を聞いたり、ストレージ部25で再生された音声を聞いたり、通信部26で受信された音声を聞くことができる。
(ストレージ部)
ストレージ部25は、所定の記録媒体に対してデータの記録再生を行う部位とされる。ストレージ部25は、例えばHDD(Hard Disc Drive)として実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固定メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部25としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
ストレージ部25には、撮像部3で撮像され、撮像信号処理部15で処理された撮像信号としての画像データや、通信部26で受信した画像データが、画像入出力コントロール27を介して供給される。また、ストレージ部25には、音声入力部6で得られた音声データや、通信部26で受信した音声データが、音声入出力コントロール28を介して供給される。
ストレージ部25は、システムコントローラ10の制御に従って、供給された画像データや音声データに対して、記録媒体への記録のためのエンコード処理を行い、記録媒体に記録する。またストレージ部25は、システムコントローラ10の制御に従って、記録媒体から画像データや音声データを再生する。ストレージ部25で再生した画像データは画像入出力コントロール27へ出力され、また、ストレージ部25で再生した音声データは音声入出力コントロール28へ出力される。
(通信部)
通信部26は外部機器との間でのデータの送受信を行う。通信部26は、外界情報を取得するための構成の一例である。通信部26は、無線LAN、Wi−Fi、赤外線通信、ブルートゥース等の方式で、外部機器と直接、またはネットワークアクセスポイントを介して無線通信する。
外部機器としては、上述した外部カメラ32の他、コンピュータ機器、PDA、携帯電話端末、スマートフォン、ビデオ機器、オーディオ機器、チューナ機器など、情報処理及び通信機能を備えたあらゆる機器が想定される。またインターネット等のネットワークに接続された端末装置、サーバ装置なども通信対象の外部機器として想定される。さらには、ICチップを内蔵した非接触通信ICカード、QRコード(登録商標)等の二次元バーコード、ホログラムメモリなどを外部機器とし、通信部26はこれらの外部機器から情報を読み取る構成とすることも考えられる。さらには他のHMD1も外部機器として想定される。
通信部26には、撮像部3で撮像され、撮像信号処理部15で処理された撮像信号としての画像データや、ストレージ部25で再生した画像データが、画像入出力コントロール27を介して供給される。また、通信部26には、音声入力部6で得られた音声データや、ストレージ部25で再生された音声データが、音声入出力コントロール28を介して供給される。
通信部26は、システムコントローラ10の制御に従って、供給された画像データや音声データに対して、送信のためのエンコード処理、変調処理等を行い、外部機器に送信する。また、本実施形態による通信部26は、周囲に設置されている外部カメラ32に対して情報通知依頼や、画角・方向調整指示等を送信する。また通信部26は、外部機器からのデータ受信動作、例えば外部カメラ32からの撮像画像の受信動作を行う。受信復調した画像データは画像入出力コントロール27へ出力し、また受信復調した音声データは音声入出力コントロール28へ出力する。
(音声合成部)
音声合成部29は、システムコントローラ10の制御に応じて音声合成を行い、音声信号を出力する。音声合成部29から出力された音声信号は、音声入出力コントロール28を介して音声信号処理部16に供給されて処理された後、音声出力部5に供給され、ユーザに対して音声出力される。
(照明部、照明制御部)
照明部4は、図2に示した発光部4aとその発光部4a(例えばLED)を発光させる発光回路から成る。照明制御部18は、システムコントローラ10の制御に応じて、照明部4に発光動作を実行させる。照明部4における発光部4aが図2に示したように前方に対する照明を行うものとして取り付けられていることで、照明部4はユーザの視界方向に対する照明動作を行うことになる。
(GPS受信部)
GPS受信部21は、外界情報を取得するための構成の一例である。具体的には、GPS受信部21は、GPS(Global Positioning System)の衛星からの電波を受信し、現在位置としての緯度・経度の情報を出力する。
(画像解析部)
画像解析部17は、外界情報を取得するための構成の一例である。具体的には、画像解析部17は、画像データを解析し、画像データに含まれる画像の情報を得る。画像解析部17には、画像入出力コントロール27を介して画像データが供給される。画像解析部17において画像解析の対象となる画像データとは、撮像部3、撮像信号処理部15により得られた撮像画像としての画像データや、通信部26で受信された画像データ、あるいはストレージ部25で記録媒体から再生された画像データである。
以上、本実施形態によるHMD1の内部構成について詳細に説明した。なお、外界情報を取得するための構成として、GPS受信部21、画像解析部17、及び通信部26を示したが、これらは必ずしも全てを備える必要はない。また、周囲の音声を検知・解析する音声解析部など、他のセンサが設けられても良い。
<2−3.表示制御処理>
次に、本実施形態のHMD1による表示制御処理について、図4を参照して具体的に説明する。
図4は、本実施形態による表示制御処理を示すフローチャートである。まず、図4のステップS103に示すように、HMD1の表示制御部14は、第1の表示制御モードとして、一人称視点の景色をユーザPに提供する。具体的には、表示部2を透過する制御、またはユーザPの視認方向を撮影する撮像レンズ3a(図2参照)を用いて撮像部3が撮像した撮像画像を表示部2に表示する制御により、図1左に示すように、ユーザ視点(一人称視点)の風景2−1が視認できるようにする。
次に、ステップS106において、HMD1は、ユーザPによる体外離脱視点への切替指示の有無を判断する。
次いで、体外離脱指示があった場合(S106/Yes)、ステップS109において、HMD1は、ユーザPを画角に含む体外離脱視点の画像を撮像可能な外部カメラ32のサーチを行う。具体的には、例えばHMD1は、近接無線通信により周囲に設置されている1以上の外部カメラ32に対して情報通知依頼を行い、各カメラの位置情報や画角情報、撮影方向情報等を取得する。そして、HMD1は、取得した各情報と、HMD1の現在位置(例えばGPS受信部21により取得される位置情報)に基づいて、HMD1を装着しているユーザPを画角に含む外部カメラ32を選択し、当該外部カメラ32から撮像画像を取得する。
若しくは、HMD1は周囲に設置された1以上の外部カメラ32から撮像画像を取得し、各撮像画像を解析して、ユーザPが大きく画角に含まれている撮像画像を自動選択してもよい。または、HMD1は、周囲の外部カメラ32から取得した撮像画像を表示部2に提示し、ユーザPに手動選択させてもよい。
続いて、ステップS112において、HMD1の動作制御部10b(切替制御部)は、表示制御部14の表示制御モードを、第2の表示制御モードに切り替えるよう制御する。これにより、表示制御部14は、第2の表示制御モードとして、ユーザPを画角に含む体外離脱視点(三人称視点)の景色をユーザPに提供し、ユーザPは、実世界で体外離脱しているかのような感覚を享受することができる。
具体的には、表示制御部14は、体外離脱視点(三人称視点)の景色として、上記S109でサーチされた外部カメラ32から受信した撮像画像(または自動/手動選択された撮像画像)をリアルタイムで表示部2に表示する。例えば、図1中央に示すように、体外離脱視点(三人称視点)の景色として、外部カメラ32で撮像された撮像画像2−2を表示部2に表示する。また、表示制御部14は第2の表示制御モードに切り替える際、切り替え前後の画像(第1の撮像部が撮像するユーザ視点の第1の画像および第2の画像)に基づいて、切り替え途中を表す遷移画像を生成し、当該遷移画像を表示部2に表示してもよい。
また、表示制御部14は、撮像画像2−2を表示部2に表示した後、外部カメラ32に対してズーム指示を送り、図1右に示すように、ズームアウトした三人称視点の撮像画像2−3をリアルタイムで表示部2に表示してもよい。これにより、ユーザPは、自分自身がさらに上空に浮かんでいくような感覚を享受することができる。
以上、本実施形態よる表示制御処理について詳細に説明した。なお、図1に示すように、撮像画像2−2、2−3を順次表示することで、ユーザPは、自分自身が上空にさらに浮かんでいくような感覚を享受することができるが、画角が広くなるにつれて、ユーザP自身の姿は小さくなり視認し難くなる。そこで、本実施形態では、第2の撮像画像にユーザPの位置を示すインジケータを重畳表示することでユーザPの位置を明示することができる。以下、図5を参照して具体的に説明する。
図5は、第2の撮像画像にユーザPの位置を示すインジケータを重畳表示する場合について説明するための図である。図5に示すように、例えばHMD1の表示制御部14が、第2の表示制御モードにおいて、撮像画像2−5を表示部2に表示している際、撮像画像2−5にはユーザPの姿が認識可能に表示されているので、特にインジケータは表示しない。なお、ユーザPの姿が認識可能に表示されているか否かについては、画像解析部17による解析結果に基づいて判断されてもよいし、ユーザによるインジケータ表示の指示が無い場合にユーザPの姿が認識可能であると判断されてもよい。
一方、表示部2に表示される体外離脱視点の撮像画像の画角が徐々に広がると、例えば超高層ビルや飛行船に搭載された外部カメラ32により撮像された撮像画像2−6が表示され得る。この場合、図5に示すように撮像画像2−6からはユーザPの姿を認識できないので、表示制御部14は、ユーザPの位置を示すインジケータ40を重畳表示する。ユーザPの認識可否は、上述したように画像解析部17による解析結果に基づいて判断されてもよいし、ユーザによるインジケータ表示の指示が有った場合にユーザPの姿が認識不可能であると判断されてもよい。
なお、撮像画像2−6におけるユーザPの位置(インジケータ40の表示位置)は、HMD1の位置情報や、撮像画像2−6を撮像した外部カメラ32の位置情報、高度情報、画角情報、さらに画像解析部17による解析結果等に基づいて判断され得る。
これによりユーザPは、表示部2に表示される体外離脱視点(三人称視点)の撮像画像2−6において、自分の姿を認識できなくとも、インジケータ40により自分の位置を認識することができる。
<2−4.補足>
次に、本実施形態による表示制御システムについて補足説明を行う。上述した実施形態では、現実世界において体外離脱をしているかのような感覚をユーザPに提供しているが、さらに、HMD1は、ユーザPが体外離脱中であることを周囲に明示する制御を行ってもよい。
例えば、HMD1は、発光部4aを点滅させたり、HMD1のサイドや後ろ側に外側を向くよう設けられた表示部に所定の画像を表示させたりすることで、ユーザPが体外離脱中であること(第2の表示制御モード中であること)を周囲に明示する。以下、外側を向くよう設けられた表示部に所定の画像を表示することで周囲に明示する場合について、図6A、図6Bを参照して具体的に説明する。
図6Aおよび図6Bは、外側表示部に表示する画像例を示す図である。ここでは、図6Aに示すように、HMD1の表示部2が、装着者側(内側)を向く内側表示部2Iと、内側表示部2Iの反対側(外側)を向く外側表示部2Oを有する両面ディスプレイである場合を想定する。この場合、表示制御部14は、第2の表示制御モードにおいて、内側表示部2Iに体外離脱視点(三人称視点)の撮像画像を表示し、外側表示部2Oに体外離脱中であることを表す所定の画像を表示する。
外側表示部2Oに表示される所定の画像は、図6Aに示すような体外離脱の様子を示すアイコン化された遷移画像であってもよい。具体的には、図6Aに示すように、アイコン化された人物の画像2O−1、アイコン化された人物が体外離脱し始めた画像2O―2、そしてアイコン化された人物が体外離脱して浮かんでいる画像2O―3が、順次外側表示部2Oに表示される。または、外側表示部2Oに表示される所定の画像は、図6Bに示すようなユーザPの画像を用いて生成された、ユーザPが浮遊している様子を示す画像2O―5であってもよい。
このように、表示部2の外側表示部2Oに、体外離脱中であることを表す所定の画像を表示することで、周囲に、ユーザPが体外離脱中であることを明示することができる。
以上、本実施形態による表示制御システムに含まれるHMD1の構成および表示制御処理について詳細に説明した。しかしながら、上述した内容は本開示による表示制御システムの一実施形態であって、本技術は上記実施形態に限定されない。以下、本開示の他の実施形態による表示制御システムについて説明する。
<<3.他の実施形態>>
<3−1.仮想カメラ>
上記実施形態では、ユーザPを画角に含む三人称視点画像を外部カメラ32から取得しているが、本開示による表示制御システムはこれに限定されず、仮想的な外部カメラ(以下、仮想カメラと称す)を想定してもよい。HMD1は、仮想カメラの位置や撮像方向を制御し、仮想カメラで撮像されたとする画像を、複数の外部カメラ32から取得した撮像画像に基づいて生成し、表示部2に表示する。以下、このような仮想カメラを想定した場合の表示制御システムについて図7〜図8を用いて具体的に説明する。
(概要)
図7は、仮想カメラを想定した場合の表示制御システムについて説明するための図である。図7に示すように、HMD1は、周囲に配置されている外部カメラ32A〜32Dと接続可能であって、データの送受信を行うことができる。また、各外部カメラ32A〜32Dは、各々位置情報および撮影方向情報を有する。
ここで、外部カメラ32Aは、図7に示すように、HMD1の後方(装着時におけるユーザの後頭部側)に設けられる第2の撮像部である。外部カメラ32Aは、図7に示すように、HMD1の上方、下方、内側方向を撮像する複数の超広角レンズにより実現され、これらの超広角レンズにより装着者の後頭部や頭頂部、背中(身体)をそれぞれ撮像する。そして、外部カメラ32Aは、複数の超広角レンズにより撮像した複数の撮像画像を合成し、装着者(ユーザP)の後頭部を画角に含む三人称視点の画像を生成することができる。
また、HMD1は、仮想カメラ34の位置および撮影方向をユーザ操作に応じて制御し、仮想カメラ34で撮像されたとする画像を生成する。具体的には、HMD1の周囲に設けられた外部カメラ32A〜32Dの位置・撮影方向を参照した上で、必要な撮像画像を外部カメラ32A〜32Dから取得し、取得した撮像画像を用いて、仮想カメラ34で撮像されたとする画像を生成する。このように、HMD1は、外部カメラ32A〜32Dから取得した撮像画像を用いて、ユーザ操作に応じた自由視点の体外離脱画像を生成し、表示部2に表示することができる。
(動作処理)
次に、本実施形態による動作処理について図8を参照して説明する。図8は、本実施形態による表示制御処理を示すフローチャートである。
まず、図8のステップS200において、HMD1は、ユーザによる仮想カメラ34の位置および方向の設定を受け付ける。
次いで、ステップS210において、HMD1は、周囲の外部カメラ32A〜32Dに対して、HMD1の通信部26から情報通知依頼を送信する。この情報通知依頼は、各外部カメラ32の位置情報(例えば緯度・経度・高度)や方向情報の通知を要求するものである。
次に、ステップS220において、外部カメラ32A〜32Dは、HMD1からの情報通知依頼に応じて、位置情報や方向情報を含む情報をHMD1に通知する。
続いて、ステップS230において、HMD1は、上記S200で設定した仮想カメラの位置、方向に応じた画像を取得するために、各外部カメラ32に対して、画角(テレ、ワイド)や撮影方向(パン、チルト)の調整を行う。図8に示す例では、一例として、外部カメラ32B〜32Dに対して調整指示を出す。
次いで、ステップS240において、HMD1は、調整指示を出した外部カメラ32B〜32Dに対して、画像取得依頼を行う。この画像取得依頼は、外部カメラ32で撮像された撮像画像の送信を要求するものである。
次に、ステップS250において、外部カメラ32B〜32Dは、HMD1からの画像取得依頼に応じて、撮像画像をHMD1に送信する。
次いで、ステップS260において、HMD1は、外部カメラ32B〜32Dから取得した撮像画像に基づいて、上記S200で設定した位置、方向に応じた画像(仮想カメラ34で撮像されたとする画像)を演算により生成する。演算方法は特に限定しないが、例えば特開2007−334583に開示されている自由視点画像生成方法を用いてもよい。より具体的には、HMD1は、ブロックマッチングによって視差ベクトルを検出し、その視差ベクトルを用いて任意の視点の画像を生成することができる。
そして、ステップS270において、HMD1は、生成した画像、すなわちユーザ操作に応じて位置・方向が設定された仮想カメラ34で撮像されたとする画像であって、ユーザPを画角に含む三人称視点の画像を、表示部2に表示する。
<3−2.サーバによる制御処理>
以上説明した各実施形態による表示制御処理は、HMD1で行われているが、本開示による表示制御システムはこれに限定されず、HMD1および外部カメラA〜Dと接続可能なサーバで行ってもよい。以下、図9〜図10を参照して具体的に説明する。
図9は、サーバを含む表示制御システムにおける表示制御処理を示すフローチャートである。図9に示すように、まず、ステップS300において、各外部カメラ32A〜32Dは、位置や方向等の状態が変化すると、位置や撮影方向の情報をサーバに通知する。これにより、サーバは、各外部カメラ32A〜32Dの位置、撮影方向等の状態を常に把握することができる。
次に、ステップS310において、HMD1は、ユーザによる仮想カメラ34の位置および方向の設定を受け付ける。
次いで、ステップS320において、HMD1は、設定された仮想カメラ34の位置および方向の情報をサーバに通知する。
次に、ステップS330において、サーバは、上記S320でHMD1から通知された仮想カメラ34の位置、方向に応じた画像を取得するために、所定の外部カメラ32に対して画像取得依頼を行う。図9に示す例では、外部カメラ32Aの位置、方向が、仮想カメラ34の位置、方向に一致すると想定し、サーバは外部カメラ32Aに対して画像取得依頼を行う。
次いで、ステップS340において、外部カメラ32Aは、サーバからの画像取得依頼に応じて、撮像画像をサーバに送信する。
続いて、ステップS350において、サーバは、外部カメラ32Aから送信された撮像画像を未加工の状態でHMD1に送信する。上述したように、図9に示す例では、外部カメラ32Aの位置、方向が、仮想カメラ34の位置、方向に一致すると想定するので、サーバは外部カメラ32Aから取得した撮像画像に対して加工を行う必要がない。
そして、ステップS360において、HMD1は、サーバから送信された撮像画像、すなわちユーザ操作に応じて位置・方向が設定された仮想カメラ34で撮像されたとする画像であって、ユーザPを画角に含む三人称視点の画像を、表示部2に表示する。
なお、以上説明した例では、外部カメラ32Aの位置、方向が、仮想カメラ34の位置、方向に一致する場合を想定しているが、一致する外部カメラ32が無い場合は、サーバは複数の外部カメラ32から取得した撮像画像に基づいて生成してもよい。以下、サーバが複数の外部カメラ32から取得した撮像画像に基づいて画像生成(加工)を行う場合について図10を参照して説明する。
図10は、サーバを含む表示制御システムにおける他の表示制御処理を示すフローチャートである。図10に示すステップS300〜S320の処理は、図9に示す同ステップの処理と同様であるので、ここでの説明は省略する。
次に、ステップS400において、サーバは、上記S320でHMD1から通知された仮想カメラ34の位置、方向に応じた画像を取得するために、各外部カメラ32に対して、画角(テレ、ワイド)や撮影方向(パン、チルト)の調整を行う。図10に示す例では、一例として、外部カメラ32B〜32Dに対して調整指示を出す。
次いで、ステップS410において、サーバは、調整指示を出した外部カメラ32B〜32Dに対して、画像取得依頼を行う。この画像取得依頼は、外部カメラ32で撮像された撮像画像の送信を要求するものである。
次に、ステップS420において、外部カメラ32B〜32Dは、サーバからの画像取得依頼に応じて、撮像画像をサーバに送信する。
次いで、ステップS430において、HMD1は、外部カメラ32B〜32Dから取得した撮像画像に基づいて、上記S320で通知された位置、方向に応じた画像(仮想カメラ34で撮像されたとする画像)を演算により生成する。
次に、ステップS440において、サーバは、生成した画像をHMD1に送信する。
そして、ステップS450において、HMD1は、サーバから送信された画像、すなわちユーザ操作に応じて位置・方向が設定された仮想カメラ34で撮像されたとする画像であって、ユーザPを画角に含む三人称視点の画像を、表示部2に表示する。
<3−3.他のデバイス例>
次に、本開示による情報処理装置が、図1および図2等に示すHMD1以外のデバイス、例えばスマートフォンの場合における表示制御システムについて、図11A、図11Bを参照して具体的に説明する。
図11Aは、スマートフォンの表示部に体外離脱視点の風景(第2の撮像画像)を表示する第1のシステム構成例について説明するための図である。図11Aに示すように、スマートフォン100は、表示部120および撮像部130を有する。撮像部130は、スマートフォン100の外側に設けられ、ユーザPの視線方向を撮影可能な第1の撮像部である。
このような構成において、スマートフォン100は、第1の表示制御モードにおいて、撮像部130(第1の撮像部)で撮影した、ユーザ視点(一人称視点)の撮影画像(第1の撮像画像)を、表示部120に表示する。
次いで、ユーザPにより体外離脱指示があった場合、スマートフォン100は、第2の表示制御モードに切り替える。具体的には、スマートフォン100は、第2の表示制御モードにおいて、周辺に配置される外部カメラ32(第2の撮像部)で撮像された、ユーザPを画角に含む体外離脱視点(三人称視点)の撮像画像(第2の撮像画像)を表示部120に表示する。
このように、HMD1の他、例えばスマートフォン100にも本開示による表示制御システムが適用され得る。なお、図11Aに示す例では、第1の撮像部として、スマートフォン100と一体化している撮像部130を用いたが、本開示による第1の撮像部はこれに限定されず、例えばスマートフォン100とは別個の撮像部であってもよい。以下、図11Bを参照して具体的に説明する。
図11Bは、スマートフォンの表示部に体外離脱視点の風景(第2の撮像画像)を表示する第2のシステム構成例について説明するための図である。図11Bに示すように、ユーザPは、いわゆるライフログと称される、外界の情報を継続的に撮影して記録すること可能なウェアラブル装置200を装着している。この場合、ウェアラブル装置200の撮像部230がユーザPの視線方向を撮影可能であれば、本表示制御システムにおいて、第1の撮像部として利用し得る。
具体的には、スマートフォン100は、第1の表示制御モードにおいて、ウェアラブル装置200の撮像部230(第1の撮像部)で撮影した、ユーザ視点(一人称視点)の撮影画像(第1の撮像画像)を受信し、スマートフォン100の表示部120に表示する。
そして、第2の表示制御モードでは、図11Aに示すシステム構成の場合と同様に、スマートフォン100は、外部カメラ32(第2の撮像部)で撮像された、ユーザPを画角に含む体外離脱視点の撮像画像(第2の撮像画像)を表示部120に表示する。
このように、本実施形態によるスマートフォン100(情報処理装置)は、スマートフォン100(情報処理装置)とは別個の撮像部を、第1の撮像部として利用し得る。
<<4.まとめ>>
以上説明したように、本実施形態による表示制御システムでは、ユーザ自身を俯瞰する実世界の三人称視点の画像をリアルタイムで表示部2に表示することで、実際に体外離脱をしているかのような感覚をユーザに提供することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述したHMD1に内蔵されるCPU、ROM、およびRAM等のハードウェアを、上述したHMD1の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、ユーザ自身を俯瞰する実世界の三人称視点の画像をリアルタイムで表示部2に表示することで、ユーザは、災害時や深夜、道に迷った場合等に、体外離脱の感覚と共に周囲の状況を容易に把握することができる。
なお、本技術は以下のような構成も取ることができる。
(1)
表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する制御、または前記表示部を透過する制御を行う第1の表示制御モードと、ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードとを有する表示制御部と、
前記ユーザからの指示に応じて、前記表示制御部による表示制御モードを、前記第1の表示制御モードから前記第2の表示制御モードに切り替えるよう制御する切替制御部と、
を備える、情報処理装置。
(2)
前記表示部は、透過制御可能な表示部であって、
前記表示制御部は、前記切替制御部による制御に応じて、前記表示部を透過する制御を行う第1の表示制御モードから、前記ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードに切り替える、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記切替制御部による制御に応じて、前記表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する第1の表示制御モードから、前記ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードに切り替える、前記(1)に記載の情報処理装置。
(4)
前記表示制御部は、前記第2の表示制御モードに切り替える際、前記第1の撮像部が撮像するユーザ視点の第1の画像および前記第2の画像に基づいて、切り替え途中を表す遷移画像を生成し、当該遷移画像を前記表示部に表示する、前記(1)または(2)に記載の情報処理装置。
(5)
前記表示部は、前記ユーザの頭部または顔部に装着されるHMDに設けられ、かつ、ユーザの眼前に配置される、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記切替制御部は、前記ユーザからの指示を、操作入力、視線入力、音声入力、ジェスチャ入力、筋電入力、または脳波入力により受け付ける、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記表示制御部は、前記第2の画像に、前記ユーザの位置を示すインジケータを表示する、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記表示制御部は、前記第2の表示制御モードにおいて、前記ユーザからの指示に応じた位置からの前記ユーザを画角に含む仮想的な撮像画像を、前記第2の画像として生成し、前記表示部に表示する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記情報処理装置は、前記切替制御部により前記表示制御モードの切り替えが行われる際、所定の効果音を出力するよう制御する音声出力制御部をさらに備える、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記第1の撮像部は、前記ユーザの頭部または顔部に装着されるHMDに設けられ、かつ、前記ユーザの視線方向を撮像するよう配置される、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記第2の撮像部は、ユーザの周囲に設置されている定点カメラである、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記第2の撮像部は、飛行物体に搭載されているカメラである、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記第2の撮像部は、前記ユーザの頭部または顔部に装着されるHMDに設けられる複数の超広角カメラであって、
前記表示制御部は、前記第2の表示制御モードにおいて、前記複数の超広角カメラにより撮像された複数の撮像画像に基づいて、前記第2の画像を生成する、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記表示部は、前記第2の画像を表示する内側表示部、および当該内側表示部と反対側を向く外側表示部を有し、
前記表示制御部は、前記第2の表示制御モードにおいて、前記第2の表示制御モードに切り替わっていることを表す画像を前記外側表示部に表示するよう制御する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)
コンピュータに、
表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する制御、または前記表示部を透過する制御を行う第1の表示制御モードと、ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードとを有する表示制御部と、
前記ユーザからの指示に応じて、前記表示制御部による表示制御モードを、前記第1の表示制御モードから前記第2の表示制御モードに切り替えるよう制御する切替制御部、
として機能させるためのプログラムが記録された記録媒体。
1 HMD(Head Mounted Display)
2 表示部
2I 内側表示部
2O 外側表示部
2−2、2−3、2−5、2−6 体外離脱視点(三人称視点)の撮像画像
3 撮像部
3a 撮像レンズ
4 照明部
4a 発光部
5 音声出力部
6 音声入力部
10 システムコントローラ
10a 位置特定部
10b 動作制御部
11 撮像制御部
12 表示画像処理部
13 表示駆動部
14 表示制御部
15 撮像信号処理部
16 音声信号処理部
17 画像解析部
18 照明制御部
21 GPS受信部
25 ストレージ部
26 通信部
27 画像入出力コントロール
28 音声入出力コントロール
29 音声合成部
30 サーバ
32 外部カメラ
34 仮想カメラ
P ユーザ

Claims (15)

  1. 表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する制御、または前記表示部を透過する制御を行う第1の表示制御モードと、ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードとを有する表示制御部と、
    前記ユーザからの指示に応じて、前記表示制御部による表示制御モードを、前記第1の表示制御モードから前記第2の表示制御モードに切り替えるよう制御する切替制御部と、
    を備える、情報処理装置。
  2. 前記表示部は、透過制御可能な表示部であって、
    前記表示制御部は、前記切替制御部による制御に応じて、前記表示部を透過する制御を行う第1の表示制御モードから、前記ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードに切り替える、請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記切替制御部による制御に応じて、前記表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する第1の表示制御モードから、前記ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードに切り替える、請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記第2の表示制御モードに切り替える際、前記第1の撮像部が撮像するユーザ視点の第1の画像および前記第2の画像に基づいて、切り替え途中を表す遷移画像を生成し、当該遷移画像を前記表示部に表示する、請求項1に記載の情報処理装置。
  5. 前記表示部は、前記ユーザの頭部または顔部に装着されるHMDに設けられ、かつ、ユーザの眼前に配置される、請求項1に記載の情報処理装置。
  6. 前記切替制御部は、前記ユーザからの指示を、操作入力、視線入力、音声入力、ジェスチャ入力、筋電入力、または脳波入力により受け付ける、請求項1に記載の情報処理装置。
  7. 前記表示制御部は、前記第2の画像に、前記ユーザの位置を示すインジケータを表示する、請求項1に記載の情報処理装置。
  8. 前記表示制御部は、前記第2の表示制御モードにおいて、前記ユーザからの指示に応じた位置からの前記ユーザを画角に含む仮想的な撮像画像を、前記第2の画像として生成し、前記表示部に表示する、請求項1に記載の情報処理装置。
  9. 前記情報処理装置は、前記切替制御部により前記表示制御モードの切り替えが行われる際、所定の効果音を出力するよう制御する音声出力制御部をさらに備える、請求項1に記載の情報処理装置。
  10. 前記第1の撮像部は、前記ユーザの頭部または顔部に装着されるHMDに設けられ、かつ、前記ユーザの視線方向を撮像するよう配置される、請求項1に記載の情報処理装置。
  11. 前記第2の撮像部は、ユーザの周囲に設置されている定点カメラである、請求項1に記載の情報処理装置。
  12. 前記第2の撮像部は、飛行物体に搭載されているカメラである、請求項1に記載の情報処理装置。
  13. 前記第2の撮像部は、前記ユーザの頭部または顔部に装着されるHMDに設けられる複数の超広角カメラであって、
    前記表示制御部は、前記第2の表示制御モードにおいて、前記複数の超広角カメラにより撮像された複数の撮像画像に基づいて、前記第2の画像を生成する、請求項1に記載の情報処理装置。
  14. 前記表示部は、前記第2の画像を表示する内側表示部、および当該内側表示部と反対側を向く外側表示部を有し、
    前記表示制御部は、前記第2の表示制御モードにおいて、前記第2の表示制御モードに切り替わっていることを表す画像を前記外側表示部に表示するよう制御する、請求項1に記載の情報処理装置。
  15. コンピュータに、
    表示部に第1の撮像部が撮像するユーザ視点の第1の画像を表示する制御、または前記表示部を透過する制御を行う第1の表示制御モードと、ユーザを画角に含む第2の撮像部が撮像する第2の画像を前記表示部に表示する制御を行う第2の表示制御モードとを有する表示制御部と、
    前記ユーザからの指示に応じて、前記表示制御部による表示制御モードを、前記第1の表示制御モードから前記第2の表示制御モードに切り替えるよう制御する切替制御部、
    として機能させるためのプログラムが記録された記録媒体。

JP2012269270A 2012-12-10 2012-12-10 情報処理装置および記録媒体 Expired - Fee Related JP6094190B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012269270A JP6094190B2 (ja) 2012-12-10 2012-12-10 情報処理装置および記録媒体
US14/093,877 US9245389B2 (en) 2012-12-10 2013-12-02 Information processing apparatus and recording medium
CN201310641526.3A CN103869468B (zh) 2012-12-10 2013-12-03 信息处理设备
US15/006,102 US20160140768A1 (en) 2012-12-10 2016-01-25 Information processing apparatus and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012269270A JP6094190B2 (ja) 2012-12-10 2012-12-10 情報処理装置および記録媒体

Publications (3)

Publication Number Publication Date
JP2014115457A true JP2014115457A (ja) 2014-06-26
JP2014115457A5 JP2014115457A5 (ja) 2015-03-26
JP6094190B2 JP6094190B2 (ja) 2017-03-15

Family

ID=50880475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012269270A Expired - Fee Related JP6094190B2 (ja) 2012-12-10 2012-12-10 情報処理装置および記録媒体

Country Status (3)

Country Link
US (2) US9245389B2 (ja)
JP (1) JP6094190B2 (ja)
CN (1) CN103869468B (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016031761A (ja) * 2014-07-25 2016-03-07 裕行 池田 眼鏡型端末
JP2016115125A (ja) * 2014-12-15 2016-06-23 Kddi株式会社 ウェアラブル検索システム
JP2016148968A (ja) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6097377B1 (ja) * 2015-11-27 2017-03-15 株式会社コロプラ 画像表示方法及びプログラム
JP2017097854A (ja) * 2016-09-29 2017-06-01 株式会社スクウェア・エニックス プログラム、記録媒体、コンテンツ提供装置及び制御方法
JP6152997B1 (ja) * 2016-07-25 2017-06-28 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
WO2017126433A1 (ja) * 2016-01-20 2017-07-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびユーザガイド提示方法
US9828120B2 (en) 2014-02-18 2017-11-28 Cosmaxbti, Inc. Makeup foundation filling machine
JP2018007180A (ja) * 2016-07-07 2018-01-11 日本電信電話株式会社 映像表示装置、映像表示方法及び映像表示プログラム
US9971157B2 (en) 2016-07-25 2018-05-15 Colopl, Inc. Display control method and system for executing the display control method
JP2019185358A (ja) * 2018-04-09 2019-10-24 Necパーソナルコンピュータ株式会社 表示制御装置、表示制御方法、及びプログラム
JP2020061118A (ja) * 2018-10-05 2020-04-16 neten株式会社 三人称視点vrシステム及びその使用方法
JP2020115353A (ja) * 2020-03-10 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
JP2020177607A (ja) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 一人称視点モードと三人称視点モードとの間で切り替え可能なヘッドマウントディスプレイシステム、関連する方法、関連するプログラム及び関連する非一時的なコンピュータ可読記憶媒体
WO2020218131A1 (ja) * 2019-04-23 2020-10-29 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および情報提示方法
JPWO2019235245A1 (ja) * 2018-06-07 2021-06-24 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、情報処理システム
WO2022113834A1 (ja) * 2020-11-25 2022-06-02 株式会社ソニー・インタラクティブエンタテインメント システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal
WO2024157415A1 (ja) * 2023-01-26 2024-08-02 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置および表示制御方法

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041871A1 (ja) * 2012-09-12 2014-03-20 ソニー株式会社 画像表示装置及び画像表示方法、並びに記録媒体
JP6094190B2 (ja) * 2012-12-10 2017-03-15 ソニー株式会社 情報処理装置および記録媒体
GB201310359D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable apparatus and systems
DE102013013698A1 (de) * 2013-08-16 2015-02-19 Audi Ag Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille
US11327302B2 (en) * 2013-09-18 2022-05-10 Beth Holst Secure capture and transfer of image and audio data
CN103646587B (zh) * 2013-12-05 2017-02-22 北京京东方光电科技有限公司 一种智能眼镜及其控制方法
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
JP6586954B2 (ja) * 2014-07-09 2019-10-09 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
US9977495B2 (en) 2014-09-19 2018-05-22 Utherverse Digital Inc. Immersive displays
JP2016191845A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10062208B2 (en) * 2015-04-09 2018-08-28 Cinemoi North America, LLC Systems and methods to provide interactive virtual environments
US10545714B2 (en) 2015-09-04 2020-01-28 Samsung Electronics Co., Ltd. Dual screen head mounted display
US10139902B2 (en) * 2015-09-16 2018-11-27 Colopl, Inc. Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
JPWO2017051592A1 (ja) * 2015-09-25 2018-08-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6532393B2 (ja) 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
US20170230640A1 (en) * 2016-02-05 2017-08-10 Samsung Electronics Co., Ltd. Portable image device with external display
US10133345B2 (en) * 2016-03-22 2018-11-20 Microsoft Technology Licensing, Llc Virtual-reality navigation
US9760646B1 (en) * 2016-05-25 2017-09-12 Bank Of America Corporation Card issuance using card feature verification
CN109478339A (zh) * 2016-07-29 2019-03-15 三菱电机株式会社 显示装置、显示控制装置和显示控制方法
US11269480B2 (en) * 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
JP6918455B2 (ja) * 2016-09-01 2021-08-11 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN106484111B (zh) * 2016-09-30 2019-06-28 珠海市魅族科技有限公司 一种图像处理的方法及虚拟现实设备
IL252056A (en) 2017-05-01 2018-04-30 Elbit Systems Ltd Head-up display device, system and method
US10810541B2 (en) * 2017-05-03 2020-10-20 Hand Held Products, Inc. Methods for pick and put location verification
US10338766B2 (en) * 2017-09-06 2019-07-02 Realwear, Incorporated Audible and visual operational modes for a head-mounted display device
WO2019089811A1 (en) * 2017-11-01 2019-05-09 Vrgineers, Inc. Interactive augmented or virtual reality devices
US11086124B2 (en) 2018-06-13 2021-08-10 Reavire, Inc. Detecting velocity state of a device
WO2020095088A1 (en) * 2018-11-05 2020-05-14 Ecole Polytechnique Federale De Lausanne (Epfl) Method and system for creating an out-of-body experience
EP3734415A1 (en) * 2019-04-30 2020-11-04 XRSpace CO., LTD. Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
EP3734418A1 (en) * 2019-05-03 2020-11-04 XRSpace CO., LTD. Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
CN110308794A (zh) * 2019-07-04 2019-10-08 郑州大学 具有两种显示模式的虚拟现实头盔及显示模式的控制方法
US11023095B2 (en) 2019-07-12 2021-06-01 Cinemoi North America, LLC Providing a first person view in a virtual world using a lens
JP2022182477A (ja) * 2021-05-28 2022-12-08 キヤノン株式会社 情報処理装置、システム、情報処理方法、及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612222A (ja) * 1992-06-29 1994-01-21 Matsushita Electric Ind Co Ltd 両面画像表示装置
JP2005172851A (ja) * 2003-12-05 2005-06-30 Sony Corp 画像表示装置
JP2008154192A (ja) * 2006-11-22 2008-07-03 Sony Corp 画像表示システム、表示装置、表示方法
JP2009104657A (ja) * 2006-12-15 2009-05-14 Casio Comput Co Ltd データ検索装置、データ検索方法、及びそのプログラム
JP2010176325A (ja) * 2009-01-28 2010-08-12 Ntt Docomo Inc 任意視点画像生成装置及び任意視点画像生成方法
JP2010237516A (ja) * 2009-03-31 2010-10-21 Nikon Corp 再生演出プログラムおよび再生演出装置
JP2011124898A (ja) * 2009-12-14 2011-06-23 Brother Industries Ltd ヘッドマウントディスプレイ
WO2012063542A1 (ja) * 2010-11-09 2012-05-18 富士フイルム株式会社 拡張現実感提供装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5353391A (en) * 1991-05-06 1994-10-04 Apple Computer, Inc. Method apparatus for transitioning between sequences of images
JP3928229B2 (ja) 1997-11-28 2007-06-13 ソニー株式会社 表示制御装置および表示制御方法、並びに記録媒体
US7312766B1 (en) * 2000-09-22 2007-12-25 Canadian Space Agency Method and system for time/motion compensation for head mounted displays
JP2002207832A (ja) * 2000-12-28 2002-07-26 Atsushi Takahashi インターネット技術指導教育配信システム、及び通信網を利用した指導システム
JP2009021914A (ja) * 2007-07-13 2009-01-29 Sony Corp 撮像表示システム、撮像表示装置、撮像表示装置の制御方法
US8229163B2 (en) * 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
WO2009084213A1 (ja) * 2007-12-28 2009-07-09 Capcom Co., Ltd. コンピュータ、プログラムおよび記憶媒体
US8339403B2 (en) * 2008-04-16 2012-12-25 Microsoft Corporation Multi-layered slide transitions
JP5148652B2 (ja) * 2010-03-31 2013-02-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
JP5161256B2 (ja) * 2010-03-31 2013-03-13 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、及び、画像生成装置
JP5966256B2 (ja) * 2011-05-23 2016-08-10 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP6094190B2 (ja) * 2012-12-10 2017-03-15 ソニー株式会社 情報処理装置および記録媒体
JP6319952B2 (ja) * 2013-05-31 2018-05-09 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
KR102246553B1 (ko) * 2014-04-24 2021-04-30 엘지전자 주식회사 Hmd 및 그 제어 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612222A (ja) * 1992-06-29 1994-01-21 Matsushita Electric Ind Co Ltd 両面画像表示装置
JP2005172851A (ja) * 2003-12-05 2005-06-30 Sony Corp 画像表示装置
JP2008154192A (ja) * 2006-11-22 2008-07-03 Sony Corp 画像表示システム、表示装置、表示方法
JP2009104657A (ja) * 2006-12-15 2009-05-14 Casio Comput Co Ltd データ検索装置、データ検索方法、及びそのプログラム
JP2010176325A (ja) * 2009-01-28 2010-08-12 Ntt Docomo Inc 任意視点画像生成装置及び任意視点画像生成方法
JP2010237516A (ja) * 2009-03-31 2010-10-21 Nikon Corp 再生演出プログラムおよび再生演出装置
JP2011124898A (ja) * 2009-12-14 2011-06-23 Brother Industries Ltd ヘッドマウントディスプレイ
WO2012063542A1 (ja) * 2010-11-09 2012-05-18 富士フイルム株式会社 拡張現実感提供装置

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9828120B2 (en) 2014-02-18 2017-11-28 Cosmaxbti, Inc. Makeup foundation filling machine
US10585288B2 (en) 2014-07-25 2020-03-10 Hiroyuki Ikeda Computer display device mounted on eyeglasses
US10191282B2 (en) 2014-07-25 2019-01-29 Hiroyuki Ikeda Computer display device mounted on eyeglasses
JP2016031761A (ja) * 2014-07-25 2016-03-07 裕行 池田 眼鏡型端末
JP2016115125A (ja) * 2014-12-15 2016-06-23 Kddi株式会社 ウェアラブル検索システム
JP2016148968A (ja) * 2015-02-12 2016-08-18 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6097377B1 (ja) * 2015-11-27 2017-03-15 株式会社コロプラ 画像表示方法及びプログラム
JP2017093946A (ja) * 2015-11-27 2017-06-01 株式会社コロプラ 画像表示方法及びプログラム
WO2017090373A1 (ja) * 2015-11-27 2017-06-01 株式会社コロプラ 画像表示方法及びプログラム
US10394319B2 (en) 2015-11-27 2019-08-27 Colopl, Inc. Method of displaying an image, and system therefor
JP2017130793A (ja) * 2016-01-20 2017-07-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびユーザガイド提示方法
US11865448B2 (en) 2016-01-20 2024-01-09 Sony Interactive Entertainment Inc. Information processing apparatus and user guide presentation method
US10974148B2 (en) 2016-01-20 2021-04-13 Sony Interactive Entertainment Inc. Information processing apparatus and user guide presentation method
US11484792B2 (en) 2016-01-20 2022-11-01 Sony Interactive Entertainment Inc. Information processing apparatus and user guide presentation method
CN108463839A (zh) * 2016-01-20 2018-08-28 索尼互动娱乐股份有限公司 信息处理装置和用户指南呈现方法
WO2017126433A1 (ja) * 2016-01-20 2017-07-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびユーザガイド提示方法
JP2018007180A (ja) * 2016-07-07 2018-01-11 日本電信電話株式会社 映像表示装置、映像表示方法及び映像表示プログラム
JP6152997B1 (ja) * 2016-07-25 2017-06-28 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
US9971157B2 (en) 2016-07-25 2018-05-15 Colopl, Inc. Display control method and system for executing the display control method
JP2018018147A (ja) * 2016-07-25 2018-02-01 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2017097854A (ja) * 2016-09-29 2017-06-01 株式会社スクウェア・エニックス プログラム、記録媒体、コンテンツ提供装置及び制御方法
JP2019185358A (ja) * 2018-04-09 2019-10-24 Necパーソナルコンピュータ株式会社 表示制御装置、表示制御方法、及びプログラム
JP7414715B2 (ja) 2018-06-07 2024-01-16 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、情報処理システム
JPWO2019235245A1 (ja) * 2018-06-07 2021-06-24 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、情報処理システム
JP2020061118A (ja) * 2018-10-05 2020-04-16 neten株式会社 三人称視点vrシステム及びその使用方法
JP2020177607A (ja) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 一人称視点モードと三人称視点モードとの間で切り替え可能なヘッドマウントディスプレイシステム、関連する方法、関連するプログラム及び関連する非一時的なコンピュータ可読記憶媒体
US10978019B2 (en) 2019-04-15 2021-04-13 XRSpace CO., LTD. Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
JP2020181263A (ja) * 2019-04-23 2020-11-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および情報提示方法
JP7349256B2 (ja) 2019-04-23 2023-09-22 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および情報提示方法
WO2020218131A1 (ja) * 2019-04-23 2020-10-29 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および情報提示方法
JP7085578B2 (ja) 2020-03-10 2022-06-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
JP2020115353A (ja) * 2020-03-10 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal
JP2022083680A (ja) * 2020-11-25 2022-06-06 株式会社ソニー・インタラクティブエンタテインメント システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム
WO2022113834A1 (ja) * 2020-11-25 2022-06-02 株式会社ソニー・インタラクティブエンタテインメント システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム
JP7394046B2 (ja) 2020-11-25 2023-12-07 株式会社ソニー・インタラクティブエンタテインメント システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム
WO2024157415A1 (ja) * 2023-01-26 2024-08-02 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置および表示制御方法

Also Published As

Publication number Publication date
CN103869468A (zh) 2014-06-18
US9245389B2 (en) 2016-01-26
US20160140768A1 (en) 2016-05-19
JP6094190B2 (ja) 2017-03-15
US20140160129A1 (en) 2014-06-12
CN103869468B (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
JP6094190B2 (ja) 情報処理装置および記録媒体
US10437069B2 (en) Display control device, display control method, and computer program
US9927948B2 (en) Image display apparatus and image display method
US10009542B2 (en) Systems and methods for environment content sharing
US10142618B2 (en) Imaging apparatus and imaging method
JP7408678B2 (ja) 画像処理方法およびヘッドマウントディスプレイデバイス
US20140123015A1 (en) Information processing system, information processing apparatus, and storage medium
WO2015162949A1 (ja) 通信システム、制御方法、および記憶媒体
CN110221432A (zh) 头戴式显示器的图像显示方法及设备
US20150355463A1 (en) Image display apparatus, image display method, and image display system
US20210289068A1 (en) Server, client terminal, control method, and storage medium
JP2008096868A (ja) 撮像表示装置、撮像表示方法
JP2008096867A (ja) 表示装置、表示方法
JP6096654B2 (ja) 画像の記録方法、電子機器およびコンピュータ・プログラム
JP5664677B2 (ja) 撮像表示装置、撮像表示方法
JP2013083994A (ja) 表示装置、表示方法
JP5971298B2 (ja) 表示装置、表示方法
JP5653771B2 (ja) 映像表示機器及びプログラム
WO2022220305A1 (ja) 映像表示システム、情報処理方法、及び、プログラム
JP2021068296A (ja) 情報処理装置、ヘッドマウントディスプレイ、およびユーザ操作処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170130

R151 Written notification of patent or utility model registration

Ref document number: 6094190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees