JP2019046291A - 情報処理装置および画像表示方法 - Google Patents

情報処理装置および画像表示方法 Download PDF

Info

Publication number
JP2019046291A
JP2019046291A JP2017170265A JP2017170265A JP2019046291A JP 2019046291 A JP2019046291 A JP 2019046291A JP 2017170265 A JP2017170265 A JP 2017170265A JP 2017170265 A JP2017170265 A JP 2017170265A JP 2019046291 A JP2019046291 A JP 2019046291A
Authority
JP
Japan
Prior art keywords
image
input device
display
user
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017170265A
Other languages
English (en)
Inventor
隆 今村
Takashi Imamura
隆 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2017170265A priority Critical patent/JP2019046291A/ja
Publication of JP2019046291A publication Critical patent/JP2019046291A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】VR画像またはAR画像を拡大表示させるための現実に即した操作環境を提供する。【解決手段】情報処理装置10は、仮想空間の画像を生成し、その仮想空間の画像をユーザが装着したヘッドマウントディスプレイ(HMD100)に表示させる。情報処理装置10は、ユーザが操作を入力するための入力装置16が、現実空間における所定位置に存在する場合、そのことを検出する。情報処理装置10は、入力装置16が上記所定位置に存在する場合、HMD100に表示された画像の一部を拡大表示させる。【選択図】図1

Description

本発明は、ヘッドマウントディスプレイに表示する画像を制御する技術に関する。
ヘッドマウントディスプレイ(HMD)はユーザの頭部に装着されて仮想現実(VR)または拡張現実(AR)の映像世界をユーザに提供する。最近ではHMDをゲーム装置に接続して、ユーザがHMDに表示されたゲーム画像を見ながら、ゲームコントローラを操作してゲームをプレイすることも行われている。HMDはユーザの視野全体にVR画像を提供するために、映像世界へのユーザの没入感を高め、ゲーム等のエンタテインメント性を飛躍的に向上させる効果がある。HMDにヘッドトラッキング機能をもたせ、ユーザの頭部の姿勢と連動して仮想3次元空間の画像を生成することで、映像世界への没入感をさらに高めることができる。
現実世界におけるスポーツ観戦時等、自分から遠く離れた場所の様子を確認するために、双眼鏡等の光学機器が用いられることがある。現実世界と同様に、VR画像またはAR画像を見るユーザにも、よく見えない領域を拡大して見たいという欲求が生じることが考えられる。
本発明は本発明者の上記着想に基づきなされたものであり、1つの目的は、VR画像またはAR画像を拡大表示させるための好適な操作環境を提供することにある。
上記課題を解決するために、本発明のある態様の情報処理装置は、ヘッドマウントディスプレイに表示される仮想空間の画像を生成する画像生成部と、仮想空間の画像をヘッドマウントディスプレイに表示させる表示制御部と、本情報処理装置に対してユーザが操作を入力するための入力装置が、現実空間における所定位置に存在する場合、そのことを検出する入力装置検出部と、を備える。表示制御部は、入力装置が所定位置に存在する場合、ヘッドマウントディスプレイに表示された画像の一部を拡大表示させる。
本発明の別の態様は、画像表示方法である。この方法は、情報処理装置が、ヘッドマウントディスプレイに表示される仮想空間の画像を生成するステップと、仮想空間の画像をヘッドマウントディスプレイに表示させるステップと、情報処理装置に対してユーザが操作を入力するための入力装置が、現実空間における所定位置に存在する場合、そのことを検出するステップと、入力装置が所定位置に存在する場合、ヘッドマウントディスプレイに表示された画像の一部を拡大表示させるステップと、を実行する。
なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、VR画像またはAR画像を拡大表示させるための好適な操作環境を提供することができる。
実施例における情報処理システムの構成例を示す図である。 HMDの外観形状の例を示す図である。 HMDの機能ブロックを示す図である。 図4(a)は入力装置の上面を示す図であり、図4(b)は入力装置の奥側側面を示す図である。 情報処理装置の機能ブロックを示す図である。 HMDに表示される画像の例を示す図である。 図7(a)および図7(b)は、HMDと入力装置との位置関係の例を示す図である。 HMDに表示される画像の例を示す図である。 HMDに表示される画像の例を示す図である。 HMDに表示される画像の例を示す図である。 図11(a)はHMDと入力装置との位置関係の例を示す図であり、図11(b)はコンテンツ選択画面の例を示す図である。
実施例の情報処理システムの構成を説明する前に概要を説明する。
ヘッドマウントディスプレイ(HMD)において視聴されるVR画像またはAR画像として、実写のコンテンツが今後増えていくと考えられる。これに伴い、HMD、もしくはHMDにおける表示内容を制御するHMDの外部装置に対して、スポーツやコンサートの画像(広視野角の映像等)を配信することが考えられる。これらの実写撮影のためのカメラは、ユーザの視点位置に固定されることがあり、HMDを装着したユーザに、あたかも自分が会場にいるような感覚を抱かせうる。
一方で、カメラからスポーツ選手や演者までの距離が遠い場合、スポーツ選手や演者の顔や衣服、動作等がよく見えず、ユーザに不満が生じうる。このような場合、現実世界では、ユーザは、双眼鏡等の光学機器を覗くことにより所望の対象を拡大して見ることがある。これを踏まえ、実施例の情報処理システムでは、HMDを装着したユーザが、ゲームコントローラ等の入力機器をHMDの前方近接位置に構えた場合に、VR画像の一部を拡大表示する。これにより、VR画像を拡大表示させるための現実に即した操作環境をユーザ提供することができ、言い換えれば、直感的なズーム操作を実現することができる。実施例では、非透過型のHMDにVR画像を表示するが、光学透過型のHMDにAR画像を表示する場合も、実施例における画像表示技術を適用可能である。
図1は、実施例における情報処理システム1の構成例を示す。情報処理システム1は情報処理装置10と、HMD100と、ユーザが手指で操作する入力装置16と、HMD100を装着したユーザを撮影する撮像装置14と、画像を表示する出力装置15とを備える。出力装置15はテレビであってよい。情報処理装置10は、アクセスポイント(AP)17を介して、インターネットなどの外部のネットワークに接続される。AP17は無線アクセスポイントおよびルータの機能を有し、情報処理装置10はAP17とケーブルで接続してもよく、既知の無線通信プロトコルで接続してもよい。
実施例の情報処理装置10は、AP17を介して、外部のネットワーク上のサーバ3に接続される。サーバ3は、図1に不図示のカメラにより撮影された実写の映像データであり、HMD100に表示するべき複数種類の画像データ(例えばサッカー、野球、コンサート等のライブ映像のデータ)を情報処理装置10へ送信する。
HMD100は、ユーザの頭部に装着されて、仮想現実(VR)の映像世界をユーザに提供する。HMD100にヘッドトラッキング機能をもたせ、ユーザの頭部の動きに連動して表示画像を更新することで、映像世界への没入感を高められる。
情報処理装置10は、処理装置11、出力制御装置12および記憶装置13を備える。処理装置11は、ユーザにより入力装置16に入力された操作情報を受け付けて、ゲームや動画視聴ソフト等の各種アプリケーションを実行する端末装置である。処理装置11と入力装置16とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。なお実施例の処理装置11は、HMD100の姿勢情報をアプリケーションに対するユーザの操作情報として受け付けて、アプリケーションの動作を制御する。出力制御装置12は、処理装置11で生成された画像データをHMD100に出力する処理ユニットであり、出力制御装置12とHMD100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。
撮像装置14はステレオカメラであって、HMD100を装着したユーザを所定の周期で撮影し、撮影画像を処理装置11に供給する。後述するがHMD100にはユーザ頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置にもとづいてHMD100の動きを検出する。なおHMD100には姿勢センサ(加速度センサおよびジャイロセンサ)が搭載され、処理装置11は、姿勢センサで検出されたセンサデータをHMD100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なおトラッキング処理については従来より様々な手法が提案されており、処理装置11はHMD100の動きを検出できるのであれば、どのようなトラッキング手法を採用してもよい。
また後述するが、入力装置16には、現実空間における入力装置16の姿勢(例えば位置および向き)を検出するためのマーカ(発光部)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置・態様に基づいて入力装置16の位置および向きを検出する。変形例として、入力装置16には、姿勢センサ(例えば加速度センサおよびジャイロセンサ)が搭載されてもよい。処理装置11は、姿勢センサで検出されたセンサデータをHMD100から取得し、マーカの撮影画像の利用に代えて、または、マーカの撮影画像の利用とあわせて、入力装置16の存在位置および向きを検出してもよい。なお、入力装置16の位置および向きを検出できるのであれば他の公知の手法を採用してもよい。
ユーザはHMD100で画像を見るため、HMD100を装着したユーザにとって出力装置15は必ずしも必要ではないが、出力装置15を用意することで、別のユーザが出力装置15の表示画像を見ることができる。出力制御装置12または処理装置11は、HMD100を装着したユーザが見ている画像と同じ画像を出力装置15に表示させてもよいが、別の画像を表示させてもよい。たとえばHMDを装着したユーザと、別のユーザとが一緒にゲームをプレイするような場合、出力装置15からは、当該別のユーザのキャラクタ視点からのゲーム画像が表示されてもよい。
HMD100は、ユーザが頭部に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。HMD100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおユーザは光学レンズを通して表示パネルを見るため、情報処理装置10は、レンズによる光学歪みを補正した視差画像データをHMD100に供給する。この光学歪みの補正処理は、処理装置11、出力制御装置12のいずれが行ってもよい。
処理装置11、記憶装置13、出力装置15、入力装置16および撮像装置14は、従来型のゲームシステムを構築してよい。この場合、処理装置11はゲームを実行するゲーム装置であり、入力装置16はゲームコントローラ、キーボード、マウス、ジョイスティックなど処理装置11にユーザによる操作情報を供給する機器である。記憶装置13は、システムソフトウェアを記憶し、また、ゲームソフトや動画視聴ソフト等のアプリケーションを記憶している。このゲームシステムの構成要素に、出力制御装置12およびHMD100を追加することで、仮想3次元空間のVR画像をHMD100に提供する情報処理システム1が構築される。
なお出力制御装置12による機能は、処理装置11に組み込まれてもよい。つまり情報処理装置10の処理ユニットは、1台の処理装置11から構成されても、また処理装置11および出力制御装置12から構成されてもよい。以下においては、VR画像をHMD100に提供する機能を、まとめて情報処理装置10の機能として説明する。
実施例の情報処理装置10は、動画視聴ソフトを実行し、ユーザにより選択された配信チャンネルのコンテンツであり、具体的には、スポーツやコンサート等の仮想3次元空間の映像(VR画像)をHMD100に表示させる。また、情報処理装置10は、HMD100の姿勢情報に応じてユーザの視線方向を検出し、その視線方向に応じたVR画像をHMD100に表示させる。なお、動画視聴アプリケーションに対するユーザの操作情報は、入力装置16およびHMD100のいずれから取得されてもよく、また他のユーザインタフェースから取得されてもよい。
情報処理装置10は、ユーザのヘッドトラッキング処理を行うことで、ユーザ頭部(実際にはHMD100)の位置座標および姿勢を検出する。ここでHMD100の位置座標とは、基準位置を原点とした3次元空間における位置座標であり、基準位置はHMD100の電源がオンされたときの位置座標(緯度、経度)であってよい。またHMD100の姿勢とは、3次元空間における基準姿勢に対する3軸方向の傾きである。なお基準姿勢は、ユーザの視線方向が水平方向となる姿勢であり、HMD100の電源がオンされたときに基準姿勢が設定されてよい。ここで記載した位置座標および姿勢は、後述する入力装置16の位置座標および姿勢にも適用されてよい。
情報処理装置10は、HMD100の姿勢センサが検出したセンサデータのみから、HMD100の位置座標および姿勢を検出でき、さらに撮像装置14で撮影したHMD100のマーカ(トラッキング用LED)を画像解析することで、高精度にHMD100の位置座標および姿勢を検出できる。
図2は、HMD100の外観形状の例を示す。HMD100は、出力機構部102および装着機構部104から構成される。装着機構部104は、ユーザが被ることにより頭部を一周してHMD100を頭部に固定する装着バンド106を含む。装着バンド106はユーザの頭囲に合わせて長さの調節が可能な素材または構造をもつ。
出力機構部102は、HMD100をユーザが装着した状態において左右の目を覆う形状の筐体108を含み、内部には装着時に目に正対する表示パネルを備える。表示パネルは液晶パネルや有機ELパネルなどであってよい。筐体108内部にはさらに、表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する左右一対の光学レンズが備えられる。HMD100はさらに、ユーザの耳に対応する位置にスピーカーやイヤホンを備えてよく、外付けのヘッドホンが接続されるように構成されてもよい。
筐体108の外面には、発光マーカ110a、110b、110c、110dが備えられる。この例ではトラッキング用LEDが発光マーカ110を構成するが、その他の種類のマーカであってよく、いずれにしても撮像装置14により撮影されて、情報処理装置10がマーカ位置を画像解析できるものであればよい。発光マーカ110の数や配置は特に限定されないが、HMD100の姿勢を検出できるための数および配置である必要があり、図示した例では筐体108の前面の4隅に設けている。さらにユーザが撮像装置14に対して背を向けたときにも撮影できるように、発光マーカ110は装着バンド106の側部や後部に設けられてもよい。
HMD100は、情報処理装置10にケーブルで接続されても、既知の無線通信プロトコルで接続されてもよい。HMD100は、姿勢センサが検出したセンサデータを情報処理装置10に送信し、また情報処理装置10で生成された画像データを受信して、左目用表示パネルおよび右目用表示パネルに表示する。
図3は、HMD100の機能ブロックを示す。制御部120は、画像データ、音声データ、センサデータなどの各種データや、命令を処理して出力するメインプロセッサである。記憶部122は、制御部120が処理するデータや命令などを一時的に記憶する。姿勢センサ124は、HMD100の姿勢情報を検出する。姿勢センサ124は、少なくとも3軸の加速度センサおよび3軸のジャイロセンサを含む。
通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部120から出力されるデータを外部の情報処理装置10に送信する。また通信制御部128は、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、情報処理装置10からデータを受信し、制御部120に出力する。
制御部120は、画像データや音声データを情報処理装置10から受け取ると、表示パネル130に供給して表示させ、また音声出力部132に供給して音声出力させる。表示パネル130は、左目用表示パネル130aと右目用表示パネル130bから構成され、各表示パネルに一対の視差画像が表示される。また制御部120は、姿勢センサ124からのセンサデータや、マイク126からの音声データを、通信制御部128から情報処理装置10に送信させる。
入力装置16を詳細に説明する。図4(a)は、入力装置16の上面を示す。ユーザは左手で左側把持部78bを把持し、右手で右側把持部78aを把持して、入力装置16を操作する。入力装置16の筐体上面には、方向ボタン71、アナログスティック77a、77bと、操作ボタン76が設けられる。方向ボタン71は、上ボタン71a、左ボタン71b、下ボタン71cおよび右ボタン71dを含む。4種の操作ボタン76には、それぞれを区別するために、異なる色で異なる図形が記されており、○ボタン72には赤色の丸、×ボタン73には青色のバツ、□ボタン74には紫色の四角形、△ボタン75には緑色の三角形が記されている。
右アナログスティック77aおよび左アナログスティック77bは、方向および傾動量を入力するための入力部である。右アナログスティック77aおよび左アナログスティック77bは、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。右アナログスティック77aを用いた押し込みによるボタン機能をR3ボタンと呼び、左アナログスティック77bを用いた押し込みによるボタン機能をL3ボタンと呼ぶ。筐体上面において、方向ボタン71と操作ボタン76の間の平坦な領域には、タッチパッド79が設けられる。タッチパッド79は、ユーザが押すことで下方に沈み込み、またユーザが手を離すと元の位置に復帰する押下式ボタンとしても機能する。
右アナログスティック77aおよび左アナログスティック77bの間にはホームボタン80が設けられる。ホームボタン80は入力装置16の電源をオンし、同時に情報処理装置10と無線接続する通信機能をアクティブにするために使用される。入力装置16が情報処理装置10と接続した後は、ホームボタン80は、情報処理装置10にメニュー画面を表示させるためにも使用される。
SHAREボタン81は、タッチパッド79の左側に設けられる。SHAREボタン81は、システムソフトウェアに対するユーザからの指示を入力するために利用される。OPTIONSボタン82は、タッチパッド79の右側に設けられる。OPTIONSボタン82は、ゲームに対するユーザからの指示を入力するために利用される。SHAREボタン81およびOPTIONSボタン82は、いずれもプッシュ式ボタンとして形成されてよい。
図4(b)は、入力装置16の奥側側面を示す。入力装置16の筐体奥側側面の上側には、タッチパッド79が筐体上面から折れ曲がって延設されている。筐体奥側側面において、R1ボタン83a、R2ボタン84aと、L1ボタン83b、L2ボタン84bとが長手方向の左右対称な位置に設けられる。R1ボタン83a、R2ボタン84aは、それぞれユーザ右手の人差し指、中指により操作され、L1ボタン83b、L2ボタン84bは、それぞれユーザ左手の人差し指、中指により操作される。上側のR1ボタン83a、L1ボタン83bはプッシュ式ボタンとして構成され、下側のR2ボタン84a、L2ボタン84bは回動支持されたトリガー式のボタンとして構成されてよい。
入力装置16の筐体奥側側面の下側には、横長の第1発光部85が設けられる。第1発光部85は、赤(R)、緑(G)、青(B)のLEDを有し、情報処理装置10から送信される発光色情報にしたがって点灯する。不図示だが、入力装置16の筐体手前側側面(言い換えれば上記の奥側側面に対向する面)には、第2発光部が設けられる。第2発光部も、赤(R)、緑(G)、青(B)のLEDを有し、情報処理装置10から送信される発光色情報にしたがって点灯する。情報処理装置10は、第1発光部85と第2発光部とが識別容易になるように、第1発光部85と第2発光部とを互いに異なる色で点灯するように制御してもよい。
図5は、情報処理装置10の機能ブロックを示す。情報処理装置10は、外部との入出力インタフェースとして、センサデータ受信部20、撮影画像受信部22、入力データ受信部24、表示制御部50および通信部46を備える。情報処理装置10は、さらにHMD情報取得部30、視線方向検出部32、受付部34、画像生成部40、属性記憶部42、入力装置検出部44および課金部48を備える。
図5において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、回路ブロック、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
例えば、図5に示す複数の機能ブロックに対応する複数のモジュールを含むコンピュータプログラムが情報処理装置10のストレージ(例えば記憶装置13)にインストールされてもよい。情報処理装置10のCPUまたはGPUは、そのコンピュータプログラムをメインメモリへ読み出して実行することにより各機能ブロックの機能を発揮してもよい。
実施例の情報処理装置10は、動画視聴ソフトを実行し、サーバ3から提供されるライブ映像の視聴に関する各種データ処理を実行することとする。
入力データ受信部24は入力装置16から、ユーザが入力したキーデータを受信して、受付部34に供給する。受付部34はキーデータを、動画視聴アプリケーションに対する操作情報として画像生成部40に提供する。
実施例の操作情報には、拡大表示における倍率(すなわち拡大率)を指定する操作が含まれる。課金部48は、ユーザにより指定された拡大率が所定値以上(例えば3倍以上)の場合、ユーザへの課金処理を実行する。例えば、課金部48は、インターネット等の通信網を介して接続された課金サーバに対してユーザの識別データと課金額とを送信することにより、ユーザへの課金を実行させてもよい。
センサデータ受信部20は、ユーザが装着したHMD100の姿勢センサ124から所定の周期でセンサデータを受信して、HMD情報取得部30に供給する。撮影画像受信部22は、撮像装置14から所定の周期でHMD100を撮影した画像を受信して、HMD情報取得部30に供給する。たとえば撮像装置14は(1/60)秒ごとに前方の空間を撮影し、撮影画像受信部22は、(1/60)秒ごとに撮影画像を受信する。実施例においてHMD情報取得部30は、センサデータおよび撮影画像を、ユーザの頭部に装着されたHMD100の姿勢を示す姿勢情報として取得する。HMD情報取得部30は、取得した姿勢情報を、視線方向検出部32と入力装置検出部44に供給する。
視線方向検出部32は、HMD100の姿勢情報に応じてユーザの視線方向を検出し、言い換えれば、ユーザの視線方向を決定する。具体的にHMD情報取得部30は、姿勢センサ124のセンサデータから、HMD100の姿勢の変化を検出する。このときHMD情報取得部30は3軸ジャイロセンサのセンサデータから、HMD100の姿勢変化を特定してよい。なおHMD情報取得部30は、トラッキング用の発光マーカ110の撮影結果をさらに利用して、姿勢変化の検出精度を高めることが好ましい。視線方向検出部32は、検出した視線方向を画像生成部40に提供する。
入力装置検出部44は、HMD100の姿勢情報に応じて、入力装置16が現実空間における所定位置に存在する場合、そのことを検出する。具体的には、入力装置検出部44は、HMD100の姿勢情報に含まれる撮影画像が示すHMD100の発光マーカ110の位置に基づいて、現実の3次元空間におけるHMD100の位置(例えば3次元座標値)を検出する。また、入力装置検出部44は、HMD100の姿勢情報に含まれる撮影画像が示す入力装置16の第1発光部85および第2発光部の位置に基づいて、現実の3次元空間における入力装置16の位置(例えば3次元座標値)を検出する。
入力装置検出部44は、HMD100と入力装置16との相対的な位置関係と、入力装置16の向きとを検出する。入力装置検出部44は、撮影画像に入力装置16の第1発光部85が撮像され、かつ、HMD100の近接位置に入力装置16が存在する場合、入力装置16の姿勢を「拡大操作姿勢」と検出し、拡大操作姿勢を示す入力装置情報を画像生成部40に提供する。拡大操作姿勢は、入力装置16の向きが被写体の拡大表示を指示する向きであり、かつ、入力装置16がHMD100の近接位置に存在することを示すものである。被写体の拡大表示を指示する向きは、入力装置16に対して操作を入力する際の通常の向きであり、順方向とも言える。拡大操作姿勢は、被写体を拡大して見る場合の双眼鏡の姿勢に対応する。近接位置は、HMD100と入力装置16との距離が予め定められた第1閾値(例えば10センチ)未満であることでもよい。
また、入力装置検出部44は、撮影画像に入力装置16の第2発光部が撮像され、かつ、HMD100の上記近接位置に入力装置16が存在する場合、入力装置16の姿勢を「縮小操作姿勢」と検出し、縮小操作姿勢を示す入力装置情報を画像生成部40に提供する。縮小操作姿勢は、入力装置16の向きが被写体の縮小表示を指示する向きであり、かつ、入力装置16がHMD100の近接位置に存在することを示すものである。被写体の縮小表示を指示する向きは、入力装置16に対して操作を入力する際の通常の向きとは反対の向きであり、逆方向ともいえる。縮小操作姿勢は、被写体を縮小して見る場合の双眼鏡の姿勢に対応する。
また、入力装置検出部44は、撮影画像に入力装置16の第1発光部85が撮像され、かつ、HMD100の近傍位置に入力装置16が存在する場合、入力装置16の姿勢を「拡大準備姿勢」と検出し、拡大準備姿勢を示す入力装置情報を画像生成部40に提供する。拡大準備姿勢は、入力装置16の向きが被写体の拡大表示を指示する向きであり、かつ、入力装置16がHMD100の近傍位置に存在することを示すものである。近傍位置は、HMD100と入力装置16との距離が、上記の第1閾値以上かつ第2閾値(例えば30センチ)以下であることでもよい。
また、入力装置検出部44は、撮影画像に入力装置16の第2発光部が撮像され、かつ、HMD100の上記近傍位置に入力装置16が存在する場合、入力装置16の姿勢を「縮小準備姿勢」と検出し、縮小準備姿勢を示す入力装置情報を画像生成部40に提供する。縮小準備姿勢は、入力装置16の向きが被写体の縮小表示を指示する向きであり、かつ、入力装置16がHMD100の近傍位置に存在することを示すものである。
変形例として、入力装置16には、加速度センサやジャイロセンサ等が搭載されてもよく、情報処理装置10のセンサデータ受信部20は、入力装置16の各種センサからセンサデータを受信してHMD情報取得部30に供給してもよい。HMD情報取得部30は、入力装置16のセンサデータを含む姿勢情報を入力装置検出部44に供給してもよい。入力装置検出部44は、姿勢情報に含まれる入力装置16のセンサデータに基づいて、現実空間における入力装置16の位置および向きを検出し、その位置および向きに応じた上記4種の入力装置情報のいずれかを画像生成部40に提供してもよい。
通信部46は、AP17を介して、サーバ3と通信する。実施例の通信部46は、サーバ3から配信された広角の画像データであり、具体的には、通信部46は、ユーザが視聴可能な複数種類の画像データ(例えばサッカー、野球、コンサート等のライブ映像のデータ)の中からユーザにより選択された画像データを受信する。通信部46が受信した画像データを以下「パノラマ画像」とも呼ぶ。
また、通信部46は、ユーザにより選択されたコンテンツの画像で表示されうる1つ以上のオブジェクトのそれぞれに関する属性データと、各オブジェクトの識別データをサーバ3から受信する。属性データは、表示対象オブジェクトが人の場合、氏名、年齢、趣味等を含んでもよい。各オブジェクトの識別データは、画像上で認識可能な各オブジェクトの特徴データであってもよい。例えば、顔の輪郭等の特徴データでもよく、背番号の数字等でもよい。属性記憶部42は、1つ以上のオブジェクトそれぞれに関する属性データを、各オブジェクトの識別情報に対応付けて記憶する。
画像生成部40は、HMD100に表示される仮想空間の画像を生成する。画像生成部40は、サーバ3からライブ配信され、通信部46により受信されたパノラマ画像に基づいて、左目用の画像と右目用の画像(以下、総称して「ライブ画像」とも呼ぶ。)を生成する。実施例におけるライブ画像は、実際には遠隔地の空間で行われているサッカー、野球、コンサート等の様子を示す画像(映像)である。画像生成部40は、レンダリング処理を実行しなくてもよく、サーバ3から配信されたパノラマ画像から、左目用のライブ画像と右目用のライブ画像を抽出してもよい。
画像生成部40は、視線方向検出部32から提供される視線方向を、ユーザ(例えばスタジアムで試合を見ていると仮定される仮想のユーザキャラクタ)の視線を定める操作情報として利用する。また、画像生成部40は、受付部34から供給されるキーデータを、仮想のユーザキャラクタの動作を定める操作情報として利用する。実施例の動画視聴アプリケーションでは、ユーザが入力装置16のキー入力によりキャラクタを動作させ、またHMD100の向きを動かすことで、仮想のユーザキャラクタの視線方向を変えられる。
画像生成部40は、ユーザの視線方向(またはユーザキャラクタの視線方向)に応じたライブ画像を生成する。例えば、画像生成部40は、サーバ3から配信されたパノラマ画像におけるユーザの視線方向に合致する領域をライブ画像として抽出してもよい。また、画像生成部40は、仮想のユーザキャラクタの位置に、ユーザキャラクタの視線方向を光軸とする仮想カメラを配置して、仮想カメラの画像を取得することで、左目用のライブ画像と右目用のライブ画像を生成してもよい。
表示制御部50は、画像生成部40により生成されたライブ画像をHMD100に提供して、表示パネル130に表示させる。表示制御部50は、入力装置16が現実空間における予め定められた位置に存在することが入力装置検出部44により検出された場合、HMD100に表示された画像の一部を拡大表示させる。実施例では、画像生成部40と表示制御部50とが連携して、入力装置16の位置に応じた拡大画像の表示(言い換えれば視聴コンテンツの拡大表示)を実現する。
以下、HMD100に表示された画像の拡大表示について詳細に説明する。
図6は、HMD100に表示される画像の例を示す。同図は、現在進行中のサッカーの試合を映したライブ画像200が表示されたHMD100の画面を示している。
実施例の情報処理装置10は、入力装置16をあたかも双眼鏡であるように使用可能な操作環境をユーザに提供する。言い換えれば、HMD100を装着したユーザは、入力装置16を双眼鏡であるかのように使用する。図7(a)および図7(b)は、HMD100と入力装置16との位置関係の例を示す。ユーザは、HMD100に表示された画像を拡大して見たいとき、それまで下位置に把持していた入力装置16を通常操作の向きのままHMD100の前方近接位置まで持ち上げる。入力装置16が図7(a)に示す位置にあるとき、その位置が撮像装置14を介して検出され、入力装置16の姿勢が拡大準備姿勢であると検出される。その後に、入力装置16が図7(b)に示す位置に至ると、その位置が撮像装置14を介して検出され、入力装置16の姿勢が拡大操作姿勢であると検出される。
図8は、HMD100に表示される画像の例を示す。画像生成部40は、入力装置16が拡大準備姿勢(図7(a))であることが入力装置検出部44により検出された場合、双眼鏡の外観を示す双眼鏡画像202を生成する。表示制御部50は、ライブ画像200の上に重ねて双眼鏡画像202を表示させる。
図9は、HMD100に表示される画像の例を示す。画像生成部40は、入力装置16が拡大操作姿勢(図7(b))であることが入力装置検出部44により検出された場合、そのときに表示中のライブ画像200を分割した複数の領域のうち視線方向の中心に合致する領域を拡大して示す拡大画像204を生成する。画像生成部40は、ユーザの視線方向の中心が画面の中心になるようにライブ画像200を生成する場合、ライブ画像200の中心近傍の領域を拡大対象の領域として決定してもよい。なお、画像の拡大には、最近傍補間等、公知の手法を使用してよい。
また、画像生成部40は、公知の画像解析手法により、ライブ画像200の拡大対象領域に存在するオブジェクト(人、モノ、キャラクタ等、「対象オブジェクト」とも呼ぶ。)の識別データを取得する。既述したように、識別データは、対象オブジェクトの輪郭等の特徴データでもよく、背番号等の数字でもよい。画像生成部40は、取得した識別データに対応付けられた対象オブジェクトの属性データを属性記憶部42から読み出す。画像生成部40は、対象オブジェクトの属性データを示す属性情報画像205を生成する。
表示制御部50は、ライブ画像200の上に重ねて拡大画像204と属性情報画像205とを表示させる。拡大表示を指示したユーザは、拡大対象領域内の人やモノに興味を持っている可能性が高いと言える。そこで、拡大画像204を表示する際に拡大画像204の中に存在する対象オブジェクトの様々な属性情報を表示することにより、ユーザの利便性を高めることができる。
ユーザが、拡大表示における拡大率を指定するための所定の操作(以下「拡大率指定操作」とも呼ぶ。)を入力装置16に入力すると、情報処理装置10の受付部34は、拡大率指定操作が入力されたこと、および、当該操作で指定された拡大率を示す操作情報を画像生成部40に提供する。画像生成部40は、拡大率指定操作で指定された拡大率にしたがって、ユーザの視線方向の中心近傍の領域を拡大した新たな拡大画像204を生成する。表示制御部50は、新たな拡大率を指定する拡大率指定操作が入力された場合、入力前までの拡大率に基づく拡大画像204に代えて、新たな拡大率で生成された新たな拡大画像204を表示させる。
既述したように、課金部48は、拡大率指定操作で指定された拡大率が所定値以上の場合、ユーザへの課金処理を実行する。これにより、ライブ映像の配信者、または、ライブ映像配信のためのプラットフォームを提供する事業者に対して、新たな収入の機会を提供することができる。
なお、表示制御部50は、拡大率指定操作で指定された拡大率が課金対象となる値の場合、課金に対するユーザの同意を求めるメッセージや画像をHMD100に表示させてもよい。画像生成部40は、課金に同意する旨の操作が入力されたことを条件として、拡大率指定操作で指定された拡大率にしたがって拡大画像204を生成してもよく、表示制御部50は、課金に同意する旨の操作が入力されたことを条件として、拡大率指定操作で指定された拡大率で生成された新たな拡大画像204を表示させてもよい。
入力装置16の拡大操作姿勢(図7(b))が維持される間、画像生成部40は、ユーザの視線方向に応じたライブ画像200の生成を繰り返すとともに、ユーザの視線方向の中心近傍の領域を拡大した拡大画像204の生成を繰り返す。表示制御部50は、HMD100において、ライブ画像200の表示を更新するとともに、拡大画像204の表示を更新する。
また、ユーザは、入力装置16を拡大操作姿勢(図7(b))にした状態で、拡大表示の対象となったオブジェクトを追尾して表示するように指示する所定の操作(特定のボタンの押下等、以下「追尾指示操作」)を入力可能である。表示制御部50は、追尾指示操作が入力されたときに拡大表示対象の領域に存在するオブジェクト(以下「対象オブジェクト」と呼ぶ。)が時間の経過とともに移動する場合、言い換えれば、仮想3次元空間における対象オブジェクトの位置が変化する場合も、対象オブジェクトの拡大表示を継続する。また、表示制御部50は、追尾指示操作が入力後に入力装置16の拡大操作姿勢が解除されても、追尾指示操作入力時の対象オブジェクトの追尾および拡大表示を継続する。以下、対象オブジェクトを追尾して表示する画像を「追尾画像」と呼ぶ。
図10は、HMD100に表示される画像の例を示す。同図の例では、HMD100の画面に、メインウィンドウ206と、メインウィンドウ206より小さいサブウィンドウ208aおよびサブウィンドウ208bが設けられている。メインウィンドウ206には、ユーザの視線方向に応じて内容が逐次切り替わるライブ画像200が表示される。サブウィンドウ208aには、1回目の追尾指示操作に基づく追尾画像210aが表示され、サブウィンドウ208bには、2回目の追尾指示操作に基づく追尾画像210bが表示される。このように追尾画像を表示することにより、ユーザは、所望の対象オブジェクトが移動する場合も、対象オブジェクトを見続けることが容易になる。
追尾画像を表示するための実施例の構成を説明する。拡大操作姿勢の入力装置16に対してユーザが追尾指示操作を入力すると、情報処理装置10の受付部34は、追尾指示操作が入力されたことを示す操作情報を画像生成部40に提供する。画像生成部40は、拡大画像204に含まれる対象オブジェクトの特徴データに基づいて、パノラマ画像を分割した複数の領域の中で対象オブジェクトが含まれる領域を拡大対象領域として特定する。画像生成部40は、公知の手法により、パノラマ画像の中から対象オブジェクトを検索してもよい。例えば、画像生成部40は、対象オブジェクトが試合中のサッカー選手の場合、サーバ3から配信されたパノラマ画像の中で、上記選手の顔や背番号に関する特徴データが存在する領域を拡大対象領域として特定してもよい。
画像生成部40は、拡大対象領域の画像を公知の手法で拡大することにより追尾画像210aおよび追尾画像210bを生成する。表示制御部50は、HMD100の画面におけるメインウィンドウ206にライブ画像200を表示させ、サブウィンドウ208aに追尾画像210aを表示させ、サブウィンドウ208bに追尾画像210bを表示させる。画像生成部40は、ライブ画像200、追尾画像210a、追尾画像210bを合成した画像データを生成し、表示制御部50は、その画像データをHMD100へ送信して表示させてもよい。
このように、ユーザの視線方向に応じたライブ画像をメインコンテンツとしてメインウィンドウに表示させる一方、ユーザの視線方向には必ずしも対応しない追尾画像をサブコンテンツとしてサブウィンドウに表示させる。これにより、試合等のコンテンツ全体の様子を把握可能にしつつ、ユーザが所望の領域を拡大表示することができる。また、視線方向と表示内容が一致しないことに起因してユーザに酔いを感じさせてしまうことを抑制できる。
また、現実の双眼鏡では、接眼レンズ側から覗くことで遠くにあるものが近くにあるかのように拡大して見ることができるが、逆に、対物レンズ側から覗いた場合、遠くにあるものがさらに遠くにあるかのように見える。言い換えれば、対象物がより離れて見える。このような現実の双眼鏡の性質を踏まえ、実施例の表示制御部50は、入力装置16が第1方向に向けられた場合(実施例では拡大操作姿勢)、既述のように拡大表示を実行し、その一方、入力装置16が第1方向と反対の第2方向に向けられた場合(実施例では縮小操作姿勢)、それまで表示された画面より画面遷移における上位階層の画面を表示させる。これにより、現実に即した直感的な操作環境をユーザへ提供することができる。
実施例では、上位階層の画面として、サッカーの試合等を示すコンテンツ画面をアイコンレベルまで小さくし、複数のコンテンツに対応する複数のアイコンを並べたコンテンツ選択画面を表示させる。なお、コンテンツ画面は、ユーザが選択した特定のチャンネルのコンテンツを表示する画面であってもよい。また、上位階層の画面として、ユーザが視聴可能な複数の放送チャンネルに対応する複数のアイコンを並べたチャンネル選択画面を表示させてもよい。また、上位階層の画面として、ユーザが選択可能な複数のメニュー(言い換えれば機能)に対応する複数のアイコンを並べたメニュー選択画面を表示させてもよい。
図11(a)は、HMD100と入力装置16との位置関係の例を示す図である。ユーザは、現在視聴しているコンテンツ画面から上位階層のコンテンツ選択画面に遷移させたい場合、入力装置16を通常操作とは反対方向へ向けつつHMD100の前方近接位置まで持ち上げる。図11(a)に示す位置に入力装置16が至ると、入力装置16の姿勢が縮小操作姿勢として検出される。
図11(b)は、コンテンツ選択画面の例を示す。コンテンツ選択画面214は、例えば、ユーザが選択可能な複数種類のライブ映像を示す複数のコンテンツアイコン216を含む。ユーザは、所望のコンテンツを示すコンテンツアイコン216を選択することで所望のコンテンツをHMD100で視聴することができる。
画像生成部40は、入力装置16が縮小操作姿勢であることが入力装置検出部44により検出された場合、コンテンツ選択画面のデータを生成する。例えば、画像生成部40は、通信部46を介して、サーバ3が現在配信中の複数種類のライブ映像に関する情報を取得してもよい。画像生成部40は、それら複数のライブ映像を示す複数のコンテンツアイコン216を選択可能な態様で並べたコンテンツ選択画面214を生成してもよい。画像生成部40は、入力装置16が縮小操作姿勢であることが入力装置検出部44により検出された場合、画像生成部40により生成されたコンテンツ選択画面214を、それまでのライブ画像200に代えてHMD100に表示させる。
なお、画像生成部40は、入力装置16が縮小準備姿勢であることが入力装置検出部44により検出された場合、図8の双眼鏡画像202とは逆方向を向いた双眼鏡画像を生成してもよい。表示制御部50は、図8の双眼鏡画像202とは逆方向を向いた双眼鏡画像をライブ画像200の上に重ねて表示させてもよい。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記実施例では、入力装置16が縮小操作姿勢になった場合、コンテンツ画面より上位階層のコンテンツ選択画面を表示した。変形例として、表示制御部50は、入力装置16が縮小操作姿勢の場合、それまで表示させた画像より広角の画像を表示させるようにコンテンツ画面を更新してもよい。
例えば、画像生成部40は、入力装置16が縮小操作姿勢になった場合、サーバ3から配信されたパノラマ画像の中でライブ画像として抽出する領域をそれまでより大きくしてもよい。なお、画像生成部40は、抽出した領域の画像をHMD100の画面サイズ等にあわせて調整することで、HMD100で表示可能な広角のライブ画像を生成してもよい。表示制御部50は、入力装置16が縮小操作姿勢になった場合、画像生成部40により生成された広角のライブ画像をHMD100に表示させてもよい。
既述したように、現実の双眼鏡を対物レンズ側から覗いた場合、対象物がより離れて見える。この変形例の態様によると、現実に即した直感的な操作環境をユーザへ提供することができる。
上記実施例では、入力装置16を用いた画像の拡大操作に際し、HMD100に双眼鏡画像202を表示させた(図8)。変形例として、表示制御部50は、他の種類の光学機器の外観を示す画像を仮想3次元空間内に表示させてもよい。例えば、表示制御部50は、他の種類の光学機器として、虫眼鏡またはカメラ(スチルカメラ)の画像を表示させてもよい。
入力装置16を用いた画像の拡大操作に際してカメラの画像を表示させる場合、表示制御部50は、ユーザによる拡大率指定操作入力時に、当該カメラのレンズを指定された拡大率用のレンズへ交換する内容の画像(動画もしくは静止画)を表示させてもよい。また、カメラのレンズが交換された場合(すなわち拡大率が変更された場合)、もしくは所定の拡大率以上のレンズへ交換された場合、課金部48は、ユーザへの課金処理を実行してもよい。
上記実施例では言及していないが、変形例として、情報処理装置10は、画像保存部と保存画像送信部をさらに備えてもよい。画像保存部は、拡大画像204または追尾画像の保存を指示する所定の操作(「保存指示操作」と呼ぶ。)が入力された場合に、拡大画像204または追尾画像を情報処理装置10の所定の記憶領域へ保存してもよい。画像保存部により保存された画像を「保存画像」と呼ぶ。保存画像は、動画であってもよく、静止画であってもよく、ユーザによる選択が可能であってもよい。
保存画像送信部は、ユーザの指示に応じて、情報処理装置10に記憶された保存画像のデータを情報処理装置10とは別の電子機器へ送信する。例えば、保存画像送信部は、通信部46を介して、インターネット上の画像共有サーバへ保存画像のデータを送信(アップロード)してもよい。
上記実施例では言及していないが、拡大画像204の表示中に、ユーザは、予め定められた継続指示操作を入力可能であってもよい。画像生成部40は、継続指示操作入力時の拡大対象領域を拡大表示する拡大画像204を、ユーザの視線方向の変化にかかわらず、継続して生成ししてもよい。すなわち、画像生成部40は、入力装置16が拡大操作姿勢になったときのユーザの視線方向に合致する領域の様子を示す拡大画像204を、入力装置16の拡大操作姿勢が解除された後も継続して生成してもよい。表示制御部50は、HMD100の画面におけるサブウィンドウに拡大画像204を表示させてもよい。
上記実施例では実写の映像をHMD100に表示させたが、実写に限らずゲーム(例えばファーストパーソン・シューティングゲーム(First Person shooter))やアニメーション等の映像をHMD100に表示させる場合にも、実施例の拡大表示技術を適用可能なことはもちろんである。
上記実施例では、HMD100の画面におけるライブ画像、拡大画像等の表示を情報処理装置10が制御した。変形例として、HMD100自身が、ライブ画像、拡大画像等の表示を制御してもよい。この場合、HMD100は、実施例(例えば図5)に記載の情報処理装置10の機能をさらに備えてもよい。
上述した実施例および変形例の任意の組み合わせもまた本開示の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。
10 情報処理装置、 16 入力装置、 32 視線方向検出部、 40 画像生成部、 42 属性記憶部、 44 入力装置検出部、 48 課金部、 50 表示制御部。

Claims (11)

  1. ヘッドマウントディスプレイに表示される仮想空間の画像を生成する画像生成部と、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させる表示制御部と、
    本情報処理装置に対してユーザが操作を入力するための入力装置が、現実空間における所定位置に存在する場合、そのことを検出する入力装置検出部と、
    を備え、
    前記表示制御部は、前記入力装置が前記所定位置に存在する場合、前記ヘッドマウントディスプレイに表示される画像の一部を拡大表示させることを特徴とする情報処理装置。
  2. 前記表示制御部は、前記入力装置がヘッドマウントディスプレイの近接位置に存在する場合、拡大表示を実行することを特徴とする請求項1に記載の情報処理装置。
  3. 前記仮想空間の画像に含まれうる1つ以上のオブジェクトのそれぞれに関する属性情報を記憶する記憶部をさらに備え、
    前記表示制御部は、拡大表示対象の領域に存在するオブジェクトに関する属性情報を前記ヘッドマウントディスプレイにさらに表示させることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記表示制御部は、拡大表示対象の領域に存在するオブジェクトが移動する場合も、当該オブジェクトの拡大表示を継続することを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5. 前記ヘッドマウントディスプレイを装着したユーザの視線方向を検出する視線方向検出部をさらに備え、
    前記表示制御部は、ユーザの視線方向に応じた仮想空間を示す第1画像と、前記オブジェクトを拡大表示した第2画像を別の領域に表示させることを特徴とする請求項4に記載の情報処理装置。
  6. 課金部をさらに備え、
    前記表示制御部は、複数種類の拡大率のうちユーザにより指定された拡大率にて拡大表示を実行し、
    前記課金部は、ユーザにより指定された拡大率が所定値以上の場合、ユーザへの課金処理を実行することを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7. 前記表示制御部は、現実空間における前記入力装置の位置に応じて、所定の光学機器を示す画像を仮想空間内に表示させることを特徴とする請求項1から6のいずれかに記載の情報処理装置。
  8. 前記表示制御部は、前記入力装置が第1方向に向けられた場合、拡大表示を実行する一方、前記入力装置が前記第1方向とは反対の第2方向に向けられた場合、それまで表示させた画像より広角の画像を表示させることを特徴とする請求項1から7のいずれかに記載の情報処理装置。
  9. 前記表示制御部は、前記入力装置が第1方向に向けられた場合、拡大表示を実行する一方、前記入力装置が前記第1方向とは反対の第2方向に向けられた場合、それまで表示された画面より画面遷移における上位階層の画面を表示させる請求項1から7のいずれかに記載の情報処理装置。
  10. 情報処理装置が、
    ヘッドマウントディスプレイに表示される仮想空間の画像を生成するステップと、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させるステップと、
    前記情報処理装置に対してユーザが操作を入力するための入力装置が、現実空間における所定位置に存在する場合、そのことを検出するステップと、
    前記入力装置が前記所定位置に存在する場合、前記ヘッドマウントディスプレイに表示される画像の一部を拡大表示させるステップと、
    を実行することを特徴とする画像表示方法。
  11. 情報処理装置に、
    ヘッドマウントディスプレイに表示される仮想空間の画像を生成する機能と、
    前記仮想空間の画像を前記ヘッドマウントディスプレイに表示させる機能と、
    前記情報処理装置に対してユーザが操作を入力するための入力装置が、現実空間における所定位置に存在する場合、そのことを検出する機能と、
    前記入力装置が前記所定位置に存在する場合、前記ヘッドマウントディスプレイに表示される画像の一部を拡大表示させる機能と、
    を実現させるためのコンピュータプログラム。
JP2017170265A 2017-09-05 2017-09-05 情報処理装置および画像表示方法 Pending JP2019046291A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017170265A JP2019046291A (ja) 2017-09-05 2017-09-05 情報処理装置および画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017170265A JP2019046291A (ja) 2017-09-05 2017-09-05 情報処理装置および画像表示方法

Publications (1)

Publication Number Publication Date
JP2019046291A true JP2019046291A (ja) 2019-03-22

Family

ID=65814409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170265A Pending JP2019046291A (ja) 2017-09-05 2017-09-05 情報処理装置および画像表示方法

Country Status (1)

Country Link
JP (1) JP2019046291A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010101A (ja) * 2019-07-01 2021-01-28 株式会社日立製作所 遠隔作業支援システム
CN113426114A (zh) * 2021-07-07 2021-09-24 网易(杭州)网络有限公司 游戏信息提示方法和装置、可读存储介质、电子设备
WO2021192589A1 (ja) 2020-03-24 2021-09-30 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム
WO2022064881A1 (ja) 2020-09-28 2022-03-31 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2022168515A1 (ja) * 2021-02-05 2022-08-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、並びにプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010101A (ja) * 2019-07-01 2021-01-28 株式会社日立製作所 遠隔作業支援システム
JP7372061B2 (ja) 2019-07-01 2023-10-31 株式会社日立製作所 遠隔作業支援システム
WO2021192589A1 (ja) 2020-03-24 2021-09-30 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム
WO2022064881A1 (ja) 2020-09-28 2022-03-31 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2022168515A1 (ja) * 2021-02-05 2022-08-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、並びにプログラム
CN113426114A (zh) * 2021-07-07 2021-09-24 网易(杭州)网络有限公司 游戏信息提示方法和装置、可读存储介质、电子设备
CN113426114B (zh) * 2021-07-07 2024-02-02 网易(杭州)网络有限公司 游戏信息提示方法和装置、可读存储介质、电子设备

Similar Documents

Publication Publication Date Title
JP6511386B2 (ja) 情報処理装置および画像生成方法
JP6346131B2 (ja) 情報処理装置および画像生成方法
JP7042644B2 (ja) 情報処理装置、画像生成方法およびコンピュータプログラム
JP2019046291A (ja) 情報処理装置および画像表示方法
US11768383B2 (en) Display control apparatus and display control method
WO2017043399A1 (ja) 情報処理装置および画像生成方法
JP6845111B2 (ja) 情報処理装置および画像表示方法
US11373379B2 (en) Image generation apparatus and image generation method for generating augmented reality images based on user interaction
JP2017220032A (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
JP6615732B2 (ja) 情報処理装置および画像生成方法
JP2019087226A (ja) 情報処理装置、情報処理システムおよび表情画像出力方法
JP2018182428A (ja) 映像配信装置、映像配信システム及び映像配信方法
JP2018525750A (ja) シースルー・グラス用の補助アイテム選択
JP6556295B2 (ja) 情報処理装置および画像生成方法
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP2022164728A (ja) 情報処理装置および画像生成方法
JP6921204B2 (ja) 情報処理装置および画像出力方法
JP2022015647A (ja) 情報処理装置および画像表示方法
JP2022022871A (ja) 処理装置および没入度導出方法
WO2024042929A1 (ja) 情報処理装置および画像生成方法
JP2024031113A (ja) 情報処理装置および画像生成方法
EP4325842A1 (en) Video display system, information processing device, information processing method, and program
JP7498209B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP7153070B2 (ja) 3darコンテンツ作成装置、3darコンテンツ再生装置、及び、3darコンテンツ作成システム
US20200336717A1 (en) Information processing device and image generation method