JP6611143B1 - 画像表示方法、画像表示システム、プログラム - Google Patents

画像表示方法、画像表示システム、プログラム Download PDF

Info

Publication number
JP6611143B1
JP6611143B1 JP2019042355A JP2019042355A JP6611143B1 JP 6611143 B1 JP6611143 B1 JP 6611143B1 JP 2019042355 A JP2019042355 A JP 2019042355A JP 2019042355 A JP2019042355 A JP 2019042355A JP 6611143 B1 JP6611143 B1 JP 6611143B1
Authority
JP
Japan
Prior art keywords
dimensional image
dimensional
image
space
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019042355A
Other languages
English (en)
Other versions
JP2020145636A (ja
Inventor
将 萩原
将 萩原
庸平 宮本
庸平 宮本
透 財部
透 財部
一紀 飯田
一紀 飯田
賢典 長縄
賢典 長縄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Abeam Consulting Ltd
Original Assignee
Abeam Consulting Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Abeam Consulting Ltd filed Critical Abeam Consulting Ltd
Priority to JP2019042355A priority Critical patent/JP6611143B1/ja
Application granted granted Critical
Publication of JP6611143B1 publication Critical patent/JP6611143B1/ja
Publication of JP2020145636A publication Critical patent/JP2020145636A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザが仮想現実空間に設けられる現実空間の対象物の二次元画像を三次元的に知覚するため、対象物の三次元画像を二次元画像に代替えできるため、情報処理に係る処理量を縮減でき、対象物の三次元画像の生成コストを抑制する画像表示方法を提供する。【解決手段】ユーザが頭部に装着して表示部に仮想現実空間を表示する表示端末装置を備える画像表示システムの画像表示方法であって、前記表示端末装置が、壁で囲われる三次元空間を示す三次元画像を表示する三次元画像表示ステップと、前記三次元空間の所定の壁における側面の内側領域に、現実空間の対象物の画像を含む二次元画像を表示する二次元画像表示ステップと、を実現する。【選択図】図5

Description

本開示は、仮想現実空間においてユーザに対し二次元画像を三次元的に知覚させるための画像表示方法、画像表示システム、プログラムに関する。
仮想現実空間を知覚するためのヘッドマウントディスプレイの制御方法が知られている(特許文献1を参照)。
特開2017−21824号公報
特許文献1のヘッドマウントディスプレイでは、仮想空間画像を低画質で構成し、仮想空間画像のうちユーザの視界を構成する視界領域を高画質で構成している。これにより、レンダリング負荷を軽減するとともに、ユーザは常に高画質な仮想空間を視認することができるため、ユーザ体験を改善することができる。
しかしながら、特許文献1のヘッドマウントディスプレイでは、仮想現実空間に現実空間の物を三次元画像として提供するためには、現実空間の物を三次元スキャニングする必要がある。この三次元画像の生成には膨大な費用と時間を要する虞があった。
本発明の目的は、上記のような問題に鑑みてなされたものであり、ユーザに対して仮想現実空間における二次元画像を三次元の画像であるかのように見せる方法を提供することにある。
本開示の一実施形態に係る画像表示方法は、ユーザが頭部に装着して表示部に仮想現実空間を表示する表示端末装置を備える画像表示システムの画像表示方法であって、前記表示端末装置が、壁で囲われる三次元空間を示す三次元画像を表示する三次元画像表示ステップと、前記三次元空間の所定の壁における側面の内側領域に、現実空間の対象物の画像を含む二次元画像を表示する二次元画像表示ステップと、を実現することを要旨とする。
本発明によれば、ユーザが仮想現実空間における現実空間の対象物の二次元画像を三次元的に知覚するため、対象物の三次元画像を二次元画像に代替えできるため、情報処理に係る処理量を縮減でき、現実空間の対象物を投影する仮想現実空間の生成コストを抑制できる。また、例えば、商品が日々更新される小売業界などにおいて、仮想現実空間を活用した商品販売を簡易に行うことができるようになるため、ユーザに新たな購買体験をもたらすことができる。
画像表示システムの構成の一例を示す図である。 表示端末装置の使用状態を例示する模式図である。 仮想現実空間の模式図である。 表示端末装置の構成の一例を示す図である。 三次元画像の所定の壁に形成される開口及び二次元画像を示す図である。 開口の大きさの設定方法を説明するためのxz断面の模式図である。 ユーザの視点の位置の設定方法を説明するための現実空間におけるxz断面の模式図である。 二次元画像についてユーザが錯覚を起こす原理を説明する図である。 二次元画像の拡大率を説明するための模式図である。 表示端末装置の動作処理を示すフローチャートである。
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは同一又は同様の構成を有する。
===本実施形態の構成===
<<画像表示システム1>>
図1は、画像表示システム1の構成の一例を示す図である。図1に示すように、画像表示システム1は、例えば、表示端末装置10、情報処理装置20を含んで構成されている。なお、本実施形態においては、全ての機能が表示端末装置10に備えられる場合について説明するが、表示端末装置10の機能の一部が分離可能であってもよい。例えば、表示端末装置10の一部の機能がスマートフォンやパーソナルコンピュータ等の情報処理装置20に設けられていてもよい。この場合、情報処理装置20が、仮想現実空間100を生成し、生成した仮想現実空間100に関する情報を表示端末装置10に送信する。表示端末装置10は該情報に基づいて表示部16に仮想現実空間100を表示する。すなわち、該情報処理装置20は、後述する、画像生成部11a及び視点設定部11bの機能を有し、表示端末装置10は生成された仮想現実空間100に関する情報を、有線又は無線のネットワーク30を介して取得し、仮想現実空間100を表示する。
<<表示端末装置10>>
図2は、表示端末装置10の使用状態を例示する模式図である。表示端末装置10は、図2に示すように、ユーザ300の頭部に装着する端末装置であり、眼の周りを覆うように装着するゴーグル形状であるもの(図2)、一般的な眼鏡の形状であるもの、あるいは頭部全体を覆うヘルメット形状のもの等、種々の形状のものを含む。この表示端末装置10を装着したユーザ300は、表示部16(不図示)に表示される仮想現実空間100を知覚する。
図3は、仮想現実空間100の模式図である。図3に示すように、本実施形態における仮想現実空間100は、例えば、ユーザ300の一人称視点(以下、「視点」という。)で表示され、実寸大の対象物131を規定する360度の空間である。以下では対象物131を自動車として示しているが、例えば洋服を着たマネキンのようなものでもよく、この対象物131は限定されない。
仮想現実空間100には、所定のアプリケーションプログラムで生成された壁111で囲まれる三次元空間を示す三次元画像110、該三次元画像110の所定の壁111に生成された開口120、及び該開口120の位置に表示される二次元画像130が規定される。三次元画像110とは、表示端末装置10の二つのレンズを覗くユーザ300の視差により三次元に見える画像である。開口120とは、二次元画像130を表示するための三次元画像110上の領域であり、所定の壁111の側面の内側領域に設けられ、奥行きを有する。壁111の内側領域とは、該開口120の周りに壁111の一部が残るような位置をいう。二次元画像130とは、現実空間200における対象物131の二次元の写真や動画である。仮想現実空間100の各構成要素については詳細に後述する。仮想現実空間100では、ユーザ300が、その錯覚により、二次元画像130に表示される対象物131が三次元の画像であるかのように知覚する。
この表示端末装置10の構成について以下説明する。
図4は、表示端末装置10の構成の一例を示す図である。表示端末装置10のハードウェアは、例えば、プロセッサ11、ストレージ12、通信部13、方位検出部14、加速度検出部15、表示部16、メモリ17、及び入力部18を備える。表示端末装置10のソフトウェアは、例えば、画像生成部11a、視点設定部11b、及び画像出力部11cの機能を有する。これらの機能は、プロセッサ11がストレージ12から上記機能に対応するプログラムモジュールを読み出してメモリ17に展開し、プロセッサ11が該プログラムモジュールを実行することで実現する。プログラムモジュールは、表示端末装置10に係る装置が出荷されるまでに予めストレージ12に格納されていても良いし、CD(Compact Disk)、DVD(Digital Versatile Disk)、Blu−ray Disc(登録商標)などの光学メディアや半導体メモリ等の記憶媒体に格納されて図示しない媒体接続部を介して表示端末装置10に係る装置にインストールされてもよい。
まず、表示端末装置10のハードウェアの各構成要素について説明する。なお、ハードウェアの各構成要素については一例を示すものであり、以下の記載に限定されるものではなく、本実施形態に係る表示端末装置10の機能を実現できるものであればよい。
プロセッサ11は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、及びDSP(Digital Signal Processor)等の総称であり、所定のプログラムを実行する機能を有する。
ストレージ12は、各種の情報を記憶する機能を有し、表示端末装置10に内蔵される記録媒体、取り外し可能な外部記録媒体、光ディスクなどから構成される。ストレージ12は、例えばプロセッサ11の指示により制御され、アプリケーションプログラムを保存する。また、ストレージ12は、アプリケーションプログラムで作成した各種情報を保存する。ここで、ストレージ12には、例えば、開口120を有する三次元画像110に関する情報を格納する三次元画像データベース12a、二次元画像130に関する情報を格納する二次元画像データベース12b、動作パターンと表示操作とを対応づける操作対応データベース12cを保存する。
通信部13は、無線LAN、Bluetooth(登録商標)、赤外線通信、ICタグ機能、TransferJET(登録商標)、LTE(Long Term Evolution)、HSPA(High Speed Packet Access)、EV−DO(Evolution Data Only)、及びWiMAX等の無線通信機能、又はEthernet(登録商標)等の有線通信機能を備え、各種の情報を送受信する。データの送受信には、ネットワークを介して行うネットワーク通信と、ネットワークを介さずに各機器間で直接通信を行う直接通信(例えばBluetooth(登録商標)、ワイヤレスUSB、Felica(登録商標)、ZigBee(登録商標)、Z−WAVE(登録商標)、可視光通信、赤外線通信、NFC(Near Field Communication)(登録商標)を適宜切り替えて使用できる。通信部13は、複数の通信方式に対応するように構成されていてもよい。
方位検出部14は、ジャイロセンサ等を用いて、表示端末装置10の軸回りの回転角度を検出する。方位検出部14は、表示端末装置10に内蔵されていてもよいし、別体として表示端末装置10と有線通信または無線通信で接続されていてもよい。
加速度検出部15は、加速度センサ等を用いて、表示端末装置10の3軸方向それぞれの加速度を検出する。なお、加速度検出部15は、表示端末装置10に内蔵されていてもよいし、別体として表示端末装置10と有線通信または無線通信で接続されていてもよい。方位検出部14及び加速度検出部15で検出される値に基づき、ユーザ300の動きを検出し、その動きに応じて仮想現実空間100におけるユーザ300の視点を移動させることが可能となる。
表示部16は、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、電子ペーパー等の表示パネルや光源、ドライバ回路等から構成され、プロセッサ11の制御下にて任意の情報(例えば、文字、静止画、及び動画等)を表示する。
メモリ17は、DRAM(Dynamic Random Access Memory)などから構成され、プロセッサ11の指示により制御される。メモリ17には、アプリケーションプログラムの各機能が展開される。
入力部18は、ユーザ300の操作を受け付け、当該操作に基づいた入力信号をプロセッサ11に入力する。なお、表示端末装置10にマイクやカメラを備え、音声認識、画像認識、またはジェスチャー認識等によって入力信号を生成し、プロセッサ11に入力するようにしてもよい。
次に、表示端末装置10のソフトウェアの各機能について説明する。なお、上述したとおり、画像生成部11a及び視点設定部11bについては、他の情報処理装置20が実行してもよい。
画像生成部11aは、図3に示すように、表示端末装置10に表示するための三次元画像110を生成し、三次元画像110の開口120に二次元画像130を表示して仮想現実空間100を生成する。画像生成部11aで生成された画像は、ストレージ12に格納され、画像出力部11cを介して表示部16に出力される。以下、三次元画像110、開口120、及び二次元画像130について詳細に説明する。
三次元画像110は、床面140と四つの側面で囲われる仮想的な空間を示す画像である。ただし、四つの側面である必要ななく、より多くの側面を有していてもよい。三次元画像110は、例えば、水平方向に視差を有する左眼用画像および右眼用画像がそれぞれ同一の表示部16に表示され、ユーザ300が左眼用画像を左眼で、右眼用画像を右眼でそれぞれ独立して観察することにより、表示部16に表示された画像が三次元であるように知覚される画像である。画像生成部11aは、x軸、y軸、z軸の座標を指定して床面や壁などのオブジェクトを作成する。ここで、以下説明では、仮想現実空間100においては、図3に示すように、ユーザ300の視線が開口120を向いている状態で、開口120の左右方向をx軸方向、開口120の上下方向をy軸方向、x軸及びy軸のいずれとも直交するユーザ300の視点の前後方向をz軸方向と定める。なお、現実空間200においても同様に、撮影装置210が対象物131を撮影する状態で、撮影装置210と対象物131を結ぶ方向をz軸方向、z軸方向と直交し、地面と水平方向をx軸方向、地面と垂直方向をy軸方向と定める。
開口120は、二次元画像130が表示される位置、すなわち三次元画像110の所定の壁111のxy平面(側面)における内側領域に作成される。まず、開口120の形状について説明する。図5は、三次元画像110の所定の壁111に形成される開口120及び二次元画像130を示す図である。図5に示すように、開口120は、例えばユーザ300の視点において奥行きを有するように四端面で形成されている。望ましくは、y軸方向の−側端面120aが、段差121を介して床面140と連続的に形成される。さらに、望ましくは、開口120の縁に沿って連続的にz軸方向の−側に張り出す凸部122を形成し、この場合、開口120のy軸方向の−側に形成される凸部122が段差121となる。なお、四端面である必要はなく、より多くの端面を有していてもよい。
次に、開口120の大きさについて説明する。図6は、開口120の大きさの設定方法を説明するためのxz断面の模式図である。図6に示すように、画像生成部11aは、現実空間200において二次元画像130を撮影する撮影装置210と、二次元画像130となる現実空間200のxy平面における、撮影装置210の高さのxz平面と交わる両端部E1,E2と、をそれぞれ結ぶ二つの仮線K1,K2がなす角度θ1(いわゆる撮影装置210の水平画角)と、後述する視点設定部11bで設定される、撮影装置210と該撮影装置210の水平方向(z軸方向)における二次元画像130となるxy平面との間の最短の距離Dと、に基づいて、開口120のx軸方向の大きさWを算出する。そして、開口120のx軸方向の大きさWと、撮影装置210で撮影される二次元画像130の横方向(x軸方向)と縦方向(y軸方向)の比率と、に基づいて、開口120のy軸方向の大きさHを算出する。画像生成部11aは、算出された開口120の大きさに関する情報に基づき、三次元画像110上に開口を生成する。
開口120の大きさの算出方法について、具体的に一例を示すと、仮線K1,K2がなす角度θ1(水平画角)が「90度」であり、距離Dが「3m」であり、撮影装置210で撮影される二次元画像130のy軸方向とx軸方向との比率が「9:16」である場合、x軸方向の大きさWは距離Dにtan(90°/2)を乗じた結果を2倍して算出され、y軸方向の大きさHは算出されたx軸方向の大きさWに9/16を乗じて算出される。この場合、x軸方向の大きさWは「6m」となりy軸方向の大きさHは「3.37m」となる。
角度θ1、比率、距離Dなどの開口120の大きさの算出に必要な情報は二次元画像データベース12bに格納されている。また、開口120の大きさは二次元画像130の大きさと一致するように設定されているが、開口120の大きさが二次元画像130の大きさよりも小さい場合、二次元画像130が開口120に収まるように二次元画像130の端部の一部を除去してもよい。
なお、開口120の大きさは、予め定められた撮影条件(後述する高さR、角度θ2、距離Dなど)で撮影された二次元画像130と適合するような、予め定められた大きさでもよい。この場合、上述したように開口120の大きさを二次元画像130の撮影条件に応じて算出する必要がないため、表示端末装置10(又は情報処理装置20)の処理効率が向上する。
二次元画像130は、三次元画像110の開口120の領域にマッピングされ、現実空間200の対象物131を含む二次元空間が表示される画像である。画像生成部11aは、三次元画像110の壁111上の座標を設定して該座標に二次元画像130をマッピングする。二次元画像130は、図5に示すように、対象物131に動きがある動画であることが望ましい。このように対象物131に動きがあると、一般に、ユーザ300が対象物131に注目するため、二次元画像130と三次元画像110との境目の違和感をユーザ300の知覚から排除できる。二次元画像130は、例えば、撮影装置210で予め撮影された画像であり、二次元画像データベース12bに格納されている。なお、二次元画像130は、ストレージ12の二次元画像データベース12bに格納されているものに限定されず、ストレージ12とは別のサーバ(例えば動画共有サイトなど)に格納されている画像であってもよい。
視点設定部11bは、仮想現実空間100におけるユーザ300の視点を設定する。ここでは、視点設定部11bがユーザ300の視点を設定する方法について説明する。図7は、ユーザ300の視点の設定方法を説明するための現実空間200におけるyz断面の模式図である。まず、視点設定部11bは、例えば、ユーザ300の視点を人が正しく座った状態の高さRに設定する。これにより、座った状態で表示端末装置10を装着したユーザ300が仮想現実空間100で対象物131を見る際に、ユーザ300に対しリアリティを与えることができる。
そして、視点設定部11bは、仮想現実空間100上の二次元画像130におけるz軸方向上の端部に対応する現実空間200の基準点P(例えば地面)と撮影装置210とを結ぶ仮線K3と、撮影装置210における水平線(図7ではz軸方向に沿う仮線K4)と、がなす角度θ2(いわゆる撮影装置210の垂直画角の半分)と、高さRと、に基づいて、二次元画像130となる基準点Pを含むxy平面(仮平面)と撮影装置210との間の最短の距離Dを算出する。なお、距離Dを示す情報は、予め二次元画像データベースに格納されているものであってもよい。
距離Dの算出方法について、具体的に一例を示すと、仮線K3と仮線K4とがなす角度θ2(垂直画角の半分)が「30度」であり、高さRが「1m」である場合、距離Dは、Rにtan30°を乗じて「1.73m」と算出される。
視点設定部11bは、仮想現実空間100におけるユーザ300の視点から二次元画像130までの水平方向(z軸方向)の距離が、算出された距離Dと等しくなるように、仮想現実空間100におけるユーザ300の視点の位置を設定する。これにより、現実空間200におけるユーザ300から対象物131までの距離が、仮想現実空間100におけるユーザ300から二次元画像130に映る対象物131までの仮想的距離と略等しくなる。このため、ユーザ300は現実空間200と同じような状況において仮想現実空間100で対象物131を知覚することができる。すなわち、ユーザ300に対し仮想現実空間100においてより高いリアリティを与えることができる。設定された視点の位置に関する情報は、例えば三次元画像110とともに三次元画像データベース12aに格納される。
以上より、ユーザ300は、仮想現実空間100において二次元画像130に奥行きがあるかのように、すなわち二次元画像130が三次元の画像であるかのように錯覚する。ここで、仮想現実空間100においてユーザ300が錯覚を起こす原理について、詳しく説明する。図8は、二次元画像130についてユーザ300が錯覚を起こす原理を説明する平面図である。図8における破線は、二次元画像130を三次元的に見ると現れるものを示す。ユーザ300は、仮想現実空間100において二次元画像130が所定の壁111のxy平面における内側に設けられることで、二次元画像130の周辺の壁111の裏側(z軸方向の−側)に空間(図8の斜線部分)があるように錯覚する。さらに、開口120が奥行きを有することにより、ユーザ300に対し該裏側に空間があるという錯覚をより惹起する。また、視点設定部11bが、仮想現実空間100の視点を仮想的に距離Dとなるように設定することで、ユーザ300が仮想現実空間100の対象物131を現実空間200の対象物131と同じ大きさで知覚でき、その錯覚を惹起する。これにより、ユーザ300は、二次元画像130に映る対象物131を、三次元の対象物131として隣の部屋にあるかのように錯覚する。
このように、表示端末装置10は、現実空間200の対象物131に対する撮影装置210の位置を、仮想現実空間100におけるユーザ300の視点の位置と対応させることにより、様々な二次元画像130を三次元画像110の開口120にマッピングすることができる。これにより、対象物131の三次元画像110を用いずに、容易に、対象物131の二次元画像130を三次元の画像であるかのように、ユーザ300に対象物131を見せることができる。このため、対象物131を三次元スキャニングするためのコストを縮減することができ、扱う情報量を縮減することができる。
次に、仮想現実空間100において、例えば別途設けられるコントローラ(不図示)の操作に基づき、ユーザ300の視点が二次元画像130に近づいたときの、二次元画像130の拡大率について説明する。図9は、二次元画像130の拡大率を説明するための模式図である。図9に示すように、仮想現実空間100における二次元画像130とユーザ300の視点との水平方向(z軸方向)の離隔が距離Aである状態から、ユーザ300の視点が二次元画像130に水平方向において距離Bだけ近づいた場合、ユーザ300が元の二次元画像130よりも大きな二次元画像130を知覚するように、二次元画像130をA/(A−B)の拡大率で拡大する。これにより、ユーザ300が、仮想現実空間100に三次元の対象物131があるかのように錯覚しやすくなる。
画像出力部11cは、三次元画像110及び二次元画像130をそれぞれ、三次元画像データベース12a及び二次元画像データベース12bから取得し、画像生成部11aで生成された開口120を有する三次元画像110、及び二次元画像130を表示部16に出力する。
===処理手順===
図10は、表示端末装置10の動作処理を示すフローチャートである。図10を参照しつつ表示端末装置10の処理手順について説明する。
まず、画像生成部11aは、三次元画像110を生成する(S10)。生成された三次元画像110は三次元画像データベース12aに格納される。
画像生成部11aは、二次元画像データベース12bから二次元画像情報を取得する(S11)。二次元画像情報とは、二次元画像130の大きさや現実空間200の距離Dなど、二次元画像130を開口120の位置にマッピングするために必要な情報である。画像生成部11aは、二次元画像情報に基づき開口120を生成する(S12)。なお、画像生成部11aは、所定の大きさの開口120を生成した後に、開口120の座標位置に所定の条件を有する二次元画像130をマッピングしてもよい。また、開口120は、予め定められた撮影条件で撮影される二次元画像130と適合するような、予め定められた大きさのものが生成されてもよい。
次に、視点設定部11bは、距離Dに関する情報に基づき、仮想現実空間100におけるユーザ300の視点の位置から二次元画像130までの距離が現実空間200の距離Dと等しくなるように、視点の位置を設定する(S13)。該視点の位置に関する情報を含む三次元画像110を三次元画像データベース12aに格納する(S14)。
次に、画像出力部11c(三次元画像出力部)は、三次元画像データベース12aから三次元画像110を取得して表示部16に出力する(S15)。画像出力部11c(二次元画像出力部)は、二次元画像データベース12bから二次元画像130を取得して三次元画像110の開口120の位置に出力する(S16)。なお、画像出力部11cは、二次元画像130を、ストレージ12とは別のサーバ(例えば動画共有サイトなど)から取得してもよい。
これにより、表示端末装置10は、ユーザ300が対象物131の二次元画像130を三次元の画像であるかのように錯覚する仮想現実空間100を生成できる。
===他の実施形態===
上記において、壁111の内側領域は該開口120の周りに壁111の一部が残るような位置であるとして説明したが、例えば、該開口120の周りに壁111の少なくとも一部が残るような位置であってもよい。具体的には、例えば開口120におけるy軸方向の+側端面が三次元画像110の天井(不図示)と面一となるように形成されていてもよい。
上記において、開口120は例えばユーザ300の視点において奥行きを有するように4端面で形成されているとして説明したが、さらに、開口120におけるx軸方向の両端部に、z軸方向の−側に張り出す柱状の部材を生成してもよい。これにより、二次元画像130が奥行きを有するかのようにユーザ300が錯覚をおこしやすくなる。
二次元画像130の色合いが三次元画像110の色合いよりも明るく設定されていることが望ましい。これにより、一般に、ユーザ300の視線を対象物131に注目させることができるためユーザ300がより錯覚をおこしやすくなる。
三次元画像110の床面140には、図5に示すように模様が設けられていることが望ましい。これにより、ユーザ300が二次元画像130上の対象物131までの仮想的な距離感をイメージしやすくなるためユーザ300がより錯覚をおこしやすくなる。
三次元画像110におけるユーザ300の視点の近傍にテーブルなどの立体的なオブジェクト(不図示)を設けることが望ましい。これにより、三次元空間における距離、縦横の大きさ、高さなどを、ユーザ300は立体的なオブジェクトに基づいて知覚し、よりリアルに対象物131を体感できる。
二次元画像130上の対象物131を回転させるターンテーブル132(図5)の回転音が表示端末装置10のスピーカーから出力されることが望ましい。スピーカーから出力される回転音は、顔の向きに応じて左右のスピーカーの調整がなされる。これにより、ユーザ300は対象物131をよりリアルに体感できる。
なお、述した実施の形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明はその趣旨を逸脱することなく変更、改良され得るとともに、本発明にはその等価物も含まれる。
===まとめ===
本実施形態に係る画像表示システム1は、ユーザ300が頭部に装着して表示部16に仮想現実空間100を表示する表示端末装置10が、壁111で囲われる三次元画像110を表示する三次元画像表示ステップと、三次元空間の所定の壁111における側面の内側領域に、現実空間200の対象物131の画像を含む二次元画像130を表示する二次元画像表示ステップと、を実現する。本実施形態によれば、ユーザ300が仮想現実空間100に設けられる現実空間200の対象物131の二次元画像130の見えない部分があるように錯覚するため、二次元画像130を三次元的に知覚する。このため、現実空間200における対象物131の三次元画像を二次元画像に代替えできるため、情報処理の処理量を縮減でき、三次元画像を生成するためのコストを抑制できる。また、例えば、商品が日々更新される小売業界などにおいて、仮想現実空間を活用した商品販売を簡易に行うことができるようになるため、ユーザに新たな購買体験をもたらすことができる。
また、画像表示システム1における三次元画像表示ステップでは、所定の壁111に表示される二次元画像130の位置に、奥行きを有する開口120を表示する。本実施形態によれば、ユーザ300は開口120に奥行きがあるため二次元画像130に映る対象物131が隣の部屋にあるかのように錯覚する。
画像表示システム1は、二次元画像130における現実空間200の地面に対して垂直方向への仮平面から、現実空間200における撮影装置210までの水平距離Dと、仮想現実空間100におけるユーザ300の視点から、三次元画像110に出力される二次元画像130までの水平距離と、が等しくなるように、仮想現実空間100におけるユーザ300の視点の位置を設定する視点設定ステップをさらに実現する。本実施形態によれば、ユーザ300が仮想現実空間100と現実空間200とで同じ環境で対象物131を視るように視点を設定するため、二次元画像130を三次元的に錯覚しやすくなる。
画像表示システム1における二次元画像表示ステップでは、対象物131が動く二次元画像130を表示する。本実施形態によれば、ユーザ300の視点を対象物131に注目させることができるため、三次元画像110と二次元画像130との境界の違和感を軽減できる。
画像表示システム1における三次元画像表示ステップでは、三次元空間の床面140に模様が付された三次元画像110を表示する。本実施形態によれば、ユーザ300が二次元画像130上の対象物131までの仮想的な距離感をイメージしやすくなる。
画像表示システム1における二次元画像表示ステップでは、三次元画像110の明るさよりも明るい二次元画像130を表示する。本実施形態によれば、ユーザ300の視線を対象物131に注目させられる。
画像表示システム1における三次元画像表示ステップでは、三次元空間の床面140に立体オブジェクトを表示する。本実施形態によれば、対象物131の距離や大きさなどを知覚しやすくなる。
1…画像表示システム、10…表示端末装置、11…プロセッサ、11a…画像生成部、11b…視点設定部、11c…画像出力部、12…ストレージ、12a…三次元画像データベース、12b…二次元画像データベース、12c…操作対応データベース、13…通信部、14…方位検出部、15…加速度検出部、16…表示部、17…メモリ、18…入力部、100…仮想現実空間、110…三次元画像、111…壁、120…開口、130…二次元画像、131…対象物、132…ターンテーブル、140…床面、200…現実空間、210…撮影装置、300…ユーザ。

Claims (9)

  1. ユーザが頭部に装着して表示部に仮想現実空間を表示する表示端末装置を備える画像表示システムの画像表示方法であって、
    前記画像表示システムが、
    壁で囲われる三次元空間を示す三次元画像を表示する三次元画像表示ステップと、
    前記三次元空間の所定の壁における側面の内側領域に、現実空間の対象物の画像を含む二次元画像を表示する二次元画像表示ステップと、
    を実現し、
    前記二次元画像は、前記二次元画像を撮影した前記現実空間における撮影装置から、前記二次元画像の下側端部に対応する前記現実空間の基準点を含み、地面に対して垂直方向への仮平面までの水平距離と、前記三次元空間におけるユーザの視点から、前記三次元空間の前記所定の壁までの水平距離とが、等しくなるように設定されたものである、
    画像表示方法。
  2. 前記基準点は、前記現実空間の地面上の点である
    請求項1に記載の画像表示方法。
  3. 前記三次元画像表示ステップは、さらに、
    前記二次元画像が表示される位置に、奥行きがあり、前記三次元空間における地面と連続的に形成される段差を有する開口を表示する
    請求項1又は請求項2に記載の画像表示方法。
  4. 前記二次元画像は、前記対象物きがある動画である
    請求項1乃至請求項3のいずれか一項に記載の画像表示方法。
  5. 前記三次元画像表示ステップでは、前記三次元空間の床面に模様が付された前記三次元画像を表示する
    ことを実現する請求項1乃至請求項4いずれか一項に記載の画像表示方法。
  6. 前記二次元画像表示ステップでは、前記三次元画像の明るさよりも明るい前記二次元画像を表示する
    ことを実現する請求項1乃至請求項5のいずれか一項に記載の画像表示方法。
  7. 前記三次元画像表示ステップでは、前記三次元空間の床面に立体オブジェクトを表示する
    ことを実現する請求項1乃至請求項6のいずれか一項に記載の画像表示方法。
  8. ユーザが頭部に装着して仮想現実空間を表示する表示端末装置を備える画像表示システムを制御するためのプログラムであって、
    前記画像表示システムに、
    壁で囲われる三次元空間を示す三次元画像を表示させる三次元画像表示機能と、
    前記三次元空間の所定の壁における側面の内側領域に、現実空間の対象物の画像を含む二次元画像を表示させる二次元画像表示機能と、
    を実現させ、
    前記二次元画像は、前記二次元画像を撮影した前記現実空間における撮影装置から、前記二次元画像の下側端部に対応する前記現実空間の基準点を含み、地面に対して垂直方向への仮平面までの水平距離と、前記三次元空間におけるユーザの視点から、前記三次元空間の前記所定の壁までの水平距離とが、等しくなるように設定されたものである、
    プログラム
  9. ユーザが頭部に装着して表示部に仮想現実空間を表示する表示端末装置を備える画像表示システムであって
    で囲われる三次元空間を示す三次元画像を出力する三次元画像出力部と、
    前記三次元空間の所定の壁における側面の内側領域に、現実空間の対象物の画像を含む二次元画像を出力する二次元画像出力部と、
    を備え、
    前記二次元画像は、前記二次元画像を撮影した前記現実空間における撮影装置から、前記二次元画像の下側端部に対応する前記現実空間の基準点を含み、地面に対して垂直方向への仮平面までの水平距離と、前記三次元空間におけるユーザの視点から、前記三次元空間の前記所定の壁までの水平距離とが、等しくなるように設定されたものである、
    画像表示システム。
JP2019042355A 2019-03-08 2019-03-08 画像表示方法、画像表示システム、プログラム Active JP6611143B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019042355A JP6611143B1 (ja) 2019-03-08 2019-03-08 画像表示方法、画像表示システム、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019042355A JP6611143B1 (ja) 2019-03-08 2019-03-08 画像表示方法、画像表示システム、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019192759A Division JP2020145668A (ja) 2019-10-23 2019-10-23 画像表示方法、画像表示システム、プログラム

Publications (2)

Publication Number Publication Date
JP6611143B1 true JP6611143B1 (ja) 2019-11-27
JP2020145636A JP2020145636A (ja) 2020-09-10

Family

ID=68692001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042355A Active JP6611143B1 (ja) 2019-03-08 2019-03-08 画像表示方法、画像表示システム、プログラム

Country Status (1)

Country Link
JP (1) JP6611143B1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4408681B2 (ja) * 2003-10-22 2010-02-03 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、及び画像生成システム
JP4535855B2 (ja) * 2004-11-26 2010-09-01 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
EP3389261B1 (en) * 2015-12-11 2021-03-17 Sony Corporation Information processing device, information processing method, and program
JP6632443B2 (ja) * 2016-03-23 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
WO2017212679A1 (ja) * 2016-06-08 2017-12-14 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6852295B2 (ja) * 2016-07-13 2021-03-31 株式会社リコー 画像処理装置、画像処理方法、および画像処理プログラム
JP2018101019A (ja) * 2016-12-19 2018-06-28 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
JP6824579B2 (ja) * 2017-02-17 2021-02-03 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法

Also Published As

Publication number Publication date
JP2020145636A (ja) 2020-09-10

Similar Documents

Publication Publication Date Title
US10670868B2 (en) Identification of augmented reality image display position
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
WO2017115635A1 (ja) 情報処理方法及び情報処理プログラム
US10645370B2 (en) Synthetic stereoscopic content capture
US10277814B2 (en) Display control method and system for executing the display control method
JP6211144B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2007020142A (ja) 3dグラフィック処理装置及びこれを利用した立体映像表示装置
JP6474278B2 (ja) 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
JP6223533B1 (ja) 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
US10957106B2 (en) Image display system, image display device, control method therefor, and program
JP6113337B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2017208632A5 (ja)
JP2018171455A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP6342448B2 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP6611143B1 (ja) 画像表示方法、画像表示システム、プログラム
JP2018147504A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2020145668A (ja) 画像表示方法、画像表示システム、プログラム
JP5319728B2 (ja) 視差画像生成装置、表示装置、視差画像生成方法、視差画像生成プログラムおよびそれを記録した記録媒体
JP6333893B2 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP2018000987A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
US20170052684A1 (en) Display control apparatus, display control method, and program
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6275809B1 (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
JP6216851B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2017224275A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190308

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191023

R150 Certificate of patent or registration of utility model

Ref document number: 6611143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350