JP2018056889A - 表示端末、表示方法、及びプログラム - Google Patents

表示端末、表示方法、及びプログラム Download PDF

Info

Publication number
JP2018056889A
JP2018056889A JP2016193204A JP2016193204A JP2018056889A JP 2018056889 A JP2018056889 A JP 2018056889A JP 2016193204 A JP2016193204 A JP 2016193204A JP 2016193204 A JP2016193204 A JP 2016193204A JP 2018056889 A JP2018056889 A JP 2018056889A
Authority
JP
Japan
Prior art keywords
display
image
images
screen
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016193204A
Other languages
English (en)
Inventor
浅井 貴浩
Takahiro Asai
貴浩 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016193204A priority Critical patent/JP2018056889A/ja
Publication of JP2018056889A publication Critical patent/JP2018056889A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利用者がスマートフォン等の表示端末を取り付けたスコープを頭部に装着して、表示端末に表示された画像を見ると、あたかも画像で表わされた場所にいるかの様な感覚を体験することができる。また、スコープには、現実の三次元の世界にいるかのように感じるための複眼(二眼)タイプがある。表示端末も、複眼用に2つの画像を表示する場合がある。しかし、利用者が、複眼用に2つの画像を表示する表示端末を取り付けたスコープを装着する場合、利用者の鼻の高さや両目の間隔の違いにより、2つの画像がずれて見えることでVR酔いが起こる。【解決手段】表示端末は、全天球パノラマ画像における所定領域を示す複眼用の2つの画像を表示手段における2つの表示領域にそれぞれ表示させることで仮想現実を実現可能とし、2つの画像のうちの一方の画像の表示領域の位置の移動を受け付けると、一方の画像の表示領域の位置を移動させて表示する。【選択図】図17

Description

本発明は、表示端末、表示方法、及びプログラムに関するものである。
近年、一度の撮影で、360°の全天球パノラマ画像の元になる2つの半球画像データを得る特殊なデジタルカメラが提供されている(特許文献1参照)。このデジタルカメラから2つの半球画像データを得たスマートフォン等の表示端末は、全天球パノラマ画像を作成する。但し、そのままでは画像が湾曲して利用者が見えづらいため、表示端末に全天球パノラマ画像の一部の所定領域を示す所定領域画像を表示させることで、利用者は一般のデジタルカメラで撮影された平面画像と同じ感覚で閲覧することができる。
また、2016年は、VR(Virtual Reality:仮想現実/人工現実感)元年とも呼ばれており、利用者が、表示端末を取り付けたVRスコープ(ゴーグル)を頭部に装着して、表示端末に表示された全天球パノラマ画像を見ると、あたかも画像で表わされた場所にいるかの様な感覚を体験することができるようになった。この表示端末に表示される全天球パノラマ画像は、上記特殊なデジタルカメラで撮影することによって得られた2つの半球画像データに基づいて作成される。
また、VRスコープは、単に全天球パノラマ画像を見るための単眼(一眼)タイプと、現実の三次元の世界にいるかのように感じるための複眼(二眼)タイプがある。同様に、表示端末は、単眼用に単一の画像を表示する場合と、複眼用に2つの画像を表示する場合がある。
しかしながら、利用者が、複眼用に2つの画像を表示する表示端末を取り付けたVRスコープを装着する場合、利用者の鼻の高さや両目の間隔等の違いにより、2つの画像がずれて見えることで、眼精疲労、めまい、頭痛,吐き気などの所謂「VR酔い」と言われる症状が起こりやすくなるという課題が生じる。
請求項1に係る発明は、全天球パノラマ画像における所定領域を示す複眼用の2つの画像を表示手段における2つの表示領域にそれぞれ表示させることで仮想現実を実現可能な表示制御手段と、前記2つの画像のうちの一方の画像の前記表示手段における表示領域の位置を移動させる操作を受け付ける受付手段と、を有し、前記表示制御手段は、前記受付手段よって受け付けられた操作に基づき、前記一方の画像の前記表示手段における表示領域の位置を移動させて表示することを特徴とする表示端末である。
以上説明したように本発明によれば、所謂「VR酔い」を抑制することができるという効果を奏する。
(a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。 撮影装置の使用イメージ図である。 (a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。 (a)メルカトル画像で球を被う状態を示した概念図、(b)全天球パノラマ画像を示した図である。 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。 (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されたている状態を示す図である。 所定領域情報と所定領域Tの画像との関係を示した図である。 本発明の実施形態に係る仮想現実システムの概略図である。 VRスコープの使用イメージ図である。 撮影装置のハードウェア構成図である。 スマートフォンのハードウェア構成図である。 仮想現実システムの機能ブロック図である。 左眼用画像と右眼用画像がずれている場合のVR画像を示す概念図。 キャリブレーションを示すフローチャートである。 スマートフォンが左眼用画像と右眼用画像を表示した図である。 スマートフォンがメニュー画面を表示した図である。 左眼用画像及び右眼用画像上に調整用ガイドを表示した図である。 調整用ガイドを表示させた場合のVR画像を示す概念図である。 指で右眼用画像をずらしている状態を示したイメージ図である。 表示領域と画面用画像との関連を示した概念図である。
以下、図面を用いて、本発明の実施形態について説明する。
<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。
図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),図1(b),図1(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。これら撮像素子(画像センサ)103a,103bは、半球画像(画角180°以上)の撮影が可能な光学部材(例えば、後述する魚眼レンズ102a,102b)と併せて用いられる。また、図1(b)に示されているように、撮影装置1の正面側と反対側の面には、シャッターボタン等の操作部115が設けられている。
次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。
以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。
なお、図5は、全天球パノラマ画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球パノラマ画像が、三次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、仮想カメラICの撮影領域であり、全天球パノラマ画像を含む三次元の仮想空間における仮想カメラICの画角を含む位置座標(x(rH),y(rV),画角α(angle))を示す所定領域情報によって特定される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球パノラマ画像に近づいたり、遠ざけたりすることで表現することもできる。
そして、図6(a)に示されている所定領域Tの画像である所定領域画像は、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。なお、所定領域情報、仮想カメラICの位置座標ではなく、所定領域Tである仮想カメラICの撮影領域(X,Y,Z)によって示してもよい。以下では、仮想カメラICの位置座標(x(rH)、y(rV)、及び画角α(angle))を用いて説明する。
次に、図7を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図7は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角を2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから中心点CPまでの距離である。そして、図7では、一般的に以下の式(1)で示される三角関数が成り立つ。
L/f=tan(α/2)・・・(式1)
<仮想現実システムの概略>
続いて、図8を用いて、本実施形態の仮想現実システムの構成の概略について説明する。図8は、本実施形態の仮想現実システムの構成の概略図である。図9は、VRスコープの使用イメージ図である。
図8に示されているように、本実施形態の仮想現実システムは、撮影装置1、VR(Virtual Reality:仮想現実/人工現実感)スコープ2、及びスマートフォン9によって構成されている。
これらのうち、撮影装置1は、上述のように、被写体や風景等を撮影して全天球パノラマ画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。
VRスコープ(ゴーグル)2は、利用者が頭部に装着することができる形体に構成されている。VRスコープ2は、安価な物では厚紙を組み立てて完成されたものや、高価は物ではプラスティック製のものがある。VRスコープ2には、スマートフォン9を挿入するための挿入口21が設けられている。また、VRスコープには、左眼用レンズ22a及び右眼用レンズ22bが設けられている。
スマートフォン9は、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)等の近距離無線通信技術を利用して、撮影装置1で得られた全天球パノラマ画像の元になる2つの半球画像データを取得することができる。また、スマートフォン9では、VR用アプリケーションを起動させることで、自装置に設けられた後述のディスプレイ917に、左眼用画像Lと右眼用画像Rを表示することができる。
利用者は、左眼用画像L及び右眼用画像Rを表示した状態のスマートフォン9をVRスコープ2の挿入口21に挿入し、自己の頭部にVRスコープ2を装着又は近づけて、左眼用レンズ22a及び右眼用レンズ22bを覗くと、図9(a)に示されているように、VR画像を見ることができる。また、図9(b)に示されているように、利用者がVRスコープ2を装着した状態で頭部を上側に向けると、スマートフォン9の後述の加速度・方位センサ906により、スマートフォン9は元のVR画像よりも上空側のVR画像を表示する。これにより、利用者は、あたかも画像で表わされた場所にいるかの様な感覚を体験することができる。
なお、スマートフォン9は、表示端末の一例であり、表示端末には、タブレット型PC(Personal Computer:パーソナルコンピュータ)も含まれる。
<<実施形態のハードウェア構成>>
次に、図10及び図11を用いて、本実施形態の撮影装置1、及びスマートフォン9のハードウェア構成を詳細に説明する。
<撮影装置1のハードウェア構成>
まず、図10を用いて、撮影装置1のハードウェア構成を説明する。図10は、撮影装置1のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全天球(全方位)撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。
図10に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、及び電子コンパス108によって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置1によっては、ディスプレイ(例えば、スマートフォンのディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置1には表示部(ディスプレイ)が設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してビデオ会議端末3等の外部装置に送信されたりする。
通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi等の近距離無線通信技術によって、ビデオ会議端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータをビデオ会議端末3の外部装置に送信することができる。
電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。
<スマートフォンのハードウェア構成>
次に、図11を用いて、スマートフォンのハードウェアについて説明する。図11は、スマートフォンのハードウェア構成図である。図11に示されているように、スマートフォン9は、CPU901、ROM902、RAM903、EEPROM904、CMOSセンサ905、加速度・方位センサ906、メディアI/F908、GPS受信部909を備えている。
これらのうち、CPU901は、スマートフォン9全体の動作を制御する。ROM902は、CPU901やIPL等のCPU901の駆動に用いられるプログラムを記憶する。RAM903は、CPU901のワークエリアとして使用される。EEPROM904は、CPU901の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ905は、CPU901の制御に従って被写体(主に自画像)を撮像し画像データを得る。加速度・方位センサ906は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F908は、フラッシュメモリ等の記録メディア907に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部909は、GPS衛星からGPS信号を受信する。
また、スマートフォン9は、遠距離通信回路911、カメラ912、撮像素子I/F913、マイク914、スピーカ915、音入出力I/F916、ディスプレイ917、外部機器接続I/F918、近距離通信回路919、近距離通信回路919のアンテナ919a、及びタッチパネル921を備えている。
これらのうち、遠距離通信回路911は、通信ネットワーク100を介して、他の機器と通信する回路である。カメラ912は、CPU901の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F913は、カメラ912の駆動を制御する回路である。マイク914は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F916は、CPU901の制御に従ってマイク914及びスピーカ915との間で音信号の入出力を処理する回路である。ディスプレイ917は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F918は、各種の外部機器を接続するためのインターフェースである。近距離通信回路919は、NFCやBluetooth等の通信回路である。タッチパネル921は、利用者がディスプレイ917を押下することで、スマートフォン9を操作する入力手段の一種である。
また、スマートフォン9は、バスライン910を備えている。バスライン910は、CPU901等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、上記各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHDは、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
<<実施形態の機能構成>>
次に、図10乃至図12を用いて、本実施形態の機能構成について説明する。図12は、本実施形態の仮想現実システムの一部を構成する、撮影装置1及びスマートフォン9の各機能ブロック図である。
<撮影装置の機能構成>
まず、図10及び図12を用いて、撮影装置1の機能構成について詳細に説明する。図12に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、通信部18、及び記憶・読出部19を有している。これら各部は、図10に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、撮影装置1は、図10に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
(撮影装置の各機能構成)
次に、図10及び図12を用いて、撮影装置1の各機能構成について更に詳細に説明する。
撮影装置1の受付部12は、主に、図10に示されている操作部115及びCPU111の処理によって実現され、利用者からの操作入力を受け付ける。
撮像部13は、主に、図10に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。この撮影画像データは、図3(a),(b)に示されているように、全天球パノラマ画像データの元になる2つの半球画像データである。
集音部14は、図10に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を集音する。
通信部18は、主に、CPU111の処理によって実現され、ビデオ会議端末3の通信部38と、WiFi等による近距離無線通信技術によって通信することができる。
記憶・読出部19は、主に、図10に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。
<スマートフォンの機能構成>
次に、図11及び図12を用いて、スマートフォン9の機能構成について詳細に説明する。スマートフォン9は、基本的にビデオ会議端末3と同じ機能を有している。即ち、図12に示されているように、スマートフォン9は、送受信部91、受付部92、画像・音処理部93、表示制御部94、判断部95、通信部98、及び記憶・読出部99を有している。これら各部は、図11に示されている各構成要素のいずれかが、EEPROM904からRAM903上に展開されたスマートフォン9用プログラムに従ったCPU901からの命令によって動作することで実現される機能又は手段である。
また、スマートフォン9は、図11に示されているROM902、RAM903、及びEEPROM904によって構築される記憶部9000を有している。
(スマートフォンの各機能構成)
スマートフォン9の送受信部91は、主に、図11に示されている遠距離通信回路911及びCPU901の処理によって実現され、インターネット等の通信ネットワークを介して、他のスマートフォンやサーバとの間で各種データ(または情報)の送受信を行う。
受付部92は、主にタッチパネル921及びCPU901の処理によって実現され、利用者から各種の選択又は入力を受け付ける。タッチパネル316はディスプレイ315と共用であってもよい。また、タッチパネル以外の入力手段(ボタン)等でもよい。
画像・音処理部93は、主にCPU901からの命令によって実現され、撮影装置1から送られて来た全天球パノラマ画像データの元となる2つの半球画像データに基づいて、全天球パノラマ画像データを作成する。例えば、画像・音処理部93は、全天球パノラマ画像の元になる2つの半球画像データから、全天球パノラマ画像、並びに第1の所定領域を示す画像及び前記第2の所定領域を示す画像を作成するための画像処理を行なう。
また、画像・音処理部93は、音データに対してスピーカ915から音声を出力するための音声処理を行う。
表示制御部94は、主にCPU901の処理によって実現され、ディスプレイ917に各種画像や文字等を表示させるための制御を行う。表示制御部94の詳細な処理は後述する。
判断部95は、主にCPU901の処理によって実現され、各種判断を行なう。
通信部98は、主に、CPU901の処理によって実現され、撮影装置1aの通信部18aと、WiFi等による近距離無線技術によって通信することができる。
記憶・読出部99は、CPU901の処理によって実現され、記憶部9000に各種データ(または情報)を記憶したり、記憶部9000から各種データ(または情報)を読み出したりする。
<<実施形態の処理又は動作>>
続いて、図13乃至図209を用いて、本実施形態の処理又は動作について説明する。まず、図13を用いて、左眼用画像と右眼用画像がずれている場合のVR画像を説明する。図13は、左眼用画像と右眼用画像がずれている場合のVR画像を示す概念図である。
図13に示されているように、左眼用画像と右眼用画像がずれている場合には、VR画像がぼやけて見えるため、眼精疲労、めまい、頭痛,吐き気などの所謂「VR酔い」を起してしまう可能性がある。そこで、VR酔いを解消するため、以下に示すように、左眼用画像と右眼用画像を合わせるキャリブレーションの処理を行なう。図14は、キャリブレーションを示すフローチャートである。図15は、スマートフォンが左眼用画像と右眼用画像を表示した図である。図16は、スマートフォンがメニュー画面を表示した図である。図17は、スマートフォンがキャリブレーション用のガイドを表示した図である。
まず、利用者は、VR用アプリケーションを起動して、図15に示されているように、表示制御部94によって、スマートフォン9のディスプレイ917に左眼用画像L及び右眼用画像Rを表示させる。この場合、表示制御部94は、左眼用画像L及び右眼用画像Rの間の上部に、メニューボタンmを表示させている。ここで、利用者がメニューボタンmを押下すると、スマートフォン9の受付部92が、メニューボタンmの押下を受け付ける(ステップS11)。そして、表示制御部94は、図16に示されているように、メニュー画面30を表示させる(ステップS12)。このメニュー画面30には、表示させる他の画像を選択するための「画像選択」ボタン31、左眼用画像L及び右眼用画像Rの色調整を行なうための「色調整」ボタン32、及び左眼用画像Lに対し一定のずれを保ったままで右眼用画像Rを表示させるための「キャリブレーション」ボタン33が表示されている。また、メニュー画面30の右下部には、図15に示されている状態に戻るための「戻る」ボタン34が表示されている。
ここで、利用者が「キャリブレーション」ボタン33を押下すると、受付部92は、「キャリブレーション」ボタン33の押下を受け付ける(ステップS13)。これにより、表示制御部94は、図17に示されているように、キャリブレーション画面を表示する(ステップS14)。このキャリブレーション画面には、左眼用画像L上に調整用ガイドL1〜L5が表示され、右眼用画像R上に調整用ガイドR1〜R5が表示されている。更に、表示制御部94は、左眼用画像L及び右眼用画像Rを固定させて、利用者がスクロール(回転を含む)させようとしてもできないように表示する。
続いて、図18乃至図20を用いて、利用者が右画面用画像Rの表示領域を移動させる処理について説明する。図18は、調整用ガイドを表示させた場合のVR画像を示す概念図である。図19は、指で右眼用画像をずらしている状態を示したイメージ図である。図20は、表示領域と画面用画像との関連を示した概念図である。
図18に示されているように、利用者は一旦、スマートフォン9を取り付けたVRスコープ2を頭部に装着してVR画像を見ると、各調整ガイドが一致していないため、ディスプレイ917上の左眼用画像Lの表示領域に対して、右眼用画像Rの表示領域をどの方向に移動させればよいかを把握することができる。そこで、利用者は、再び、VRスコープ2からスマートフォン9を取り出して、図19に示されているように、指で右画面用画像Rの表示領域を所望の位置に移動させる。これにより、受付部92は、右画面用画像Rの表示領域の移動の位置をさせる操作を受け付ける(ステップS15)。この表示領域の移動は、左画面用画像Rの表示領域の位置は固定したままにして、図20(a)に示されているように、右画面用画像Rの元の表示領域の位置p1から、画面内容は同じままで別の表示領域の位置p2への移動を意味する。なお、ステップS14で、画像を固定していない場合に、利用者が指で右画面用画像Rを移動させると、図20(b)に示されているように、表示領域の位置p1の移動ではなく、右画面用画像Rがスクロールされる。そのため、仮に画像を固定していない場合には、表示領域のキャリブレーションが困難となる。
次に、利用者が、再度、VRスコープ2を装着してVR画像を見た場合に、左画面用画像Lの各調整用ガイドL1〜L5と、右画面用画像Rの調整用ガイドR1〜R5がそれぞれ重なり一致して見えると、利用者はVRスコープ2からスマートフォン9を取り出し、図19に示されている「確定」ボタンFを押下する。これにより、受付部92は、図20(a)に示されている表示領域の移動後の位置p2の確定を受け付ける(ステップS16)。そして、記憶・読出部99は、記憶部9000に移動後の位置を示す調整データを記憶する(ステップS17)。これにより、再度、利用者がスマートフォン9で全天球パノラマ画像を表示させる際に、表示制御部は、記憶・読出部99によって記憶部9000から読み出された調整データに基づき、右画面用画像Rを、上述の確定された表示領域の位置p2で表示することができる。
なお、右画面用画像Rの表示領域の位置p1を固定させ、左画面用画像Lの表示領域の位置を移動させてもよい。
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、スマートフォン9の表示制御部94は、全天球パノラマ画像における所定領域を示す複眼用の2つの画像を表示させることで仮想現実を実現する。そして、受付部92が、2つの画像(左眼用画像L、右眼用画像R)のうちの一方の画像(例えば、右眼用画像R)のディスプレイ917における表示領域の位置p1を移動させる操作を受け付けると、表示制御部94は、受付部92によって受け付けられた操作に基づき、一方の画像のディスプレイ917における表示領域の位置p1を移動させて表示することができる。これにより、所謂「VR酔い」を抑制することができるという効果を奏する。
1 撮影装置
2 VRスコープ
21 挿入口
9 スマートフォン(表示端末の一例)
92 受付部(受付手段の一例)
94 表示制御部(表示制御手段の一例)
917 ディスプレイ(表示手段の一例)
9000 記憶部(記憶手段の一例)
p1 表示領域の位置
p2 表示領域の位置
R 右画面用画像(2つの画像の一つ、一方の画像の一例)
L 左画面用画像(2つの画像の一つ、一方の画像の一例)
特開2012−178135号公報

Claims (10)

  1. 全天球パノラマ画像における所定領域を示す複眼用の2つの画像を表示手段における2つの表示領域にそれぞれ表示させることで仮想現実を実現可能な表示制御手段と、
    前記2つの画像のうちの一方の画像の前記表示手段における表示領域の位置を移動させる操作を受け付ける受付手段と、
    を有し、
    前記表示制御手段は、前記受付手段よって受け付けられた操作に基づき、前記一方の画像の前記表示手段における表示領域の位置を移動させて表示することを特徴とする表示端末。
  2. 前記受付手段によって前記移動の開始を受け付ける前に前記一方の画面に対する移動の操作を受け付けた場合には、前記表示制御手段は、前記一方の画面をスクロールして表示し、
    前記受付手段によって前記移動の開始を受け付けた後に前記一方の画面に対する移動の操作を受け付けた場合には、前記表示制御手段は、前記一方の画面をスクロールせずに、前記表示領域の位置を移動させて表示すること
    を特徴とする請求項1に記載の表示端末。
  3. 前記受付手段は、前記表示領域の移動後の位置の確定を受け付け、
    前記移動後の位置を示す調整データを記憶する記憶手段を有し、
    前記表示制御手段は、再度、全天球パノラマ画像を表示させる際に、前記記憶手段から読み出された前記調整データに基づき、前記一方の画像を前記確定された表示領域の位置で表示する請求項1に記載の表示端末。
  4. 前記表示制御手段は、前記2つの画像に、調整用ガイドを表示することを特徴とする請求項1乃至3のいずれか一項に記載の表示端末。
  5. 全天球パノラマ画像の元になる2つの半球画像データから、全天球パノラマ画像、並びに前記所定領域を示す2つの画像を作成するための画像処理を行なう画像処理手段を有することを特徴とする請求項1乃至4のいずれか一項に記載の表示端末。
  6. 近距離無線通信により、撮影装置から前記全天球パノラマ画像の元になる2つの半球画像データを取得する通信手段を有することを特徴とする請求項5に記載の表示端末。
  7. 前記表示端末は、スマートフォン、又はタブレット型パーソナルコンピュータであることを特徴とする請求項1乃至5のいずれか一項に記載の表示端末。
  8. 画像を表示する表示端末が実行する表示方法であって、
    前記表示端末は、
    全天球パノラマ画像における所定領域を示す複眼用の2つの画像を表示手段における2つの表示領域にそれぞれ表示させることで仮想現実を実現可能とし、
    前記2つの画像のうちの一方の画像の前記表示手段における表示領域の位置を移動させる操作を受け付け、
    前記受け付けられた操作に基づき、前記一方の画像の前記表示手段における表示領域の位置を移動させて表示すること
    を特徴とする表示方法。
  9. 前記移動の開始を受け付ける前に前記一方の画面に対する移動の操作を受け付けた場合には、前記一方の画面をスクロールして表示し、
    前記移動の開始を受け付けた後に前記一方の画面に対する移動の操作を受け付けた場合には、前記一方の画面をスクロールせずに、前記表示領域の位置を移動させて表示すること
    を特徴とする請求項8に記載の表示方法。
  10. コンピュータに、請求項8又は9に記載の方法を実行させるプログラム。
JP2016193204A 2016-09-30 2016-09-30 表示端末、表示方法、及びプログラム Pending JP2018056889A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016193204A JP2018056889A (ja) 2016-09-30 2016-09-30 表示端末、表示方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016193204A JP2018056889A (ja) 2016-09-30 2016-09-30 表示端末、表示方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2018056889A true JP2018056889A (ja) 2018-04-05

Family

ID=61837223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016193204A Pending JP2018056889A (ja) 2016-09-30 2016-09-30 表示端末、表示方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2018056889A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166581A1 (ja) * 2019-02-15 2020-08-20 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
JP2020136801A (ja) * 2019-02-15 2020-08-31 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
CN113207060A (zh) * 2020-12-28 2021-08-03 汉桑(南京)科技有限公司 一种音响参数确定方法和系统
US11895466B2 (en) 2020-12-28 2024-02-06 Hansong (Nanjing) Technology Ltd. Methods and systems for determining parameters of audio devices

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0618815A (ja) * 1992-06-30 1994-01-28 Sony Corp 映像再生装置
JPH06343184A (ja) * 1993-06-01 1994-12-13 Sony Corp 両眼視眼鏡型ディスプレイ
JP2011221235A (ja) * 2010-04-08 2011-11-04 Sony Corp 頭部装着型ディスプレイにおける光学的位置調整方法
JP2013232744A (ja) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 ディスプレイシステム、ディスプレイ調整システム、ディスプレイ調整方法、およびプログラム
JP2014006880A (ja) * 2012-05-31 2014-01-16 Ricoh Co Ltd 通信端末、表示方法、及びプログラム
US20150234189A1 (en) * 2014-02-18 2015-08-20 Merge Labs, Inc. Soft head mounted display goggles for use with mobile computing devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0618815A (ja) * 1992-06-30 1994-01-28 Sony Corp 映像再生装置
JPH06343184A (ja) * 1993-06-01 1994-12-13 Sony Corp 両眼視眼鏡型ディスプレイ
JP2011221235A (ja) * 2010-04-08 2011-11-04 Sony Corp 頭部装着型ディスプレイにおける光学的位置調整方法
JP2013232744A (ja) * 2012-04-27 2013-11-14 Bi2−Vision株式会社 ディスプレイシステム、ディスプレイ調整システム、ディスプレイ調整方法、およびプログラム
JP2014006880A (ja) * 2012-05-31 2014-01-16 Ricoh Co Ltd 通信端末、表示方法、及びプログラム
US20150234189A1 (en) * 2014-02-18 2015-08-20 Merge Labs, Inc. Soft head mounted display goggles for use with mobile computing devices

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166581A1 (ja) * 2019-02-15 2020-08-20 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
JP2020136801A (ja) * 2019-02-15 2020-08-31 株式会社Jvcケンウッド 画像調整システム、画像調整装置、及び画像調整方法
CN113207060A (zh) * 2020-12-28 2021-08-03 汉桑(南京)科技有限公司 一种音响参数确定方法和系统
US11895466B2 (en) 2020-12-28 2024-02-06 Hansong (Nanjing) Technology Ltd. Methods and systems for determining parameters of audio devices

Similar Documents

Publication Publication Date Title
JP7322940B2 (ja) 画像通信システム、画像通信端末、画像通信方法、プログラム、及び記録媒体
JP6756269B2 (ja) 通信端末、画像通信システム、通信方法、及びプログラム
JP6805861B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US20180097682A1 (en) Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
CN111726520B (zh) 摄影装置、摄影系统、图像处理方法
JP2020150330A (ja) 画像通信システム、撮像装置、モード切替方法、プログラム
JP2018056889A (ja) 表示端末、表示方法、及びプログラム
US11250540B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP6649010B2 (ja) 情報処理装置
JP2018033107A (ja) 動画の配信装置及び配信方法
JP2018026642A (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
US11533430B2 (en) Image capturing device with display control, image communication system, and method for display control, and recording medium
JP7017045B2 (ja) 通信端末、表示方法、及びプログラム
JP6812643B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP7415544B2 (ja) 撮影システム及び撮影方法
JP6586819B2 (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP2017201743A (ja) 画像管理システム、画像管理装置、プログラム及び情報端末
JP7358938B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP7484237B2 (ja) 撮影装置、撮影システム、画像処理方法、及びプログラム
JP2022007898A (ja) プログラム、画像通信システム、表示方法、及び撮影装置
US20240323538A1 (en) Display terminal, communication system, display method, and recording medium
US20240323537A1 (en) Display terminal, communication system, display method, and recording medium
JP6816403B2 (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP6992338B2 (ja) 通信システム、通信管理方法、プログラム、システム及び通信方法
JP2024052524A (ja) 通信管理サーバ、通信システム、通信管理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201013