JP7077132B2 - 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 - Google Patents

電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 Download PDF

Info

Publication number
JP7077132B2
JP7077132B2 JP2018094353A JP2018094353A JP7077132B2 JP 7077132 B2 JP7077132 B2 JP 7077132B2 JP 2018094353 A JP2018094353 A JP 2018094353A JP 2018094353 A JP2018094353 A JP 2018094353A JP 7077132 B2 JP7077132 B2 JP 7077132B2
Authority
JP
Japan
Prior art keywords
display
display range
range
electronic device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018094353A
Other languages
English (en)
Other versions
JP2019201307A (ja
Inventor
辰哉 日下田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018094353A priority Critical patent/JP7077132B2/ja
Publication of JP2019201307A publication Critical patent/JP2019201307A/ja
Application granted granted Critical
Publication of JP7077132B2 publication Critical patent/JP7077132B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/30Hydrogen technology
    • Y02E60/50Fuel cells

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、電子機器、電子機器の制御方法、プログラム、及び、記憶媒体に関し、特に、広範囲の映像範囲を有する画像を表示する制御方法に関するものである。
従来、全天球画像のような広い範囲の映像を持つ画像の一部の範囲を表示範囲として表示部に表示し、表示部の姿勢変化に応じて表示範囲の位置を変更することが行われている(特許文献1)。
特開2016-201714号公報
画像の表示が中止されて当該画像の表示が再開される場合において、ユーザーが前回の表示範囲を確認したいことがある。表示部の姿勢変化によって表示範囲の位置は変更されるが、ユーザーは、前回の表示範囲を覚えていないこと、画像の範囲が広いこと等により、前回の表示範囲を容易に探し出すことができない。
そこで本発明は、画像の一部の範囲を表示範囲として表示部に表示し、その表示が中止された後に、画像の表示が再開される場合においてユーザーが前回の表示範囲を容易に探し出せるようにする技術を提供することを目的とする。
本発明の第1の態様は、
ユーザーの操作に応答して表示範囲を変更するための指示を取得する取得手段と、
画像の一部の範囲を表示範囲として表示部に表示するように制御し、前記指示に応じて前記表示範囲の位置を変更する表示制御手段と、
前記画像の表示が中止される場合に、前記表示範囲の位置に関する情報を記憶部に記録する記録手段と、
前記画像の表示が再開される場合に、前記情報と現在の表示範囲とに基づいて、前記現在の表示範囲から前記情報に関連した過去の表示範囲へ向かう方向を通知するように制御する通知制御手段と、
を有することを特徴とする電子機器である。
本発明の第2の態様は、
ユーザーの操作に応答して表示範囲を変更するための指示を取得するステップと、
画像の一部の範囲を表示範囲として表示部に表示するように制御し、前記指示に応じて前記表示範囲の位置を変更するステップと、
前記画像の表示が中止される場合に、前記表示範囲の位置に関する情報を記憶部に記録するステップと、
前記画像の表示が再開される場合に、前記情報と現在の表示範囲とに基づいて、前記現在の表示範囲から前記情報に関連した過去の表示範囲へ向かう方向を通知するように制御するステップと、
を有することを特徴とする電子機器の制御方法である。
本発明の第3の態様は、コンピュータを上述した電子機器の各手段として機能させるためのプログラムである。本発明の第4の態様は、コンピュータを上述した電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体である。
本発明によれば、画像の一部の範囲を表示範囲として表示部に表示し、その表示が中止された後に、画像の表示が再開される場合においてユーザーが前回の表示範囲を容易に探し出せるようになる。
実施例1に係る電子機器の構成例を示すハードウェアブロック図 実施例1に係る動画配信システムの構成例を示す図 実施例1に係る画面の一例を示す図 実施例1に係る表示範囲の決定方法の一例を示す図 実施例1に係る電子機器から送信されるデータの一例を示す図 実施例1に係る表示範囲と表示時間位置の一例を示す図 実施例1に係る画面の一例を示す図 実施例1に係る画面の一例を示す図 実施例1に係る表示制御処理の一例を示すフローチャート 実施例2に係る表示範囲と画面の一例を示す図 実施例2に係る表示制御処理の一例を示すフローチャート
<実施例1>
以下、本発明の実施例1について説明する。図1は、本実施例に係る電子機器(表示制御装置)100の構成例を示すハードウェアブロック図である。電子機器100は、スマートホン、ヘッドマウントディスプレイ、等である。電子機器100がヘッドマウントディスプレイでない場合に、電子機器100は、ヘッドマウントアダプターに装着することでヘッドマウントディスプレイ(HMD)として使用可能であってもよい。ヘッドマウントアダプターは「VR(Virtual Reality)ゴーグル」とも呼ばれる。
電子機器100(CPU101)は、画像(対象画像)の一部の範囲を表示範囲として表示部110に表示する。なお、表示部110は、電子機器100とは別体の表示装置であってもよい。例えば、電子機器100は、表示部110を有さないパーソナルコンピュータ(PC)、ゲーム機、各種再生装置、等であってもよいし、表示部110は、電子機器100に接続されたHMDなどであってもよい。
対象画像は、全天球画像などであり、通常の倍率で表示される場合に、表示範囲よりも広い映像範囲(映像がある範囲;有効映像範囲)を持つ。有効映像範囲は撮影範囲ともいえる。通常の倍率は、例えば、拡大も縮小もされない倍率である。全天球画像は、「全方位画像」、「360度画像」、「360度パノラマ画像」、等とも呼ばれる。対象画像は、最大で上下方向(垂直角度、天頂からの角度、仰俯角、高度角)360度、左右方向(水平角度、方位角度)360度の視野分の有効映像範囲を持つ。なお、対象画像の有効映像範囲は、360度未満の仰俯角(例えば180度(±90度))に対応してもよいし、360度未満の方位角(例えば180度(±90度))に対応してもよい。
また、電子機器100(CPU101)は、電子機器100(表示部110)の姿勢変化に応じて、表示範囲の位置を変更する。なお、電子機器100の姿勢を変える操作とは異なる操作に応答して表示範囲を変更するための指示を取得し、取得した指示に応じて表
示範囲の位置が変更可能であってもよい。例えば、表示部110の表示面上に設けられたタッチパネルに対するタッチ操作(フリック操作やスライド操作)の位置の変化に応じて表示範囲の位置が変更されてもよい。電子機器100に設けられたボタン、電子機器100に接続されたコントローラ、等に対する操作に応じて表示範囲の位置が変更されてもよい。
ユーザーが電子機器100(HMD)を頭部に装着した状態では、ユーザーは、手で電子機器100を保持することなく、表示部110に表示された表示範囲を視認することができる。この場合、ユーザーが頭部または体全体を動かすと、電子機器100(表示部110)の姿勢も変化する。このため、電子機器100の姿勢は「ユーザーの頭部の姿勢(ユーザーの視線が向いている方向)」と言い換えることができる。
電子機器100(表示部110)の姿勢変化に応じて表示範囲の位置を変更する表示方法は「VR表示」などと呼ばれる。そして、VR表示によれば、ユーザーに対して、視覚的にあたかも対象画像内(VR空間内)のその場にいるような感覚(没入感や臨場感)を提供することができる。対象画像は「有効映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。VR表示のような対象画像の見せ方は「VRビュー」などと呼ばれる。
図1のように、電子機器100では、内部バス109に対し、CPU101、DRAM102、ROM103、RAM104、表示駆動部105、操作部106、姿勢検出部107、通信IF部108、表示部110、EEPROM111が接続されている。内部バス109に接続された上記複数のユニットは、内部バス109を介して互いにデータのやり取りを行うことができる。
ROM103は、各種プログラム及び各種データを記憶する。例えば、ROM103は、電子機器100の全体的な処理(動作)を制御するためのプログラム、後述する動画プレーヤのアプリケーションプログラム、等を記憶する。CPU101は、ROM103に格納されたプログラムを実行することで、電子機器100の各ユニットの処理を制御する。DRAM102は、電子機器100のメインメモリである。RAM104は、CPU101のワークメモリとして使用される。EEPROM111は、電子機器100の電源を切っても情報を記憶し続けることができる不揮発性メモリである。通信IF部108は、CPU101からの指示に応じて、インターネットなどのネットワーク120との通信を行う。
操作部106は、操作(ユーザー操作)を受け付ける入力デバイスである。例えば、操作部106は、タッチパネルなどのポインティングデバイスを含む。タッチパネルは、ユーザーやタッチペンなどがタッチパネルに接触した接触位置に応じた座標情報を出力する。CPU101は、操作部106に対する操作に応じて、電子機器100の各ユニットの処理を制御する。具体的には、操作部106は、操作部106に対する操作に応じた制御信号を生成し、CPU101に供給する。CPU101は、操作部106から供給された制御信号に応じて、電子機器100の各ユニットの処理を制御する。
表示駆動部105は表示部110を駆動する。表示部110は、液晶パネルなどの表示デバイスである。CPU101は、表示部110に表示する画像に応じた表示制御信号を生成し、当該表示制御信号を表示駆動部105に供給する。表示駆動部105は、CPU101から供給された表示制御信号に応じて、表示部110を駆動する表示駆動信号を生成する。そして、表示駆動部105は、生成した表示駆動信号を表示部110に供給する。表示部110は、表示駆動部105から供給された表示駆動信号に応じた駆動により、表示面に画像を表示する。
姿勢検出部107は、電子機器100(表示部110)の姿勢を検出(検知)し、その検出結果(傾き、方位、等)をCPU101に供給する。CPU101は、電子機器100の姿勢の検出結果に基づいて、電子機器100の姿勢変化の有無を判断できる。姿勢検出部107として、加速度センサー、ジャイロセンサー、地磁気センサー、方位センサー、等の複数のセンサーのうち少なくとも1つを用いることができる。複数のセンサーの組み合わせが姿勢検出部107として使用されてもよい。なお、表示部110が電子機器100とは別体の表示装置である場合には、姿勢検出部107が表示部110に設けられ、姿勢検出部107の検出結果を取得するインターフェースが電子機器100に設けられる。
図2は、本実施例に係る動画配信システムの構成例を示す図である。図2の動画配信システムでは、電子機器100が、ネットワーク120を介して動画配信サーバ10に接続されている。動画配信サーバ10は、上述した対象画像である動画(対象動画)を記憶している。電子機器100は、表示範囲と表示時間位置の情報を動画配信サーバ10に送信する。表示時間位置は、対象動画の開始から終了までの期間における複数の時間位置のうち、表示対象の時間位置である。動画配信サーバ10は、表示範囲と表示時間位置の情報を受信すると、当該表示範囲と当該表示時間位置に応じた画像データを、対象動画データ(対象動画の動画データ)から抽出し、電子機器100に送信する。そして、電子機器100は、受信した画像データに基づく画像を表示する。これらの処理は、電子機器100の表示を更新する各更新タイミングで行われる。
なお、動画配信サーバ10が抽出する画像データの画像サイズは特に限定されない。画像の拡大や縮小は、動画配信サーバ10で行われてもよいし、電子機器100で行われてもよい。動画配信サーバ10が画像の拡大や縮小を行う場合には、動画配信サーバ10が抽出する画像データの画像サイズは変化し得る。動画配信サーバ10が画像の拡大や縮小を行わない場合には、動画配信サーバ10が抽出する画像データの画像サイズは変化しない。
図3は、電子機器100に表示された画面の一例を示す図である。図3の画面は、動画プレーヤの画面である。図3に示すように、動画プレーヤの画面は、表示エリア301、再生ボタン302、一時停止ボタン303、及び、停止ボタン304を有する。表示エリア301は、対象動画が表示されるエリアである。再生ボタン302は、対象動画を再生するための指示を受け付け、一時停止ボタン303は、対象動画を一時停止するための指示を受け付け、停止ボタン304は、対象動画を停止ための指示を受け付ける。再生制御(再生、一時停止、停止、等)はCPU101によって行われる。
図4(A)~4(C)は、表示範囲の決定方法の一例を示す図である。図4(A)~4(C)は、対象動画によって半球状の仮想空間401が形成される例を示す。ここでは、電子機器100で対象動画が再生される場合に、電子機器100が、仮想空間401の基準面(底面)402の中心に位置するとする。なお、対象動画(対象画像)によって形成される仮想空間の形状は半球状に限られない。例えば、完全な球状の仮想空間が形成されてもよい。
図4(A)において、矢印403は、仮想空間401において電子機器100が向けられた方向(方位)を示す。矢印403の方向は、「仮想空間401においてユーザーが見ている方向(視聴方向;視点方向)」とも言える。仮想空間401の表面において、矢印403の方向にある範囲404が、表示範囲として決定される。矢印403の方向や表示範囲404の位置は、方位角Θと仰俯角Φを用いて表される。方位角Θは、基準面402上の基準線405から、表示範囲404の中心から基準面402に対し垂直に下した点P
と基準面402の中心点Tとを結ぶ線までの角度である。仰俯角Φは、点Pと中心点Tとを結ぶ線から、表示範囲404の中心と中心点Tを結ぶ線までの角度である。
図4(B)では、ユーザーは、仮想空間401(対象動画)の物体406に電子機器100を向けている。このため、物体406を含む表示範囲407が設定され、表示範囲407が表示エリア301に表示される。図4(C)では、ユーザーは、仮想空間401(対象動画)の物体408に電子機器100を向けている。このため、物体408を含む表示範囲409が設定され、表示範囲409が表示エリア301に表示される。図4(B),4(C)に示すように、ユーザーは、電子機器100の向きを変更することにより、表示範囲の位置(方位角Θと仰俯角Φ)を自由に変更でき、表示エリア301で任意の表示範囲を視聴できる。
図5は、電子機器100から動画配信サーバ10に送信される情報(データ)の一例を示す図である。本実施例では、電子機器100は、表示範囲の情報として方位角Θと仰俯角Φを送信する。また、電子機器100は、表示時間位置の情報として、対象動画の開始から表示時間位置までの経過時間を送信する。図5のカウント値は、電子機器100の表示を更新する表示更新タイミングでカウントアップし、電子機器100で管理される。電子機器100は、カウント値をカウントアップする度に、表示範囲と表示時間位置の情報を動画配信サーバ10に送信する。
図5の例では、カウント値1~3において、対象動画が一時停止されており、表示時間位置が0:00(分:秒)で止まっている。カウント値4以降では、対象動画が再生されており、表示時間位置が0:01から1秒ずつ進んでいる。カウント値1~5では、方位角Θが120度であり、仰俯角Φが20度である。カウント値5とカウント値6の間で電子機器100の姿勢(視聴方向)が変わり、カウント値6以降では、方位角Θが100度であり、仰俯角Φが20度である。
図6(A),6(B)は、表示範囲と表示時間位置の一例を示す図である。図6(A)は、対象動画と動画プレーヤが停止されて対象動画の表示が中止される場合の例を示す。図6(A)において、表示範囲601は、対象動画が停止されたタイミングで設定されていた表示範囲である。表示範囲601は、方位角Θ1と仰俯角Φ1に対応し、データリスト602のカウント値61(最大値)に対応する。つまり、方位角Θ1は40度であり、仰俯角Φ1は70度である。そして、対象動画の表示が中止されたタイミングでの表示時間位置は1:00である。本実施例では、CPU101は、対象動画の表示が中止される場合に、表示範囲601に関する表示中止情報を記憶部(EEPROM111)に記録する。具体的には、CPU101は、方位角Θ1=40度、仰俯角Φ1=70度、表示時間位置1:00、等を含む表示中止情報をEEPROM111に記録する。
図6(B)は、図6(A)の後に動画プレーヤが起動されて対象動画の表示が再開される場合の例を示す。図6(B)において、表示範囲603は、動画プレーヤが起動されたタイミングで設定された表示範囲である。表示範囲603は、方位角Θ2と仰俯角Φ2に対応し、データリスト604のカウント値1(初期値)に対応する。つまり、方位角Θ2は120度であり、仰俯角Φ2は20度である。そして、動画プレーヤが起動されたタイミングでの表示時間位置は、対象動画が停止されたタイミングでの表示時間位置と等しい1:00である。
図7は、図6(B)で電子機器100に表示される画面の一例を示す図である。本実施例では、CPU101は、対象動画の表示が再開される場合に、表示中止情報と現在の表示範囲とに基づいて、現在の表示範囲から表示中止情報に関連した過去の表示範囲へ向かう方向を通知する(通知制御)。具体的には、CPU101は、図7の画面を表示部11
0に表示することで、現在の表示範囲(図6(B)の表示範囲603)に対する過去の表示範囲(図6(A)の表示範囲601)の相対位置をユーザーに通知する。図7の画面では、表示エリア301に、矢印701、座標軸702、及び、座標軸703が表示されている。矢印701は、表示範囲603から表示範囲601に向かう方向を示す。座標軸702は方位角の差を示し、座標軸703は仰俯角の差を示す。矢印701は、表示範囲603から表示範囲601までの距離に応じた長さを有する。具体的には、矢印701の水平成分704の大きさは、表示範囲603の方位角Θ2と表示範囲601の方位角Θ1との差Θ1-Θ2に対応する。また、矢印701の垂直成分705の大きさは、表示範囲603の仰俯角Φ2と表示範囲601の仰俯角Φ1との差Φ1-Φ2に対応する。
CPU101は、方位角Θ1=40度、方位角Θ2=120度、仰俯角Φ1=70度、及び、仰俯角Φ2=20度から、方位角差Θ1-Θ2=-80度と仰俯角差Φ1-Φ2=+50度を示すデータリスト706を生成する。そして、CPU101は、データリスト706を用いて矢印701を生成して表示する。
なお、通知方法は特に限定されない。例えば、現在の表示範囲に対する過去の表示範囲の相対位置を示すテキストが表示部110に表示されてもよい。具体的には「右80度、上50度を向いてください」などのテキストが表示されてもよい。相対位置は通知されずに、現在の表示範囲から過去の表示範囲へ向かう方向が通知されてもよい。具体的には、現在の表示範囲から過去の表示範囲へ向かう方向を示す矢印として、所定長さの矢印が表示されてもよい。現在の表示範囲から過去の表示範囲へ向かう方向を示すテキストとして、「右上を向いてください」などのテキストが表示されてもよい。矢印やテキストとは異なるアイテムの表示によって通知が実現されてもよい。過去の表示範囲を示す枠などがさらに表示されてもよい。音声の出力、表示部110とは異なる発光部(LEDなど)の点灯、等によって通知が実現されてもよい。
本実施例では、CPU101は、対象動画の表示が再開される場合に、現在の表示範囲と過去の表示範囲との間の距離が閾値以下になるまで、対象動画の停止された時間位置に応じたフレームの一部の範囲を表示範囲として表示部110に表示する(一時停止)。具体的には、図7では省略されているが、矢印701、座標軸702、及び、座標軸703は、表示時間位置1:00と現在の表示範囲603とに応じた画像に重ねて表示される。なお、通知が行われる場合において、対象動画(表示範囲)は表示部110に表示されなくてもよい。
図8は、図7の後に設定された表示範囲(現在の表示範囲)と過去の表示範囲との間の距離が閾値以下になった場合において電子機器100に表示される画面の一例を示す図である。本実施例では、CPU101は、対象動画の表示が再開される場合に、現在の表示範囲と過去の表示範囲との間の距離が閾値以下になると、対象動画の停止された時間位置から対象動画の再生を再開する(レジューム再生)。このため、図8の画面では、矢印701、座標軸702、及び、座標軸703は表示されておらず、対象動画が再生されている。
ここで、現在の表示範囲の方位角Θを「方位角Θ2’」と記載し、現在の表示範囲の仰俯角Φを「仰俯角Φ2’」と記載する。図7の矢印701に従って電子機器100の姿勢を変えると、方位角Θ2’と仰俯角Φ2’が変わる。そして、現在の表示範囲が過去の表示範囲と一致すると、方位角差Θ1-Θ2’=0度と仰俯角差Φ1-Φ2’=0度を示すデータリスト801が得られる。CPU101は、データリスト801が得られたことに応じて、対象動画の再生を再開する。これにより、過去の表示範囲またはその近傍が表示された状態で動画を再生することができる。よって、過去の表示範囲が見つからないまま、動画の再生時間が進んでしまい、過去の表示範囲に映された映像を見逃してしまうこと
を防ぐことができる。
なお、現在の表示範囲と過去の表示範囲との間の距離の閾値は0より大きくてもよい。現在の表示範囲と過去の表示範囲との間の距離の閾値以下になるのを待たずに対象動画の再生が再開されてもよい。
図9は、電子機器100で行われる表示制御処理の一例を示すフローチャートである。CPU101が、ROM103に格納された動画プレーヤのアプリケーションプログラムを、RAM104に展開して実行することで、図9のフローチャートにおける各処理が実現される。なお、ここでは、対象動画が予め決まっているものとする。図9のフローチャートの開始時に、CPU101は、カウント値を1に初期化する。
ステップS901では、CPU101は、図3の画面(表示エリア301、再生ボタン302、一時停止ボタン303、及び、停止ボタン304を有する画面)を表示部110に表示する。具体的には、CPU101は、図3の画面をDRAM102に描画(格納)して、当該画面の表示制御信号を生成する。そして、CPU101は、表示制御信号を表示駆動部105に供給する。表示駆動部105は、CPU101から供給された表示制御信号に応じて表示駆動信号を生成し、当該表示駆動信号を表示部110に供給する。表示部110は、表示駆動部105から供給された表示駆動信号に応じた駆動により、表示面に画面を表示する。
ステップS902では、CPU101は、EEPROM111に表示中止情報が格納されている場合に、EEPROM111から表示中止情報を取得する。
ステップS903では、CPU101は、電子機器100(表示部110)の姿勢の検出結果を、姿勢検出部107から取得する。そして、CPU101は、取得した検出結果に基づいて現在の表示範囲(方位角Θと仰俯角Φ)を決定して設定する。さらに、CPUは、現在の表示時間位置を設定する。ステップS902で表示中止情報が取得された場合には、CPU101は、表示中止情報によって示された表示時間位置を、現在の表示時間位置として設定する。ステップS902で表示中止情報が取得されなかった場合には、CPU101は、対象動画の開始時間位置0:00を、現在の表示時間位置として設定する。
ステップS904では、CPU101は、現在の表示範囲(方位角Θと仰俯角Φ)と現在の表示時間位置を示す情報の送信を、通信IF部108に対して指示する。これにより、通信IF部108は、CPU101からの指示に応じて、現在の表示範囲と現在の表示時間位置(ステップS903で設定した表示範囲と表示時間位置)の情報を、動画配信サーバ10に対して送信する。
動画配信サーバ10は、現在の表示範囲と現在の表示時間位置との情報を受信すると、現在の表示範囲と現在の表示時間位置とに応じた画像データ(表示画像データ)を、対象動画データから抽出し、通信IF部108に送信する。ステップS905では、通信IF部108は、動画配信サーバから表示画像データを受信する。CPU101は、表示画像データに基づく画像が図3の表示エリア301に配置されるように、当該画像をDRAM102に描画する。表示画像データに基づく画像は、現在の表示時間位置に対応するフレームの画像であり、現在の表示範囲の画像である。なお、ステップS904,S905に要する時間が、表示更新タイミングの時間間隔よりも長い場合には、CPU101は、前回の表示範囲と前回の表示時間位置とに応じた画像をDRAM102に描画してもよい。
ステップS906では、CPU101は、DRAM102に描画された画面(ステップ
S905で受信した表示画像データに基づく画像が表示エリア301に配置された画面)を表示部110に表示する。具体的には、CPU101は、DRAM102に描画された画面の表示制御信号を生成し、当該表示制御信号を表示駆動部105に供給する。表示駆動部105は、CPU101から供給された表示制御信号に応じて表示駆動信号を生成し、当該表示駆動信号を表示部110に供給する。表示部110は、表示駆動部105から供給された表示駆動信号に応じた駆動により、表示面に画面を表示する(表示の更新)。
ステップS907では、CPU101は、対象動画の表示を中止するか否かを判断する。具体的には、CPU101は、図3の停止ボタン304の押下(タッチ)に応じて生成される制御信号を受信したか否か判断する。対象動画の表示を中止すると判断するとステップS908に進み、そうでなければステップS909に進む。
ステップS908では、CPU101は、現在の表示時間位置と現在の表示範囲(ステップS903で設定した表示範囲と表示時間位置)を示す情報を表示中止情報としてEEPROM111に格納し、本フローチャートを終了する。
ステップS909では、CPU101は、対象動画の表示の再開中か否かを判断する。具体的には、CPU101は、EEPROM111に表示中止情報が格納されているか否かを判断する。対象動画の表示の再開中と判断するとステップS911に進み、そうでなければステップS910に進む。
ステップS910では、CPU101は、対象動画の一時停止中か否かを判断する。対象動画の一時停止中と判断するとステップS915に進み、そうでなければステップS914に進む。なお、CPU101は、対象動画の再生中に、図3の一時停止ボタン303の押下(タッチ)に応じて生成される制御信号を受信すると、対象動画を一時停止する。その後、CPU101は、再生ボタン302または停止ボタン304に応じて生成される制御信号を受信するまでは、対象動画の一時停止を継続する。また、CPU101は、対象動画が表示されてから、後述のステップS913で表示中止情報がクリアされるまでの期間においても、対象動画を一時停止する。
ステップS911では、CPU101は、図7の矢印701、座標軸702、及び、座標軸703を表示部110に表示する。具体的には、CPU101は、矢印701、座標軸702、及び、座標軸703が図3の表示エリアに重ねられるように、それらをDRAM102に描画する。例えば、矢印701のデータは予めROM103に格納されている。CPU101は、EEPROM111に格納されている表示中止情報(過去の表示範囲)と、ステップS903で設定した現在の表示範囲とに基づいて、矢印701を表示する角度や長さを算出する。そして、CPU101は、算出した角度と長さに基づいて、矢印701をDRAM102に描画する。CPU101は、DRAM102に描画された画面の表示制御信号を生成し、当該表示制御信号を表示駆動部105に供給する。表示駆動部105は、CPU101から供給された表示制御信号に応じて表示駆動信号を生成し、当該表示駆動信号を表示部110に供給する。表示部110は、表示駆動部105から供給された表示駆動信号に応じた駆動により、表示面に画面を表示する(表示の更新)。
ステップS912では、CPU101は、ステップS903で設定した現在の表示範囲が、EEPROM111に格納されている過去の表示範囲と一致しているか否を判断する。現在の表示範囲が過去の表示範囲と一致していると判断するとステップS913に進み、そうでなければステップS915に進む。
ステップS913では、CPU101は、EEPROM111に格納されている表示中止情報をクリア(削除)する。
ステップS914では、CPU101は、表示時間位置のインクリメントを行う。例えば、表示時間位置に1秒が加算される。
ステップS915では、CPU101は、カウント値を1つインクリメントする。
以上述べたように、対象画像の一部の範囲を表示範囲とする表示が中止されて再開される場合に、現在の表示範囲から過去の表示範囲(対象画像の表示が中止される際の表示範囲)へ向かう方向が通知される。これにより、対象画像の表示が再開される場合においてユーザーが前回の表示範囲を容易に探し出せるようになる。
なお、対象動画の一時停止が開始されたタイミングで、ステップS908と同様に、表示中止情報がEEPROM111に格納されてもよい。また、電子機器100は、対象動画データの全体をダウンロードしてもよい。この場合には、動画配信サーバ10で行われる処理として説明した上記処理は、電子機器100で行われてもよい。また、対象画像が動画である例を説明したが、対象画像は静止画であってもよい。
なお、姿勢検出部107は、電子機器100(表示部110)が向けられた実空間での方位を検出してもよい。そして、実空間での方位と表示範囲との対応関係が予め定められており、CPU101は、電子機器100が向けられた方位に応じた位置に表示範囲を設定してもよい。この場合には、実空間での方位と仮想空間での方位とを合わせることができる。
また、姿勢検出部107は、電子機器100(表示部110)が向けられた実空間での方位を検出せずに、電子機器100(表示部110)の傾きを検出してもよい。そして、電子機器100の傾きと表示範囲との対応関係が予め定められており、CPU101は、対象画像の表示が開始(再開)される場合に、電子機器100の傾きに応じた位置に表示範囲を設定してもよい。この場合には、対象画像の表示が開始(再開)される場合に、電子機器100が向けられた実空間での方位が過去と異なっていても、電子機器100の傾きが過去と同じであれば、過去と同じ表示範囲を設定できる。
<実施例2>
以下、本発明の実施例2について説明する。本実施例では、対象画像の表示が再開される場合に、電子機器100(表示部110)のピッチまたはヨーのみで、表示範囲を過去の表示範囲に合わせることができる例を説明する。電子機器100のピッチは、電子機器100の左右方向を軸とした回転であり、電子機器100のヨーは電子機器100の上下方向を軸とした回転である。例えば、HMDを装着した人物が顔を正面に向けた状態から上側や下側に顔を向けると電子機器100のピッチが生じ、HMDを装着した人物が顔を正面に向けた状態から左側や右側に顔を向けると電子機器100のヨーが生じる。なお、以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。
図10(A),10(B)は、対象動画の表示が中止された後に対象動画の表示が再開される場合の表示範囲と画面の一例を示す図である。図10(A)は実施例1に対応し、図10(B)は実施例2に対応する。図10(A)と図10(B)では、対象動画の表示が中止されたタイミングでの表示範囲は、図6(A)の表示範囲601と等しく、方位角Θ1=40度と仰俯角Φ1=70度に対応する。また、図10(A)と図10(B)とで、対象動画の表示が再開されたタイミングでの電子機器100の姿勢は同じである。
図10(A)では、対象動画の表示が再開されたタイミングでの表示範囲は、図6(B
)の表示範囲603と等しく、方位角Θ2=120度と仰俯角Φ2=20度に対応する。このため、図10(A)では、図7の矢印701(右上を指す矢印)が表示されている。以後、方位角差Θ1-Θ2=-80を「方位角差Θ3」と記載する。
本実施例では、図10(B)に示すように、CPU101は、対象動画の表示を再開する場合に、方位角差Θ3に従って表示範囲603を矢印1001の方向に移動させた表示範囲1002を設定する。電子機器100(表示部110)のピッチに応じた表示範囲の位置の変更方向において、表示範囲1002の位置は、電子機器100(表示部110)の姿勢に基づく表示範囲603の位置と一致する。そして、電子機器100(表示部110)のヨーに応じた表示範囲の位置の変更方向において、表示範囲1002の位置は、過去の表示範囲601の位置と一致する。なお、表示範囲603を矢印1001の方向に移動させることは、仮想空間401を矢印1003の方向(矢印1001の方向の逆方向)に移動させることと同義である。
CPU101は、方位角差Θ3を考慮して方位角差Θ1-(Θ2+Θ3)=0度と仰俯角差Φ1-Φ2=+50度を示すデータリスト1004を生成し、データリスト1004を用いて矢印1005(上を指す矢印)を生成して表示する。ユーザーは、矢印1005を見ることで、電子機器100(表示部110)のピッチのみで表示範囲が過去の表示範囲に合う、と把握できる。また、電子機器100は、方位角差Θ3を考慮して、データリスト1006を、現在の表示範囲と現在の表示時間位置の情報(データリスト)として、動画配信サーバ10に送信する。
なお、表示部110のヨーに応じた表示範囲の位置の変更方向において、設定された表示範囲の位置は、表示範囲603の位置と一致してもよい。そして、表示部110のピッチに応じた表示範囲の位置の変更方向において、設定された表示範囲の位置は、表示範囲601の位置と一致してもよい。この場合には、右を差す矢印が表示され、ユーザーは、矢印を見ることで、表示部110のヨーのみで表示範囲が過去の表示範囲に合う、と把握できる。
図11は、本実施例に係る表示制御処理のフローチャートである。本実施例では、ステップS903とステップS904の間に、ステップS1101の処理が行われる。ステップS1101では、CPU101は、ステップS903で設定された現在の表示範囲の方位角Θに方位角差Θ3=Θ1-Θ2を加算することで、現在の表示範囲(方位角Θ)を更新する。方位角Θ1は、表示中止情報によって示された方位角である。方位角Θ2は、EEPROM111に表示中止情報が格納されている状態での1回目のステップS903で設定された方位角である。CPU101は、1回目のステップS1101でのみ方位角差Θ3を算出してもよいし、ステップS1101の度に方位角差Θ3を算出してもよい。EEPROM111に初めから表示中止情報が格納されていない場合には、ステップS1101の処理は省略される、または、方位角差Θ3として0が使用される。
以上述べたように、本実施例によれば、対象画像の表示が再開される場合に、以下の条件1,2を満たすように、表示範囲が設定される。これにより、表示部のピッチまたはヨーのみで表示範囲を過去の表示範囲に合わせることができ、ユーザーが前回の表示範囲をより容易に探し出せるようになる。
条件1:表示部のピッチまたはヨーの一方に応じた表示範囲の位置の変更方向において、表示範囲が、表示部の姿勢に基づく位置に配置される。
条件2:表示部のピッチまたはヨーの他方に応じた表示範囲の位置の変更方向において、表示範囲が、過去の表示範囲の位置に配置される。
なお、CPU101が行うものとして説明した上述の各種制御は、1つのハードウェア
が行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施例に基づいて詳述してきたが、本発明はこれら特定の実施例に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施例は本発明の一実施例を示すものにすぎず、各実施例を適宜組み合わせることも可能である。
<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:電子機器 101:CPU 107:姿勢検出部
110:表示部 111:EEPROM

Claims (14)

  1. ユーザーの操作に応答して表示範囲を変更するための指示を取得する取得手段と、
    画像の一部の範囲を表示範囲として表示部に表示するように制御し、前記指示に応じて前記表示範囲の位置を変更する表示制御手段と、
    前記画像の表示が中止される場合に、前記表示範囲の位置に関する情報を記憶部に記録する記録手段と、
    前記画像の表示が再開される場合に、前記情報と現在の表示範囲とに基づいて、前記現在の表示範囲から前記情報に関連した過去の表示範囲へ向かう方向を通知するように制御する通知制御手段と、
    を有することを特徴とする電子機器。
  2. 前記取得手段は、前記表示部の姿勢の検出結果を前記指示として取得し、
    前記表示制御手段は、前記表示部の姿勢変化に応じて前記表示範囲の位置を変更する
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記通知制御手段は、前記現在の表示範囲に対する前記過去の表示範囲の相対位置を通知するように制御する
    ことを特徴とする請求項1または2に記載の電子機器。
  4. 前記通知制御手段は、前記現在の表示範囲から前記過去の表示範囲へ向かう方向を示し且つ前記現在の表示範囲から前記過去の表示範囲までの距離に応じた長さを有する矢印、または、前記現在の表示範囲に対する前記過去の表示範囲の相対位置を示すテキストを前記表示部に表示するように制御する
    ことを特徴とする請求項3に記載の電子機器。
  5. 前記画像は動画であり、
    前記電子機器は、前記動画の表示が中止される場合に、前記動画を停止し、前記動画の表示が再開される場合に、前記現在の表示範囲と前記過去の表示範囲との間の距離が閾値以下になると、前記動画の停止された時間位置から前記動画の再生を再開する再生制御手段、をさらに有する
    ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。
  6. 前記表示制御手段は、前記動画の表示が再開される場合に、前記現在の表示範囲と前記過去の表示範囲との距離が前記閾値以下になるまで、前記動画の停止された時間位置に応じたフレームの一部の範囲を前記表示範囲として前記表示部に表示するように制御する
    ことを特徴とする請求項5に記載の電子機器。
  7. 前記表示制御手段は、前記画像の表示が再開される場合に、前記表示部が向けられた方位に応じた位置に前記表示範囲を設定する
    ことを特徴とする請求項1~6のいずれか1項に記載の電子機器。
  8. 前記表示制御手段は、前記画像の表示が再開される場合に、前記表示部の傾きに応じた位置に前記表示範囲を設定する
    ことを特徴とする請求項1~6のいずれか1項に記載の電子機器。
  9. 前記画像の映像範囲は前記表示範囲よりも広い
    ことを特徴とする請求項1~8のいずれか1項に記載の電子機器。
  10. 前記表示制御手段は、前記画像の表示が再開される場合に、
    前記表示部のピッチまたはヨーの一方に応じた前記表示範囲の位置の変更方向において、前記表示部の姿勢に基づく位置に配置され、且つ、
    前記表示部のピッチまたはヨーの他方に応じた前記表示範囲の位置の変更方向において、前記過去の表示範囲の位置に配置されるように、
    前記表示範囲を設定する
    ことを特徴とする請求項1~9のいずれか1項に記載の電子機器。
  11. 前記取得手段は、前記表示部へのタッチ操作の検出結果を前記指示として取得し、
    前記表示制御手段は、前記タッチ操作の位置の変化に応じて前記表示範囲の位置を変更する
    ことを特徴とする請求項1に記載の電子機器。
  12. ユーザーの操作に応答して表示範囲を変更するための指示を取得するステップと、
    画像の一部の範囲を表示範囲として表示部に表示するように制御し、前記指示に応じて前記表示範囲の位置を変更するステップと、
    前記画像の表示が中止される場合に、前記表示範囲の位置に関する情報を記憶部に記録するステップと、
    前記画像の表示が再開される場合に、前記情報と現在の表示範囲とに基づいて、前記現在の表示範囲から前記情報に関連した過去の表示範囲へ向かう方向を通知するように制御するステップと、
    を有することを特徴とする電子機器の制御方法。
  13. コンピュータを請求項1~11のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
  14. コンピュータを請求項1~11のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2018094353A 2018-05-16 2018-05-16 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 Active JP7077132B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018094353A JP7077132B2 (ja) 2018-05-16 2018-05-16 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018094353A JP7077132B2 (ja) 2018-05-16 2018-05-16 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Publications (2)

Publication Number Publication Date
JP2019201307A JP2019201307A (ja) 2019-11-21
JP7077132B2 true JP7077132B2 (ja) 2022-05-30

Family

ID=68613265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094353A Active JP7077132B2 (ja) 2018-05-16 2018-05-16 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Country Status (1)

Country Link
JP (1) JP7077132B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220386875A1 (en) 2019-10-28 2022-12-08 Yoshihiro Oba Measuring apparatus and biological information measuring apparatus

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012181A (ja) 2011-06-03 2013-01-17 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2013183249A (ja) 2012-03-01 2013-09-12 Dainippon Printing Co Ltd 動画提示装置
JP2013250830A (ja) 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
WO2014128810A1 (ja) 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
JP2015015583A (ja) 2013-07-04 2015-01-22 ブラザー工業株式会社 端末装置、及びプログラム
JP2016201714A (ja) 2015-04-13 2016-12-01 キヤノン株式会社 表示制御装置および表示制御方法
US20170244945A1 (en) 2016-02-22 2017-08-24 Gopro, Inc. System and method for presenting and viewing a spherical video segment
JP2017169151A (ja) 2016-03-17 2017-09-21 株式会社リコー 情報処理システム、利用端末、サーバ装置、および、プログラム
US20170339341A1 (en) 2016-05-19 2017-11-23 Avago Technologies General Ip (Singapore) Pte. Ltd. 360 degree video recording and playback with object tracking
JP2017207595A (ja) 2016-05-17 2017-11-24 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012181A (ja) 2011-06-03 2013-01-17 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2013183249A (ja) 2012-03-01 2013-09-12 Dainippon Printing Co Ltd 動画提示装置
JP2013250830A (ja) 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
WO2014128810A1 (ja) 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
JP2015015583A (ja) 2013-07-04 2015-01-22 ブラザー工業株式会社 端末装置、及びプログラム
JP2016201714A (ja) 2015-04-13 2016-12-01 キヤノン株式会社 表示制御装置および表示制御方法
US20170244945A1 (en) 2016-02-22 2017-08-24 Gopro, Inc. System and method for presenting and viewing a spherical video segment
JP2017169151A (ja) 2016-03-17 2017-09-21 株式会社リコー 情報処理システム、利用端末、サーバ装置、および、プログラム
JP2017207595A (ja) 2016-05-17 2017-11-24 株式会社コロプラ 仮想空間を提供する方法、プログラム及び記録媒体
US20170339341A1 (en) 2016-05-19 2017-11-23 Avago Technologies General Ip (Singapore) Pte. Ltd. 360 degree video recording and playback with object tracking

Also Published As

Publication number Publication date
JP2019201307A (ja) 2019-11-21

Similar Documents

Publication Publication Date Title
JP6093473B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6266101B2 (ja) ヘッドマウンテッドディスプレイ上でのゲームプレイの移行
CN106796351B (zh) 通过视线控制的头戴式显示装置及其控制方法、计算机可读存储介质
JP6058184B1 (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
JP6462059B1 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
WO2017104579A1 (ja) 情報処理装置および操作受付方法
TWI669635B (zh) 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質
US20170153700A1 (en) Method of displaying an image, and system therefor
JP6130478B1 (ja) プログラム及びコンピュータ
JP6751205B2 (ja) ディスプレイ装置及びその制御方法
TWI710249B (zh) 可於第一人稱視角模式與第三人稱視角模式之間切換之頭戴式顯示系統、相關方法以及相關電腦可讀取記錄媒體
WO2018020735A1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2023036743A (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
US11740477B2 (en) Electronic device, method for controlling electronic device, and non-transitory computer readable storage medium
US10771707B2 (en) Information processing device and information processing method
WO2017022769A1 (ja) ヘッドマウントディスプレイ、表示制御方法及びプログラム
JP7077132B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP6535699B2 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP2020177608A (ja) 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体
JP6159455B1 (ja) 仮想空間を提供する方法、プログラム、および記録媒体
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP6655751B1 (ja) 映像表示制御装置、方法およびプログラム
JP7030075B2 (ja) プログラム、情報処理装置、及び情報処理方法
JP6403843B1 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
JP2020178330A (ja) 仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220518

R151 Written notification of patent or utility model registration

Ref document number: 7077132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151