JP2019096305A - 電子機器およびその制御方法およびプログラムおよび記録媒体 - Google Patents

電子機器およびその制御方法およびプログラムおよび記録媒体 Download PDF

Info

Publication number
JP2019096305A
JP2019096305A JP2018207347A JP2018207347A JP2019096305A JP 2019096305 A JP2019096305 A JP 2019096305A JP 2018207347 A JP2018207347 A JP 2018207347A JP 2018207347 A JP2018207347 A JP 2018207347A JP 2019096305 A JP2019096305 A JP 2019096305A
Authority
JP
Japan
Prior art keywords
image
display
displayed
change
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018207347A
Other languages
English (en)
Inventor
奈里 三好
Nari Miyoshi
奈里 三好
潤子 伊藤
Junko Ito
潤子 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN201880075235.3A priority Critical patent/CN111373359A/zh
Priority to PCT/JP2018/041811 priority patent/WO2019102885A1/ja
Publication of JP2019096305A publication Critical patent/JP2019096305A/ja
Priority to US16/860,931 priority patent/US20200257396A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 複数の画像を表示領域に配置して表示可能である場合に、画像の一部の範囲を表示するための操作性を向上させる。【解決手段】 複数の画像のうち表示面に表示する画像を切り替える切り替え手段と、表示面に表示する画像の部分を変更する変更手段と、複数の画像のうち、切り替え手段により切り替えられた際に表示される画像の部分に関する情報を記録する記録手段と、複数の画像のうち、第1の画像の部分が表示されている場合に、表示手段の姿勢の変化を検出したことに応じて、姿勢の変化に応じた分変更手段は表示する部分を変更し、第1の画像から第2の画像へと表示する画像を切り替えた際に、第2の画像が所定の条件を満たしている場合には、第2の画像の情報を該姿勢の変化に応じて変更し、第2の画像が所定の条件をみたさない場合には、第2の画像の情報を変更しないように制御する制御手段とを有する。【選択図】 図6

Description

本発明は、画像の表示部分を変更可能な電子機器およびその制御方法およびプログラムおよび記録媒体に関する。
従来、装置の向きに応じて、画像の表示範囲を変更する方法がある。特許文献1には、パノラマ再生モードにおいてデジタルカメラを回転移動すると、パノラマ画像のうち、デジタルカメラの向いた方向の一部の範囲を表示することが開示されている。また、表示画面に表示する画像を切り替える方法がある。特許文献2には、複数の画像が表示領域の縦方向に並んでおり、スクロールをすることにより表示領域に表示する画像を切り替えることができることが開示されている。
特許文献1では、画像を表示し始めた際に、その時のデジタルカメラの向きに応じた画像の範囲が表示されるため、例えば基準となる範囲やユーザの所望の範囲から画像を確認することができず、ユーザがデジタルカメラの向きを変えて表示範囲を変更する必要がある。特許文献2では、画像を表示し始めるときに、画像の一部の範囲を大きく表示したい場合は、ユーザが拡大操作を行う必要がある。
特開2012−75018号公報 特開2014−222829号公報
本発明は、上記の課題に鑑み、複数の画像を表示領域に配置して表示可能である場合に、画像の一部の範囲を表示するための操作性を向上させることを目的とする。
上記目的を達成するために、本発明の電子機器は、表示手段の姿勢の変化を検出可能な検出手段と、複数の画像のうち表示面に表示する画像を切り替える切り替え手段と、前記表示面に表示する画像の部分を変更する変更手段と、前記複数の画像のうち、前記切り替え手段により切り替えられた際に前記表示面に表示される画像の部分に関する情報を記録する記録手段と、前記複数の画像のうち、第1の画像の部分が前記表示面に表示されている場合に、前記検出手段が前記表示手段の姿勢の変化を検出したことに応じて、姿勢の変化に応じた分前記変更手段は表示する部分を変更し、前記第1の画像から第2の画像へと表示する画像を切り替えた際に、前記第2の画像が所定の条件を満たしている場合には、前記第2の画像の前記情報を該姿勢の変化に応じて変更し、前記第2の画像が前記所定の条件をみたしていない場合には、前記第2の画像の前記情報を変更しないように制御する制御手段とを有することを特徴とする。
本発明によれば、複数の画像を表示領域に配置して表示可能である場合に、画像の一部の範囲を表示するための操作性を向上するという効果が得られる。
(a)本実施形態の構成を適用可能な装置の一例としてのスマートホンの外観図、(b)本実施形態の構成を適用可能な装置の一例としてのスマートホンの構成例を示すブロック図 本実施形態における画面の表示例を示す図 本実施形態における表示処理を示すフローチャート 本実施形態におけるアクティブ画像決定処理を示すフローチャート 本実施形態における表示範囲変更処理を示すフローチャート 本実施形態における更新処理を示すフローチャート 本実施形態における画像の表示例を示す図 本実施形態における画像の表示について説明するための図
以下、図面を参照して本発明の好適な実施形態を説明する。図1(a)、(b)には、本実施形態における電子機器の一例としてのスマートホン100の構成を示す。図1に(a)、スマートホン100の外観図の例を示す。表示部105は画像や各種情報を表示する表示部である。表示部105はタッチパネル106aと一体的に構成されており、表示部105の表示面へのタッチ操作を検出できるようになっている。操作部106には図示のように操作部106b、106c、106d、106eが含まれる。操作部106bはスマートホン100の電源のオンとオフを切り替える操作を受け付ける電源ボタンである。操作部106cと操作部106dは音声出力部112から出力する音声のボリュームを増減するボリュームボタンである。操作部106eは、表示部105にホーム画面を表示させるためのホームボタンである。音声出力部112には、イヤホンなどを接続する音声出力端子112a、通話の音声を出力するためのスピーカー112bとがある。また、表示部105と反対側の面と、表示部105側の面にはそれぞれ撮像を行うための撮像部22がある。
図1(b)において、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、表示部105、撮像部22、操作部106、記憶媒体I/F107、外部I/F109、及び、通信I/F110が接続されている。また、内部バス150に対して音声出力部112と姿勢検出部113、システムメモリ52も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。
CPU101は、スマートホン100の全体を制御する制御部であり、少なくとも1つのプロセッサーからなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。メモリ102は、撮像部22によって得られ、デジタルデータに変換された画像データや、表示部105に表示するための画像データを格納する。メモリ102は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ102は画像表示用のメモリ(ビデオメモリ)を兼ねている。システムメモリ52には、RAMが用いられる。システムメモリ52には、CPU101の動作用の定数、変数、不揮発性メモリ103から読み出したプログラム等を展開する。
CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、スマートホン100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばフラッシュメモリやROMなどで構成される。
画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記憶媒体108に格納された画像や、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像などに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。また、全方位画像あるいは全方位ではないにせよ広範囲のデータを有する広範囲画像のパノラマ展開やマッピング処理、変換などの各種画像処理も行う。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。
表示部105は、CPU101の制御に基づいて、画像やGUI(GraphicalUser Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、表示部105に表示するための映像信号を生成して表示部105に出力するようにスマートホン100の各部を制御する。表示部105は出力された映像信号に基づいて映像を表示する。
なお、スマートホン100自体が備える構成としては表示部105に表示させるための映像信号を出力するためのインターフェースまでとし、表示部105は外付けのモニタ(テレビなど)で構成してもよい。
操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、表示部105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。
記憶媒体I/F107は、メモリーカードやCD、DVDといった記憶媒体108が装着可能とされ、CPU101の制御に基づき、装着された記憶媒体108からのデータの読み出しや、当該記憶媒体108に対するデータの書き込みを行う。
外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。
通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。
音声出力部112は、動画や音楽データの音声や、操作音、着信音、各種通知音などを出力する。音声出力部112は、無線通信などで音声出力を行ってもよい。
姿勢検出部113は、重力方向に対するスマートホン100(表示部105)の姿勢を検出する。姿勢検出部113で検出された姿勢に基づいて、スマートホン100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。姿勢検出部113としては、加速度センサー、ジャイロセンサー、地磁気センサー、方位センサーなどのうち少なくとも1つを用いることができ、複数を組み合わせて用いることも可能である。
なお操作部106には、タッチパネル106aが含まれる。CPU101はタッチパネル106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)
・タッチパネル106aを指やペンがタッチしている状態であること(以下、タッチオン(Touch−On)と称する)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。
タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。
タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。
これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知され、CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行なわれたかを判定する。
タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。
タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。
更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。
タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。
タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
図2(a)〜(c)には、本実施形態における画面の表示例を示す。図2(a)、(b)はソーシャルネットワークサービス(SNS)の画面の表示例を示している。図2(a)は、一覧アイテム201、お知らせアイテム202、設定アイテム203のうち、一覧アイテム201を選択した一覧画面の状態を示している。一覧アイテム201を選択すると、各ユーザのアップデートした画像や、コメント等を確認することができ、ユーザは表示部105のY軸方向に沿ってタッチムーブをすることで、タッチムーブに応じて表示する画像やコメントをスクロール(移動)することができる。ユーザが画像やコメントをアップデートすると、アップデートされた情報の概要、例えば、アップデートした画像の一部やコメントの一部を表示したポスト204や205が一覧画面に表示される。例えば、Y軸マイナス方向にタッチムーブすると、ポスト204、205がY軸マイナス方向へ移動する。お知らせアイテム202をタッチすると、ユーザに対するお知らせを表示し、設定アイテム203をタッチすると、ユーザ設定やログイン情報などの各種設定を行うことができる。ポスト204は、ガイダンス204cに示すように、花子さんが360°画像をアップデートしたポストを示している。画像内に表示されるアイテム204bは表示されている画像が360°画像であることを示している。アイテム204aをタッチすると、ポスト204の詳細、つまりポスト204としてアップデートされている画像の一覧を表示可能となる。ポスト205は、ガイダンス205aの示すように、太郎さんが画像をアップデートしたことを示している。
図2(b)は、図2(a)においてアイテム204aがタッチされ、ポスト204の詳細が表示された状態を示している。ポストの詳細においては、表示領域のX軸方向の幅に合わせた幅で、ポスト204に含まれる各画像の一部の領域が表示され、Y軸方向に複数の画像が並んで表示されている。図2(b)の表示例においては、画像206と207の一部の領域がY軸方向に並んで表示される。アイテム211、212は、360°画像のうち、どの範囲を表示しているのかを示すアイテムであり、アイテム211、212においては基準方向の範囲が表示されていることを示している。各画像の下の位置には、各画像に対応するアイテム208〜210が表示されている。アイテム208は、各画像に対して賞賛していることを示すためのアイテム(good)であり、アイテム208をタッチするとアップデートしたユーザに対してその画像に賞賛していることを通知することができる。アイテム209は、アップデートされた各画像に対して、感想や意見等のコメントを記載するためのアイテムであり、アイテム209をタッチするとコメントを記入するためのキーボードが表示される。アイテム210は、アップデートされた画像を共有するためのアイテムであり、アイテム210をタッチすることでその他のSNSでの画像の送信やメールでの画像の送信を行うことができる。なお、画像の取得や、goodの通知、コメントの記入、共有はインターネットを介して行われる。
図2(c)は、360°画像の全体のうち一部の領域が表示部105に表示されることを説明するための図である。360°画像は、360°の視野のある画像であり、表示部105においてはその一部の領域を表示することができる。画像214は360°画像を簡単に示したものであり、ユーザは姿勢検出部113の検出結果に応じて表示部105に表示される領域を切り替えることができる。円213に示すようにユーザがあたかもその場にいて、表示部105の向きに応じて表示する領域を切り替えることをVR(ヴァーチャルリアリティ)表示という。以下、VR画像、VR表示について詳細に説明する。なお、本実施形態では、VR画像の視野は360°の場合について説明するが、視野が180°や270°等であっても同様に本発明を実現できる。
まず、VR画像とは、VR表示をすることのできる画像であるものとする。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示手段に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれるものとする。また、カメラで撮影した画像に限らず、コンピュータグラフィックス(CG)を用いて作成した画像であっても、VR表示可能なものはVR画像(VRコンテンツ)に含まれるものとする。VR画像には、静止画だけでなく、動画やライブビュー画像(カメラの撮像素子から連続的に読み出された画像信号をほぼリアルタイムで取得して表示部に出力される画像)も含まれる。VR画像は、最大で上下方向(垂直角度、天頂からの角度、仰角、俯角、高度角)360度、左右方向(水平角度、方位角度)360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像は、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示手段に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含むものとする。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。すなわち、上下方向と左右方向にそれぞれ180度(±90度)以上の視野分の映像範囲を有しており、人間が一度に視認できる範囲よりも広い映像範囲を有している画像はVR画像の一種である。このVR画像をVR表示すると、左右回転方向に姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することができる。上下方向(垂直回転方向)には、真上(天頂)から見て±105度の範囲では継ぎ目のない全方位の映像を視聴することができるが、真上から105度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。
VR表示とは、VR画像のうち、姿勢検出部113で検出したスマートホン100の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法である。スマートホン100をVRゴーグルに装着して視聴する場合には、ユーザの顔の向きに応じた視野範囲の映像を表示することになる。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野角(画角)の映像を表示しているものとする。この状態から、スマートホン100の姿勢を表裏反転させると(例えば、表示面を南向きから北向きに変更すると)、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度(水平)を中心とした視野角の映像に、表示範囲が変更される。ユーザがVRゴーグルに装着したスマートホン100を視聴している場合で言えば、ユーザが顔を北から南に向ければ(すなわち後ろを向けば)、スマートホン100に表示される映像も北の映像から南の映像に変わるということである。このようなVR表示によって、ユーザに、視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚を提供することができる。
以上のように、VR表示においては画像の一部を表示するので、表示部105における表示範囲を示す表示角度αについて説明をする。図2(c)の下の円213に示すように、XY軸平面における円の角度をαで示し、XZ軸平面における円の角度をβで示す。以下の実施形態においてはXY軸平面における角度画像毎に記録するものとし、XZ軸平面における円の角度β=0として記録するが、上述のようにスマートホンをZ軸方向に移動することにより角度βも変更することができる。
本実施形態における表示処理について図3を用いて説明する。この処理は、不揮発性メモリ103に記録されたプログラムをシステムメモリ52に展開してCPU101が実行することで実現する。なお、この処理は、スマートホン100に電源が入り、複数の360°画像が表示可能になると開始する。
S301では、CPU101は、表示すべき複数の画像、すなわち画像番号1からNまでの画像を通信I/F110を介して取得する。画像番号とは、1つのポスト内に含まれる複数の画像の表示順を示すものである。すなわち、S301ではこれから表示する複数の画像のそれぞれの画像がVR表示可能なように、画像データ取得する。S301では通信I/F110を介して取得した画像データをシステムメモリ52に展開する。
S302では、CPU101は、画像番号1〜Nまでの画像の表示開始位置を示す表示角度α1〜αN、タグの有無などの表示情報を通信I/F110を介して取得する。タグは、予めユーザにより、各画像を表示し始めるときに表示する表示範囲が定められているか否かを示すものである。つまり、ユーザが360°画像のうち主被写体や注目の被写体などが写っている部分から360°画像を表示し始めるために、表示範囲を設定した場合にはタグは有りとなる。タグのない画像については、表示角度αn=0、すなわち基準となる位置と中心とした表示範囲で表示をし始め、タグのある画像についてはαn=30°や60°などユーザにより指定された位置を中心とした表示範囲で表示をし始める。S302においても、通信I/F110を介して取得した画像の表示情報をシステムメモリ52に展開する。
S303では、CPU101は、表示部105に画像番号=1の画像の表示角度α1を中心として表示範囲を表示する。表示している画像を表示画像Hとし、表示画像H=画像番号で示す。表示角度α1を中心として場合に、表示部105に表示される範囲は表示倍率と表示部105(表示手段)のβの角度に応じて変わる。例えば、α1でβ=30°である場合と、α1でβ=210°である場合とでは、表示範囲が撮影時のカメラの上側を表示するのと下側を表示するのとで異なる。
S305では、CPU101は、表示画像を変更するかどうかを判定する。表示画像を変更すると判定した場合は、S306へ進み、そうでない場合は、S307へ進む。表示画像はタッチパネル206a、すなわち表示部105の表示面へのスクロール操作(スクロール指示)によって行うことができる。表示部105の上方向へスクロールすると画像番号のより大きい画像が表示され、下方向へスクロールすると画像番号のより小さい画像が表示されるようになる。図7(a)〜(h)は、本実施形態における画像の表示例を示したものである。図7(a)には画像番号M〜M+2が表示されており、ユーザが指Yを下方向へタッチムーブすると、図7(b)に示すように画像番号Mの表示部105に表示される部分が大きくなり、図7(a)において表示されていた画像番号M+2の画像が表示されなくなる。このように、縦方向へのスクロール操作によって表示部105に表示する画像や、各画像が表示される領域の大きさを変更することができる。図8(a)、(b)は、本実施形態における1つのポストに含まれる360°画像の表示について説明するための図である。図8(a)、(b)には、1つのポストに含まれる360°画像のうち画像番号M〜M+4までの画像を並べて示している。図8(a)の枠105Aは、表示部105に表示可能な範囲を説明するための枠であり、各360°画像の表示範囲を変更することでユーザが視認可能な(枠105A内に表示される)画像の範囲を変更することができる。図8(b)の枠105Bは表示部105のY軸方向の範囲を含めた領域を示す枠であり、S305においてユーザがスクロール操作などをして表示画像を変更することで枠105B内の表示画像もしくは表示領域がY軸方向に変更される。
S306では、CPU101は、アクティブ画像決定処理を行う。アクティブ画像決定処理については、図4を用いて後述する。S307では、CPU101は、ユーザのタッチ操作またはボタン操作で表示角度(表示範囲)の切り替え指示が行われたかどうかを判定する。表示角度切り替え指示は、現在表示されている360°画像の表示部105における表示範囲(表示範囲の中心)を切り替える操作である。図7(b)に示すように指Yを横方向にタッチムーブすると表示範囲が切り替わり、図7(c)に示すように画像番号M+1の画像の異なる範囲を表示することができる。図7(b)、(c)においては、画像番号M+1の表示角度はα(M+1)=0°から、α(M+1)=180°へと変わる。アイテム701、702は、各画像と共に表示される表示角度及び表示角度を示すためのアイテムであり、アイテム701はα(M+1)=0°、アイテム702はα(M+1)=180°を示している。S307で、表示角度の切り替え指示がされたと判定された場合は、S313へ進み、そうでない場合は、S308へ進む。S308では、CPU101は、アクティブ画像と非アクティブ画像を同時にタッチしたかどうかを判定する。アクティブ画像、非アクティブ画像は共に表示部105に表示されている画像であり、アクティブ画像は表示部105における表示領域の最も大きな画像であり、非アクティブ画像はアクティブ画像よりは表示領域の小さな画像である。アクティブ画像については図4を用いて後述する。図7(c)においては、表示部105に表示される画像番号=MとM+1の画像のうち、画像番号M+1の画像の方がより大きく表示されているので、画像番号M+1がアクティブ画像とする。アクティブ画像と非アクティブ画像とを共にタッチしたと判定した場合は、S309へ進み、そうでない場合は、S315へ進む。
S309では、CPU101は、アクティブ画像のユーザ操作フラグをONにし、システムメモリ52に記録する。ユーザ操作フラグは、現在の画像の表示角度を意図せず変更しないためのフラグであり、ユーザ操作フラグがONになると、関連画像以外の他の画像の表示角度が表示部105の姿勢の変化によって変更しても表示角度が変更されなくなる。すなわち、関連画像以外の他の画像がアクティブ画像である場合に、表示部105の姿勢の変化が変化しても、ユーザ操作フラグONの画像の表示角度は変更されない。
S310では、CPU101は、非アクティブ画像のユーザ操作フラグをONにし、システムメモリ52に記録する。
S311では、CPU101は、現在のアクティブ画像の表示角度αを表示開始位置として、また同時にタッチしたアクティブ画像と非アクティブ画像を関連画像としてシステムメモリ52に記録する。
S312では、CPU101は、表示処理を終了するかどうかを判定する。表示処理は、図7(c)に示すアイテム703のような戻るアイテムへのタッチ操作、もしくは操作部106e(ホームボタン)の押下、スマートホン100の電源のOFFにより終了する。表示処理を終了すると判定した場合は、表示処理を終了し、そうでない場合は、S304へ戻り、さらにS305へ戻る。アイテム703へのタッチ操作がされる図2(a)に示すような一覧画面へと戻る。表示処理が終了すると、表示されていたポストに含まれる全ての画像のユーザ操作フラグがOFFとなる。S313では、CPU101は、S307において切り替え指示がされた画像(対象画像)の表示角度を切り換える。S307において図7(b)、(c)を用いて説明したように、S313においては切り替え指示がされた画像のみ、表示角度を切り換える。
S314では、CPU101は、S307において切り替え指示がされた画像(対象画像)のユーザ操作フラグをONにして、S304へ進み、S305へと進む。
S315では、CPU101は、表示範囲変更処理を行う。表示範囲変更処理は、表示部105の姿勢に応じてアクティブ画像の表示角度αを変更する処理であり、図5も用いて後述する。
次に、図4を用いてアクティブ画像決定処理を行う。この処理は、図3のS306へ進むと開始される。
S401では、CPU101は、画像番号1の画像の表示状態を取得する。画像の表示状態とは、画像が表示されているか否か、表示部105の表示領域においてどのくらいの領域の大きさで表示されているのかを示すものである。図4においては画像番号1〜Nまで順番にアクティブ画像か否かの判定を行っていく。判定を行っている対象となる画像を画像番号nで示す。
S403では、CPU101は、画像番号nの画像は現在表示中であるか否かを判定する。画像番号nが表示中であると判定した場合は、S404へ進み、そうでない場合は、S407へ進む。
S404では、CPU101は、表示部105に表示されている画像のうち、画像番号nの画像を表示している領域の面積が他の各表示画像を表示している領域の面積よりも大きいか否かを判定する。画像番号nの画像を表示している領域が最も大きいと判定した場合は、S405へ進み、そうでない場合は、S406へ進む。
S405では、CPU101は、画像番号nの画像の状態をアクティブとする。
S406では、CPU101は、画像番号nの画像の状態を非アクティブとする。
S407では、CPU101は、画像番号Nまでの画像についてS403の判定をしたか否かを判定する。すなわち、ポストに含まれる全ての画像についてアクティブ画像か、非アクティブ画像か、表示されていない画像かのいずれかであるかの判定が終わったか否かを判定する。画像番号nの画像が画像番号Nであり、上述の判定が終わったと判定した場合は、アクティブ画像決定処理を終了し、そうでない場合は、S408へ進む。
S408では、CPU101は、画像番号n=n+1とする。すなわち、次の画像番号についてS403以降の判定を行うようにする。
S409では、CPU101は、画像番号nの表示状態をS401と同様に取得し、S402へ進み、さらにS403へと進む。
なお、図4の処理は表示中の画像のうち最も表示面積の大きな画像を検出することでアクティブ画像を検出してもよい。
あるいは、ステップS404において、表示対象画像のうち、表示領域の所定の位置(例えば左上や中央など)に最も近いかどうかを判定し、ステップS405において、最も近い画像をアクティブ画像として決定してもよい。
あるいは、ステップS404において、画像が選択中であるかどうかを判定し、ステップS405において、選択中であれば、アクティブ画像として決定してもよい。
次に、図5を用いて本実施形態における表示範囲変更処理について説明する。表示範囲変更処理は、表示部105(スマートホン100)の姿勢に応じてアクティブ画像の表示角度αを変更する処理であり、図3のS315へ進むと開始される。
S501では、CPU101は、姿勢検出部113のスマートホン100の姿勢の検出により、スマートホン100の姿勢の変化があったか否かを判定する。スマートホン100の姿勢の変化があったと判定した場合は、S502へ進み、そうでない場合は、S505へ進む。S502では、CPU101は、姿勢変化量γを取得する。
S503では、CPU101は、アクティブ画像の表示範囲を変更し、アクティブ画像の表示角度αa=αa+γとして、システムメモリ52に記録する。図7(e)においてアクティブ画像が画像番号=Mの場合に、スマートホン100の姿勢を、XY平面において時計回り90°変更すると、図7(f)に示すように画像の表示範囲が変更される。このとき、姿勢の変化前にはαa=0°であった状態からαa=90°に変化する。また、表示角度を示すアイテムもスマートホン100の姿勢の変化に伴い、表示が変化する。表示角度を示す図7(e)に示されるアイテム704は表示角度0度を示しているが、姿勢の変化後には図7(f)に示されるアイテム705は表示角度90度を示す。このように、表示角度を示すアイテムもスマートホン100の姿勢の変化に伴い、アイテムが示す表示角度が変化するのでユーザは360°画像のどのあたりを見ているのか容易に認識することができる。なお、表示角度を示すアイテムは、S307、S313においてユーザがタッチ操作などで表示範囲を変更した場合にも表示形態が変更される。図8(a)に示す枠105Aは表示部105に表示可能な範囲を示すものとして説明をしたが、スマートホン100の姿勢が変化したり、タッチ操作などによる表示範囲の変更などがされると図8(b)に示すように表示範囲が変更される。つまり、枠105B内に表示される表示角度が図8(a)では全ての画像においてα=0である状態から、図8(b)に示すように表示角度が変更される。図8(b)において、S305のように表示画像を画像番号が大きい方に切り替えると、枠105Bが下方向に移動した範囲が表示部105に表示される。
S504では、CPU101は、更新処理を行う。更新処理は、スマートホン100の姿勢の変化によるアクティブ画像の表示範囲の変化に基づく、その他の画像の表示角度の更新を行うための処理である。更新処理については、図6を用いて後述する。
S505では、CPU101は、アクティブ画像を表示部105の表示領域において全面表示されているか否かを判定する。アクティブ画像が表示部105において全面表示されていると判定した場合は、S506へ進み、そうでない場合は、図3のS304へ進む。図8(c)、(d)には画像番号M+4の画像が表示部105に全面表示されている場合の表示例を示したものである。図7(a)〜(h)のようにポストに含まれる画像が並んで表示されている状態から各画像をタッチして素早くタッチした手を離すタップ操作をすると、図8(c)、(d)のように表示部105のより広い範囲に画像が表示されるようになる。
S506では、CPU101は、S307と同様にユーザのタッチ操作またはボタン操作で表示角度切り替え指示が行われたかどうかを判定する。表示角度の切り替え指示がされたと判定された場合は、S507へ進み、そうでない場合は、S509へ進む。
S507では、CPU101は、S506において切り替え指示がされたアクティブ画像の表示角度を切り換える。
S508では、CPU101は、全面表示を終了したか否かを判定する。全面表示は、もう一度画像へのタップ操作をすると終了する。全面表示を終了すると判定した場合は、S512へ進み、そうでない場合は、S506へ戻る。
S509〜S511の処理は、図5のS501〜S503の処理と同様の処理である。S509〜S511においては、画像(アクティブ画像)は全面表示されているので、図8(c)のように表示角度90°で表示されていた状態からXY平面上において180°スマートホン100の姿勢が変化すると表示角度270°となる。
S512では、CPU101は、直前のS505〜S511におけるS506またはS509の判定により、アクティブ画像が360°以上表示されたか否かを判定する。つまり、全面表示された状態で画像のXY平面の全てが表示されたか否かを判定する。360°全部表示したと判定した場合は、S513へ進み、そうでない場合は、S514へ進む。なお、ステップS512では、画像のうちほぼすべてに範囲が表示されたか否かを判定すればよい。よってアクティブ画像が180°であれば、180°以上表示されたか否かを判定することになる。また、360°や180°すべてではなく、350°や160°など、任意の表示角度で判定を行ってもよい。
S513では、CPU101は、アクティブ画像の表示角度αaとS507またはS511において更新された角度にする。
S514では、CPU101は、アクティブ画像の表示角度αaを全面表示する前の角度に戻す。全面表示において360°以上の範囲、すなわち全ての範囲をユーザが見た場合には、現在表示している表示角度の表示範囲にユーザ所望の被写体がいる可能性が高い。一方で、360°未満の範囲しか見ていない場合は、全面表示した画像はユーザが見たかった画像ではなかった、もしくは一部を拡大して表示しただけである可能性が高いので、元の表示角度で表示をするようにする。
次に、図6を用いて本実施形態における更新処理について説明する。更新処理は、表示部105(スマートホン100)の姿勢に応じてアクティブ画像の表示角度αが変更された場合に、その他の360°画像の表示角度を変更するか否かを判定するための処理であり、図5のS504へ進むと開始される。その他の360°画像の表示角度を変更するか否かは後述する条件を満たすか否かに応じて決まる。
S601では、CPU101は、画像番号1の画像の表示角度、表示情報を取得する。ここで、画像の表示情報にはアクティブ画像であるか否か、表示されていた時間情報、タグ情報、関連画像情報などが含まれる。図6においては画像番号1〜Nまで順番に各画像の表示角度の更新処理を行っていく。判定を行っている対象となる対象画像を画像番号fで示す。
S603では、CPU101は、画像番号fの画像がアクティブ画像か否かを判定する。アクティブ画像であると判定した場合は、S606へ進み、そうでない場合は、S604へ進む。
S604〜S607はアクティブ画像のスマートホン100の姿勢変化に応じた表示角度の変更に伴い、各画像の表示角度を変更するか否かの条件を示したものである。
S604では、CPU101は、対象画像の画像fはユーザ操作フラグがONであるか否かを判定する。画像fがユーザ操作フラグONであると判定した場合は、S605へ進み、そうでない場合は、S606へ進む。
S605では、CPU101は、画像fが非表示になってからの時間が所定時間を経過したか否かを判定する。所定時間とは例えば、3分や10分といった時間であり、現在表示中のポストが表示され始めてからの期間において判定を行い、現在表示中のポストの画像が前回表示された時からの経過時間では判定をしない。画像fが非表示になってから所定時間が経過したと判定した場合は、S608へ進み、そうでない場合は、S609へ進む。
S606では、CPU101は、画像fがタグ有り画像が否かを判定する。表示情報よりタグ有り画像であると判定した場合は、S609へ進み、そうでない場合は、S607へ進む。
S607では、CPU101は、画像fがアクティブ画像と関連画像であるか否かを判定する。アクティブ画像と関連画像であると判定した場合は、S608へ進み、そうでない場合は、S609へ進む。
S608では、CPU101は、表示角度αf=αf+γへ更新する。すなわち、スマートホン100の姿勢の変化に応じたアクティブ画像における表示角度の変化分、画像fの表示角度を変更する。このように、S608においてはユーザ操作フラグがONであっても所定時間以上経過しているもの、タグがなくアクティブ画像と関連する画像の表示角度は、スマートホン100の姿勢の変化によるアクティブ画像の表示角度の変更と連動して変わる。
S609では、CPU101は、画像番号Nまでの画像についてS403の判定をしたか否かを判定する。すなわち、ポストに含まれる全ての画像についてアクティブ画像か、非アクティブ画像か、表示されていない画像かのいずれかであるかの判定が終わったか否かを判定する。
S610では、CPU101は、画像番号f=f+1とする。すなわち、次の画像番号についてS603以降の判定を行うようにする。
S611では、CPU101は、画像番号fの表示状態をS601と同様に取得し、S402へ進み、さらにS403へと進む。
このように、画像番号1〜Nの各画像について表示角度を変更するか否かを判定し、S604〜S607の判定において条件を満たす画像についてはS608において表示角度を変更する。
一方、ユーザ操作フラグがONであり、画像が非表示になってから所定時間が経過していない画像、タグ有り画像、タグなし画像でアクティブ画像と関連画像でない画像は表示角度を変更しない。ユーザ操作フラグがONであるということはユーザが表示角度をタッチ操作などで変更したので、他の画像(アクティブ画像)の表示角度の変化に応じて、表示角度を変えてしまうとユーザが見ていた表示範囲がずれてしまう。ユーザが表示範囲の変更操作をして所望の被写体を表示部105に表示した場合には、いったん他の画像を表示部105に表示させてスマートホン100の姿勢を変えても、再びフラグONの画像を表示した際に、直前に見ていた所望の被写体が見えた方がよい。上述のように表示角度を変えないようにすることで、ユーザが複数の画像の同じ被写体を比較したり、各画像における確認したい表示範囲を表示画像が切り替わる度に探す操作をしなくても見ることができる。
例えば、図7(c)に示される画像番号MとM+1が表示された状態から、図7(d)に示すように、画像番号M+1、M+2を表示すると、画像番号M+1は表示角度α(M+1)=180°、画像番号M+2は表示角度α(M+2)=90°となる。図7(b)、(c)において画像番号M+1の画像の表示角度が変更されても画像番号M+2の表示角度は、図7(a)のときからα(M+2)=90°で変わらない。
上述したように、図7(e)に示すように、画像番号M−1、Mが表示部105にそれぞれ表示角度(M−1、M)=0°で表示されており、スマートホン100の姿勢を90°右まわりに回転した場合にはアクティブ画像の画像番号Mの表示角度が変わる。図7(f)に示すように、スマートホン100の姿勢を90°右回りに回転した場合には、アクティブ画像である画像番号Mの表示角度が変わり、非アクティブ画像である画像番号M−1の画像の表示角度0°のままは変わらない。
ここで、図7(g)に示すように、表示部105に表示する画像を画像番号M、M+1にすると、画像番号M+1の画像は図7(d)のときと同じく、表示角度α(M+1)=90°のままで表示される。
一方で、もともと図7(a)において表示角度α(M+2)=90°であった場合に、画像番号M+2は表示角度が変わる。図7(h)に示すように、表示部105に画像番号M+2の画像も表示すると、画像番号Mがアクティブ画像であった際にスマートホン100の姿勢変化により、表示角度α(M+2)は90°分表示角度が変更され、表示角度α(M+2)=180°になる。よって、図7(a)に示すアイテム706は表示角度α(M+2)=90°であったが、図7(h)に示すアイテム707は表示角度α(M+2)=180°となる。このように、スマートホン100の姿勢の変化に伴い、アクティブ画像の表示角度を変えた場合に、ユーザがタッチ操作をして所望の被写体が表示部105に表示されるようにしていた画像については表示範囲が変更されないようにする。これにより、ユーザが画像毎に所望の被写体を確認しやすくなる。また、関連画像においては一方の表示角度がスマートホン100の姿勢の変化に伴い変化したことに応じて他方の表示角度も変わるので、2枚の画像の同じ被写体を確認しやすい。ユーザは、いちいち所望の被写体を表示部105の表示領域に表示するためにタッチ操作をして表示角度を変更しなくてもよい。なお、表示画像のうちスマートホン100の姿勢の変化に伴い、アクティブ画像表示角度を変更することを説明したが、非アクティブ画像とアクティブ画像とが関連画像である場合には非アクティブ画像の表示角度も同時に変更してもよい。
関連画像の決定方法は、図3のS308で示した2枚の画像を同時にタッチする方法でなくても、同じ被写体を似たような画角で撮影していた場合にその画像を関連画像としてもよい。また、撮影日時の差が所定時間内の画像や、撮影場所の差が所定距離内の画像を関連画像としてもよい。
以上、説明した実施形態によれば、ユーザは複数の画像を順に表示する場合に、ユーザは操作性良くそれぞれの画像の所望の部分を確認することができる。複数の画像のうち1つの画像の表示角度が、スマートホン100の姿勢の変化に伴い変化しても、ユーザが予め表示角度を調整していた場合には、表示角度を変更しないので、意図せず表示角度が変更されてしまうことがない。
第一の画像の表示角度を調整したあと、一回他の画像を表示しスマートホン100の姿勢を変化させて、他の画像の表示角度を変更する。そして、もう一度第一の画像を表示した際に、前回表示していた被写体を確認することができる。
なお、図6で説明したS605、S606、S607の判定を行わなくてもよく、S604におけるユーザ操作フラグの有無に応じて表示角度を更新するか否かを判定してもよい。S604〜S607の判定はいずれか1つでも、いずれかを組み合わせて判定をしてもよい。
また、画像番号1〜Nまでを順に表示していくが、まだ表示がされていない画像が図3のS305の表示画像の切り替え操作に応じて表示される場合には、S604の判定に関わらず、表示角度を更新せずに、初期の表示角度を0として表示してもよい。
なお、上述の実施形態においては360°画像を例に挙げて説明をしたが、表示部105に一部が表示されており、スマートホン100の姿勢の変化に伴い表示部分が変更されるような画像、例えばパノラマ画像や180°画像等でもよい。なお、上述の実施形態においてはXY平面のスマートホン100の姿勢の変化に伴い、表示角度を変更することを説明したが、これに限らずXZ平面におけるスマートホン100の姿勢の変化に伴い表示角度を変更してもよい。
また、上述した実施形態においてはSNSにおけるポストが選択されて、複数の画像が表示される場合を例に挙げて説明をしたがこれに限らず、画像ファイルが選択され、画像ファイル内の複数の画像が表示される場合にも適用可能である。さらに、複数の画像が表示部105のY軸方向に並んでおり、各画像表示すると、各画像の一部が表示部105に表示されることを説明したが、各画像がX軸、Y軸方向に並んでいてもよい。さらに、各画像の一部ではなく、全体が表示されており、各画像を選択したことに応じて選択した画像の一部が表示されるような場合にも適用可能である。その場合には、選択したことに応じて表示される表示角度について上述の処理を行う。
なお、CPU101が行うものとして説明した上述の各種の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明をスマートホンに適用した場合を例にして説明したが、これはこの例に限定されず、画像の表示部分を変更できるような電子機器であれば適用可能である。すなわち、本発明は携帯電話端末や携帯型の画像ビューワ、ファインダーを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。

Claims (14)

  1. 表示手段の姿勢の変化を検出可能な検出手段と、
    複数の画像のうち表示面に表示する画像を切り替える切り替え手段と、
    前記表示面に表示する画像の部分を変更する変更手段と、
    前記複数の画像のうち、前記切り替え手段により切り替えられた際に前記表示面に表示される画像の部分に関する情報を記録する記録手段と、
    前記複数の画像のうち、第1の画像の部分が前記表示面に表示されている場合に、前記検出手段が前記表示手段の姿勢の変化を検出したことに応じて、姿勢の変化に応じた分前記変更手段は表示する部分を変更し、
    前記第1の画像から第2の画像へと表示する画像を切り替えた際に、前記第2の画像が所定の条件を満たしている場合には、前記第2の画像の前記情報を該姿勢の変化に応じて変更し、
    前記第2の画像が前記所定の条件をみたしていない場合には、前記第2の画像の前記情報を変更しないように制御する制御手段とを有することを特徴とする電子機器。
  2. 前記変更手段は、前記表示手段の姿勢の変化に関わらず、ユーザの所定の指示に応じて表示する部分を変更可能であり、
    前記第1の画像が表示される前に、前記第2の画像に対して前記所定の指示がされた場合には、前記所定の条件を満たすことを特徴とする請求項1に記載の電子機器。
  3. 前記第1の画像から前記第2の画像へは、スクロール指示によって切り替え可能であることを特徴とする請求項1または2に記載の電子機器。
  4. 前記スクロール指示によって表示する画像を切り替え可能な画面を表示する指示を受けつけることを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  5. 前記複数の画像が第1の方向に並んでいることを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
  6. 前記第2の画像が前記第1の画像と関連する画像である場合には、前記所定の条件を満たさないことを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。
  7. 前記第2の画像と前記第1の画像を同時にユーザの所定の指示に応じて表示する部分を変更した場合には、前記第2の画像が前記第1の画像の関連画像とし、前記所定の条件を満たさないことを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
  8. 前記表示手段に複数の画像が表示されている場合には、前記検出手段が前記表示手段の姿勢の変化を検出したことに応じて、表示面積の大きな画像の表示する部分を変更し、表示面積の小さな画像の表示部分は変更しないことを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。
  9. 前記複数の画像は全天球画像であることを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。
  10. 前記制御手段は、画像と共に前記表示部に表示されている画像の部分を示すアイテムを表示するように制御することを特徴とする請求項1乃至9のいずれか1項に記載の電子機器。
  11. 前記制御手段は、前記情報が変更されたことに応じて、前記アイテムの示す、前記表示部に表示されている画像の部分を変更するように制御することを特徴とする請求項1乃至10のいずれか1項に記載の電子機器。
  12. 表示手段の姿勢の変化を検出可能な検出ステップと、
    複数の画像のうち表示面に表示する画像を切り替える切り替えステップと、
    前記表示面に表示する画像の部分を変更する変更ステップと、
    前記複数の画像のうち、前記切り替えステップにおいて切り替えられた際に前記表示面に表示される画像の部分に関する情報を記録する記録ステップと、
    前記複数の画像のうち、第1の画像の部分が前記表示面に表示されている場合に、前記検出ステップが前記表示手段の姿勢の変化を検出したことに応じて、姿勢の変化に応じた分前記変更手段は表示する部分を変更し、
    前記第1の画像から第2の画像へと表示する画像を切り替えた際に、前記第2の画像が所定の条件を満たしている場合には、前記第2の画像の前記情報を該姿勢の変化に応じて変更し、
    前記第2の画像が前記所定の条件をみたしていない場合には、前記第2の画像の前記情報を変更しないように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  13. コンピュータを、請求項1乃至11のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
  14. コンピュータを、請求項1乃至11のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
JP2018207347A 2017-11-21 2018-11-02 電子機器およびその制御方法およびプログラムおよび記録媒体 Pending JP2019096305A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880075235.3A CN111373359A (zh) 2017-11-21 2018-11-12 能够改变图像的显示部分的电子装置
PCT/JP2018/041811 WO2019102885A1 (ja) 2017-11-21 2018-11-12 画像の表示部分を変更可能な電子機器
US16/860,931 US20200257396A1 (en) 2017-11-21 2020-04-28 Electronic device and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017223649 2017-11-21
JP2017223649 2017-11-21

Publications (1)

Publication Number Publication Date
JP2019096305A true JP2019096305A (ja) 2019-06-20

Family

ID=66971808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018207347A Pending JP2019096305A (ja) 2017-11-21 2018-11-02 電子機器およびその制御方法およびプログラムおよび記録媒体

Country Status (3)

Country Link
US (1) US20200257396A1 (ja)
JP (1) JP2019096305A (ja)
CN (1) CN111373359A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7358938B2 (ja) 2019-11-26 2023-10-11 株式会社リコー 通信端末、画像通信システム、表示方法、及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250470A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250470A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7358938B2 (ja) 2019-11-26 2023-10-11 株式会社リコー 通信端末、画像通信システム、表示方法、及びプログラム

Also Published As

Publication number Publication date
CN111373359A (zh) 2020-07-03
US20200257396A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
US20190121539A1 (en) Electronic apparatus and display method
JP7005161B2 (ja) 電子機器及びその制御方法
US20150186009A1 (en) Electronic device, method and storage medium
JPWO2015072194A1 (ja) 表示制御装置、表示制御方法およびプログラム
JP7154789B2 (ja) 表示制御装置、その制御方法、プログラム及び記憶媒体
CN107656794B (zh) 界面显示方法和装置
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
JP2012217101A (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
KR102278229B1 (ko) 전자기기 및 그 제어 방법
JP2019096305A (ja) 電子機器およびその制御方法およびプログラムおよび記録媒体
JP7080711B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US20220321853A1 (en) Electronic apparatus and method of controlling the same, and recording medium
JP7005160B2 (ja) 電子機器及びその制御方法
US10937217B2 (en) Electronic device and control method thereof for generating edited VR content
WO2019102885A1 (ja) 画像の表示部分を変更可能な電子機器
CN115209203A (zh) 电子装置、电子装置的控制方法以及存储介质
US20200033959A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method
JP2020108112A (ja) 電子機器及びその制御方法
JP2018198096A (ja) 電子機器
JP7210153B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US20230254555A1 (en) Electronic apparatus, control method therefor, and computer-readable storage medium storing program
JP7289208B2 (ja) プログラム、情報処理装置、および方法
JP2017174445A (ja) 電子機器
JP2021128234A (ja) 電子機器及びその制御方法
JP2023125345A (ja) 電子機器、その制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230530