JP2020108112A - Electronic apparatus and method for controlling the same - Google Patents

Electronic apparatus and method for controlling the same Download PDF

Info

Publication number
JP2020108112A
JP2020108112A JP2018248299A JP2018248299A JP2020108112A JP 2020108112 A JP2020108112 A JP 2020108112A JP 2018248299 A JP2018248299 A JP 2018248299A JP 2018248299 A JP2018248299 A JP 2018248299A JP 2020108112 A JP2020108112 A JP 2020108112A
Authority
JP
Japan
Prior art keywords
image
display
range
content
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018248299A
Other languages
Japanese (ja)
Other versions
JP7187307B2 (en
Inventor
小山 潤
Jun Koyama
潤 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018248299A priority Critical patent/JP7187307B2/en
Priority to US16/725,963 priority patent/US10937217B2/en
Priority to CN201911367630.1A priority patent/CN111381750B/en
Publication of JP2020108112A publication Critical patent/JP2020108112A/en
Application granted granted Critical
Publication of JP7187307B2 publication Critical patent/JP7187307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To perform cut-out, from a VR image, a VR image in a narrower range on flat display, while designating an area near an end of a flat display screen as a cut-out center.SOLUTION: An electronic apparatus comprises: display control means that performs flat display for containing a first video range of a VR content in a rectangle on a first screen, and displays an indicator indicating an area cut out from the VR content on a second screen; switching means that switches from the first screen to the second screen; control means that controls to perform circular scroll display for scrolling the VR content in a first direction according to a first operation on the second screen and sequentially displaying an image area by the amount of scroll from an end in a direction opposite to the first direction, and not to perform the circular scroll display even when the first operation is performed; and creation means that creates an edited VR content having a second video range narrower than the first video range based on the area indicated by the indicator.SELECTED DRAWING: Figure 7

Description

本発明は、電子機器及びその制御方法に関する。 The present invention relates to an electronic device and its control method.

近年、全方位画像、全天球画像といった、人間の視野角より広い範囲の映像を持つVR(Virtual Reality)画像を撮影することが可能な撮像装置が普及している。一方で、前方180°に特化した画像フォーマットも発表されており、VR画像から180°画像への切り出しの需要も高まっている。 2. Description of the Related Art In recent years, an imaging device capable of shooting a VR (Virtual Reality) image having an image in a range wider than a human viewing angle, such as an omnidirectional image and an omnidirectional image, has become widespread. On the other hand, an image format specialized for the front 180° has also been announced, and there is an increasing demand for cropping a VR image into a 180° image.

特許文献1では、VR画像のタッチ操作が行われた一部の領域を抜出し、歪み補正を行って画面上に重畳して表示する手法が提案されている。特許文献2では、画像の切り出し領域の設定を、切り出し枠の大きさを変更するか、または切り出し枠は固定で画像の倍率を変更するかで指定するといった方法が提案されている。 Patent Document 1 proposes a method of extracting a part of a region where a touch operation of a VR image is performed, performing distortion correction, and superimposing and displaying the image on a screen. Patent Document 2 proposes a method of specifying the setting of the clipping region of an image by changing the size of the clipping frame or changing the magnification of the image while fixing the clipping frame.

特開2016−123127号公報JP, 2016-123127, A 特開2014−165523号公報JP, 2014-165523, A

VR画像から180°の切り出し領域を切り出す場合、ユーザーは360°の有効映像範囲を矩形に収めるフラット表示にすることによって、VR画像の全体を俯瞰して見ることが出来る。しかし、フラット表示の状態で180°の切り出し領域を指定しようとすると、フラット表示上の端の領域を、切り出し中心に指定することが難しいといった課題がある。 When cutting out a 180° cutout region from a VR image, the user can see the entire VR image from a bird's eye view by making a flat display that fits a 360° effective video range into a rectangle. However, if a 180° cutout area is specified in the flat display state, there is a problem that it is difficult to specify the edge area on the flat display as the cutout center.

本発明は、上記課題に鑑み、VR画像からより狭い範囲のVR画像の切り出しをフラット表示上で行う場合に、フラット表示の画面端近辺の領域を切り出し中心として指定することができるようにした電子機器及びその制御方法を提供することを目的とする。 The present invention has been made in view of the above problems, and when a VR image in a narrower range is cut out from a VR image on a flat display, an area near the screen edge of the flat display can be designated as the cutout center. An object is to provide a device and a control method thereof.

上記課題を解決するために、本発明の電子機器は、
第1の画面において、VRコンテンツの第1の映像範囲を矩形に収めるフラット表示を行い、第2の画面において、矩形領域にフラット表示された前記VRコンテンツ上に、前記VRコンテンツから切り出される領域を示すインジケータを表示するように制御する表示制御手段と、
ユーザーからの切り出し範囲の設定指示に応じて前記第1の画面から前記第2の画面に切り替える切替手段と、
前記第2の画面において、第1の操作に応じて、前記インジケータをスクロールさせることなく、フラット表示された前記VRコンテンツを第1の方向にスクロールさせるとともに、当該スクロールに応じて、前記VRコンテンツのうち前記第1の方向へのスクロール量分の画像領域を、前記矩形領域のうち前記第1の方向とは反対方向の第2の方向の端から前記第1の方向に向かって順次表示させる、同一コンテンツの循環的スクロール表示を行い、
前記第1の画面において、前記第1の操作があっても前記循環的スクロール表示は行わないように制御する制御手段と、
前記第2の画面において前記インジケータが示す領域に基づいて、前記VRコンテンツのうち前記第1の映像範囲よりも狭い第2の映像範囲を有する編集済VRコンテンツを生成する生成手段と、
を有することを特徴とする。
In order to solve the above problems, the electronic device of the present invention,
On the first screen, a flat display that fits the first video range of the VR content into a rectangle is performed, and on the second screen, an area cut out from the VR content is displayed on the VR content that is flatly displayed in the rectangular area. Display control means for controlling to display the indicating indicator,
Switching means for switching from the first screen to the second screen in response to a user's instruction to set the cutout range;
On the second screen, in response to the first operation, the flat-displayed VR content is scrolled in the first direction without scrolling the indicator, and the VR content is scrolled in response to the scroll. Image areas corresponding to the scroll amount in the first direction are sequentially displayed from the end of the rectangular area in the second direction opposite to the first direction toward the first direction. Circular scroll display of the same content
Control means for controlling so that the cyclic scroll display is not performed on the first screen even when the first operation is performed;
Generating means for generating an edited VR content having a second video range narrower than the first video range of the VR content based on the area indicated by the indicator on the second screen;
It is characterized by having.

VR画像からより狭い範囲のVR画像の切り出しをフラット表示上で行う場合に、フラット表示の画面端近辺の領域を切り出し中心として指定することができる。 When cutting out a VR image in a narrower range from the VR image on the flat display, an area near the screen edge of the flat display can be designated as the cutout center.

表示制御装置のブロック図である。It is a block diagram of a display control device. 表示制御装置の外観図である。It is an external view of a display control device. VR画像から180°画像への切り出し処理を示すフローチャートである。It is a flowchart which shows the cut-out process from a VR image to a 180 degree image. 切り出し方向設定処理を示すフローチャートである。It is a flowchart which shows a cutting direction setting process. VR表示での端領域確認処理を示すフローチャートである。It is a flowchart which shows the edge area confirmation process in VR display. VR画像から180°画像への切り出し処理を行う際の表示例である。It is a display example at the time of performing a cutting process from a VR image to a 180° image. 切り出し方向を右スクロールによって変更した際の表示例である。It is a display example when the cutting direction is changed by right scrolling. 切り出し方向を左スクロールによって変更した際の表示例である。It is a display example when the cutting direction is changed by left scrolling. VR表示での端領域確認方法の表示例である。It is a display example of a method of confirming an end region in VR display. VR画像の各種表示の一例である。It is an example of various displays of a VR image.

以下、図面を参照して本発明の好適な実施形態を説明する。図1は、電子機器の一例としての表示制御装置100の構成例を示すブロック図である。内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109、及び、通信I/F110が接続されている。また、内部バス150に対して音声出力部112と姿勢検出部113も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of a display control device 100 as an example of an electronic device. The CPU 101, the memory 102, the non-volatile memory 103, the image processing unit 104, the display 105, the operation unit 106, the recording medium I/F 107, the external I/F 109, and the communication I/F 110 are connected to the internal bus 150. .. The voice output unit 112 and the posture detection unit 113 are also connected to the internal bus 150. The respective units connected to the internal bus 150 can exchange data with each other via the internal bus 150.

CPU101は、表示制御装置100の全体を制御する制御部であり、少なくとも1つのプロセッサーまたは回路からなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば、不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、表示制御装置100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばフラッシュメモリやROMなどで構成される。CPU101は、表示制御装置100が有する表示制御手段、制御手段、生成手段、境界表示手段の各手段の処理を実行する。 The CPU 101 is a control unit that controls the entire display control device 100, and includes at least one processor or circuit. The memory 102 is, for example, a RAM (a volatile memory using a semiconductor element or the like). The CPU 101 controls each unit of the display control device 100 by using the memory 102 as a work memory according to a program stored in the non-volatile memory 103, for example. The non-volatile memory 103 stores image data, audio data, other data, various programs for operating the CPU 101, and the like. The non-volatile memory 103 is composed of, for example, a flash memory or a ROM. The CPU 101 executes processing of each unit of the display control unit, the control unit, the generation unit, and the boundary display unit included in the display control device 100.

画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記録媒体108に格納された画像や、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像などに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。また、全方位画像あるいは全方位ではないにせよ広範囲の映像を有する広範囲画像であるVR画像のパノラマ展開やマッピング処理、変換などの各種画像処理も行う。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。 The image processing unit 104, under the control of the CPU 101, an image stored in the non-volatile memory 103 or the recording medium 108, a video signal acquired via the external I/F 109, or an image acquired via the communication I/F 110. Various image processing is performed on the above. The image processing performed by the image processing unit 104 includes A/D conversion processing, D/A conversion processing, image data encoding processing, compression processing, decoding processing, enlargement/reduction processing (resizing), noise reduction processing, and color conversion. Processing etc. are included. In addition, various image processing such as panoramic expansion, mapping processing, and conversion of a VR image that is a wide-range image having a wide-range image even if not an omni-directional image or an omni-directional image is performed. The image processing unit 104 may be composed of a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 101 can perform image processing according to a program without using the image processing unit 104.

ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成してディスプレイ105に出力するように表示制御装置100の各部を制御する。ディスプレイ105は生成・出力された映像信号に基づいて映像を表示する。なお、表示制御装置自体が備える構成としてはディスプレイ105に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(テレビやHMDなど)で構成してもよい。 The display 105 displays an image, a GUI screen forming a GUI (Graphical User Interface), or the like under the control of the CPU 101. The CPU 101 controls each unit of the display control device 100 so as to generate a display control signal according to a program, generate a video signal to be displayed on the display 105, and output the video signal to the display 105. The display 105 displays an image based on the generated/outputted image signal. The display control device itself may include an interface for outputting a video signal to be displayed on the display 105, and the display 105 may be an external monitor (TV, HMD, etc.).

操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサー、タッチパッドなどを含む、ユーザー操作を受付けるための入力デバイスである。なお、タッチパネル106aは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。 The operation unit 106 is an input device for receiving a user operation, which includes a character information input device such as a keyboard, a pointing device such as a mouse or a touch panel, a button, a dial, a joystick, a touch sensor, and a touch pad. The touch panel 106a is an input device configured to be superimposed on the display 105 in a planar manner and to output coordinate information according to the touched position.

記録媒体I/F107には、メモリーカードやCD、DVDといった記録媒体108が着脱可能である。記録媒体I/F107は、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、記録媒体108に対するデータの書き込みを行う。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。 A recording medium 108 such as a memory card, a CD or a DVD can be attached to and detached from the recording medium I/F 107. The recording medium I/F 107 reads data from the attached recording medium 108 and writes data to the recording medium 108 under the control of the CPU 101. The external I/F 109 is an interface for connecting to an external device by a wired cable or wirelessly and inputting/outputting a video signal and an audio signal. The communication I/F 110 is an interface for communicating with an external device, the Internet 111, or the like to send and receive various data such as files and commands.

音声出力部112は、動画や音楽データの音声や、操作音、着信音、各種通知音などを出力する。音声出力部112には、イヤホンなどを接続する音声出力端子112a(後述)、スピーカー112b(後述)が含まれるものとするが、音声出力部112は無線通信などで外部スピーカーに音声データを出力してもよい。 The voice output unit 112 outputs voices of moving images and music data, operation sounds, ring tones, various notification sounds, and the like. The audio output unit 112 includes an audio output terminal 112a (described later) for connecting earphones and the like and a speaker 112b (described later). The audio output unit 112 outputs audio data to an external speaker by wireless communication or the like. May be.

姿勢検出部113は、重力方向に対する表示制御装置100の姿勢(傾き)や、ヨー方向、ピッチ方向、ロール方向の各軸に対する表示制御装置100の姿勢を検出する。姿勢検出部113で検出された姿勢に基づいて、表示制御装置100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。また、ヨー方向、ピッチ方向、ロール方向などの回転方向における表示制御装置100の傾きの有無や大きさ、当該回転方向に表示制御装置100が回転したかなどを判別可能である。加速度センサー、ジャイロセンサー、地磁気センサー、方位センサー、高度センサーなどのうちの1つのセンサーまたは複数のセンサーの組み合わせを、姿勢検出部113として用いることができる。 The posture detection unit 113 detects the posture (tilt) of the display control device 100 with respect to the gravity direction and the posture of the display control device 100 with respect to each of the yaw direction, pitch direction, and roll direction axes. Based on the posture detected by the posture detection unit 113, whether the display control device 100 is horizontally held, vertically held, faced upward, faced downward, or in an oblique posture. Can be determined. In addition, it is possible to determine whether or not the display control device 100 is tilted in a rotation direction such as a yaw direction, a pitch direction, and a roll direction, and whether the display control device 100 is rotated in the rotation direction. One sensor or a combination of a plurality of sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an orientation sensor, and an altitude sensor can be used as the attitude detection unit 113.

なお操作部106には、タッチパネル106aが含まれる。CPU101はタッチパネル106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)
・タッチパネル106aを指やペンがタッチしている状態(以下、タッチオン(Touch−On)と称する)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)
The operation unit 106 includes a touch panel 106a. The CPU 101 can detect the following operations on the touch panel 106a or the states thereof.
A new touch on the touch panel 106a by a finger or pen that has not touched the touch panel 106a, that is, the start of touch (hereinafter referred to as touch-down).
A state where a finger or a pen is touching the touch panel 106a (hereinafter, referred to as touch-on).
A finger or pen moving while touching the touch panel 106a (hereinafter, referred to as Touch-Move)
-The finger or pen touching the touch panel 106a is separated from the touch panel 106a, that is, the touch ends (hereinafter, referred to as Touch-Up).
A state in which nothing is touched on the touch panel 106a (hereinafter, referred to as touch-off)

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。 When touch down is detected, touch on is also detected. After touchdown, touchon is normally detected unless touchup is detected. Even if a touch move is detected, touch-on is detected at the same time. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. When it is detected that all the touched fingers or pens are touched up, touch-off is detected.

これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知され、CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。 These operations/states and the position coordinates of the finger or pen touching the touch panel 106a are notified to the CPU 101 through the internal bus, and the CPU 101 performs any operation (touch operation) on the touch panel 106a based on the notified information. ) Is performed. With respect to the touch move, the moving direction of the finger or the pen moving on the touch panel 106a can be determined for each vertical component/horizontal component on the touch panel 106a based on the change in the position coordinates. When it is detected that the touch move is performed over the predetermined distance, it is determined that the slide operation is performed.

タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。 An operation of quickly moving a certain distance while touching the finger on the touch panel 106a and then releasing the finger is called a flick. In other words, the flick is an operation of quickly tracing the touch panel 106a with a finger. When it is detected that a touch move is performed over a predetermined distance or more at a predetermined speed or more, and a touch-up is detected as it is, it can be determined that a flick has been performed (it can be determined that a flick follows a slide operation).

更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式など、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。 Further, a touch operation of simultaneously touching a plurality of points (for example, two points) to bring the touch positions closer to each other is called a pinch-in, and a touch operation of moving the touch positions away from each other is called a pinch-out. Pinch out and pinch in are collectively referred to as a pinch operation (or simply pinch). The touch panel 106a may be any of various types of touch panels such as a resistance film type, a capacitance type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. Good. There is a method of detecting that there is a touch due to the touch on the touch panel, and a method of detecting that there is a touch due to the approach of the finger or pen to the touch panel, but any method may be used.

図2は、電子機器の一例である表示制御装置100の外観図である。表示制御装置100は、例えばスマートフォンなどの表示装置である。ディスプレイ105は画像や各種情報を表示する表示部である。ディスプレイ105はタッチパネル106aと一体的に構成されており、ディスプレイ105の表示面へのタッチ操作を検出できるようになっている。表示制御装置100は、VR画像(VRコンテンツ)をディスプレイ105においてVR表示することが可能である。例えば、デジタルカメラ(全方位カメラ;全天球カメラ)で撮像されたVR画像を通信I/F110を介して取得して(無線通信により転送されたVR画像を受信し)記録媒体108に記録することができる。このようにして記録媒体108に記録されたVR画像を、ディスプレイ105でVR表示(VRビューで表示)することが可能である。また、デジタルカメラで撮像されたVR画像が記録された記録媒体を記録媒体I/F107に直接接続し、記録媒体からVR画像を読み出して再生することで、ディスプレイ105でVR表示(VRビューで表示)することも可能である。また、SNS等を介して、ネットワークに接続されたサーバー装置等に記録されたVR画像(共有されたVR画像)を取得してVR表示することも可能である。本実施形態では、操作部106は、タッチパネル106a、操作部106b、106c、106d、106eを含む。操作部106bは表示制御装置100の電源のオンとオフを切り替える操作を受付ける電源ボタンである。操作部106cと操作部106dは音声出力部112から出力する音声のボリュームを増減するボリュームボタンである。操作部106eは、ディスプレイ1
05にホーム画面を表示させるためのホームボタンである。音声出力端子112aはイヤホンジャックであり、イヤホンや外部スピーカーなどに音声信号を出力する端子である。スピーカー112bは音声を出力する本体内蔵スピーカーである。
FIG. 2 is an external view of a display control device 100 that is an example of an electronic device. The display control device 100 is a display device such as a smartphone. The display 105 is a display unit that displays images and various information. The display 105 is configured integrally with the touch panel 106a, and can detect a touch operation on the display surface of the display 105. The display control device 100 can display a VR image (VR content) on the display 105 in a VR manner. For example, a VR image captured by a digital camera (omnidirectional camera; omnidirectional camera) is acquired via the communication I/F 110 (the VR image transferred by wireless communication is received) and recorded in the recording medium 108. be able to. The VR image recorded on the recording medium 108 in this manner can be VR-displayed (displayed in the VR view) on the display 105. Further, a recording medium on which a VR image captured by a digital camera is recorded is directly connected to the recording medium I/F 107, and the VR image is read out from the recording medium and reproduced, thereby displaying a VR on the display 105 (displayed in a VR view). ) Is also possible. It is also possible to acquire a VR image (shared VR image) recorded in a server device or the like connected to the network via the SNS or the like and display the VR image. In the present embodiment, the operation unit 106 includes a touch panel 106a and operation units 106b, 106c, 106d and 106e. The operation unit 106b is a power button that receives an operation for switching the power of the display control device 100 on and off. The operation unit 106c and the operation unit 106d are volume buttons for increasing or decreasing the volume of the sound output from the sound output unit 112. The operation unit 106e is the display 1
This is a home button for displaying the home screen on 05. The audio output terminal 112a is an earphone jack and is a terminal that outputs an audio signal to an earphone, an external speaker, or the like. The speaker 112b is a main body built-in speaker that outputs sound.

表示制御装置100は、VR画像(VRコンテンツ)をディスプレイ105においてVR表示することが可能である。VR画像とは、VR表示(表示モード「VRビュー」で表示)をすることのできる画像であるものとする。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれるものとする。VR画像には、静止画だけでなく、動画やライブビュー画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で上下方向(垂直角度、天頂からの角度、仰角、俯角、高度角、ピッチ角)360度、左右方向(水平角度、方位角度、ヨー角)360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像は、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示部に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含むものとする。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。また、例えば、左右方向(水平角度、方位角度)180度、水平方向を中心とした垂直角度180度の視野分(画角分)の被写体を撮影可能なカメラで撮影された画像はVR画像の一種である。即ち、上下方向と左右方向にそれぞれ160度(±80度)以上の視野分の映像範囲を有しており、人間が一度に視認できる範囲よりも広い映像範囲を有している画像はVR画像の一種である。このVR画像をVR表示(表示モード:「VRビュー」で表示)すると、左右回転方向に表示装置(VR画像を表示する表示装置)の姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することができる。上下方向(垂直回転方向)には、真上(天頂)から±105度の範囲では継ぎ目のない全方位の映像を視聴することができるが、真上から105度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。 The display control device 100 can display the VR image (VR content) in the VR on the display 105. The VR image is an image that can be displayed in VR (displayed in the display mode “VR view”). The VR image is an omnidirectional image (omnidirectional image) captured by an omnidirectional camera (omnidirectional camera) or a panoramic image having a wider image range (effective image range) than the display range that can be displayed on the display unit at one time. Etc. shall be included. The VR image includes not only a still image but also a moving image and a live view image (image obtained from a camera in almost real time). The VR image has a maximum visual range of 360 degrees in the vertical direction (vertical angle, angle from zenith, elevation angle, depression angle, altitude angle, pitch angle) and 360 degrees in the horizontal direction (horizontal angle, azimuth angle, yaw angle). Has (effective video range). Further, even if the VR image is less than 360 degrees up and down and less than 360 degrees left and right, it can be displayed on a wide range of view angles (viewing range) wider than the view angle that can be captured by a normal camera, or at once on the display unit. Images with a wider video range (effective video range) than the display range are also included. For example, an image taken with a omnidirectional camera capable of shooting a subject in a horizontal direction (horizontal angle, azimuth angle) of 360 degrees and a vertical field of view of 210 degrees (angle of view) centered on the zenith is It is a type of VR image. Further, for example, an image captured by a camera capable of capturing a subject in a horizontal direction (horizontal angle, azimuth angle) of 180 degrees and a vertical field of 180 degrees centering on the horizontal direction (angle of view) is a VR image. It is a kind. That is, a VR image is an image that has a visual range of 160 degrees (±80 degrees) or more in each of the vertical direction and the horizontal direction, and that has a wider visual range than a range that a human can visually recognize at one time. Is a kind of. When this VR image is VR-displayed (display mode: "VR view" is displayed), the posture of the display device (display device that displays the VR image) is changed in the left-right rotation direction, so that the left-right direction (horizontal rotation direction) is changed. Allows you to view seamless, omnidirectional video. In the vertical direction (vertical rotation direction), a seamless omnidirectional image can be viewed within ±105 degrees from directly above (zenith), but there is no image above 105 degrees from directly above. It becomes a blank area. The VR image can also be said to be an “image in which the video range is at least a part of the virtual space (VR space)”.

VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。表示装置であるヘッドマウントディスプレイ(HMD)を装着して視聴する場合には、ユーザーの顔の向きに応じた視野範囲の映像を表示することになる。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野角(画角)の映像を表示しているものとする。この状態から、表示装置の姿勢を表裏反転させると(例えば、表示面を南向きから北向きに変更すると)、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度(水平)を中心とした視野角の映像に、表示範囲が変更される。ユーザーがHMDを視聴している場合で言えば、ユーザーが顔を北から南に向ければ(すなわち後ろを向けば)、HMDに表示される映像も北の映像から南の映像に変わるということである。このようなVR表示によって、ユーザーに、視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚(没入感)を提供することができる。VRゴーグル(ヘッドマウントアダプター)に装着されたスマートフォンは、HMDの一種と言える。 The VR display (VR view) is a display method (display mode) capable of changing the display range, in which a video image in a visual field range corresponding to the attitude of the display device is displayed in the VR image. When a head mounted display (HMD), which is a display device, is mounted and viewed, an image in a visual field range corresponding to the orientation of the user's face is displayed. For example, in a VR image, an image with a viewing angle (angle of view) centered at 0° in a horizontal direction (a specific azimuth, for example, north) and 90° in a vertical direction (90° from the zenith, that is, horizontal) at a certain point in time. Is displayed. From this state, when the posture of the display device is reversed upside down (for example, when the display surface is changed from southward to northward), 180 degrees (reverse azimuth, for example, south) of the same VR image is rotated vertically. The display range is changed to an image with a viewing angle centered at 90 degrees (horizontal) in the direction. When the user is watching the HMD, if the user turns their face from north to south (that is, if they face back), the image displayed on the HMD will change from the image in the north to the image in the south. is there. With such a VR display, it is possible to provide the user with a visual feeling as if he/she were in the VR image (VR space). A smartphone attached to VR goggles (head mount adapter) can be said to be a type of HMD.

なお、VR画像の表示方法は上記に限るものではない。姿勢変化ではなく、タッチパネルや方向ボタンなどに対するユーザー操作に応じて表示範囲を移動(スクロール)させてもよい。VR表示(表示モード「VRビュー」)で表示した場合にも、姿勢変化による表示範囲の変更に加え、タッチパネルへのタッチムーブ、マウスなどへのドラッグ操作、方向ボタンの押下などに応じて表示範囲を変更できるようにしてもよい。 The display method of the VR image is not limited to the above. Instead of changing the posture, the display range may be moved (scrolled) according to a user operation on the touch panel, direction buttons, or the like. Even in the case of VR display (display mode “VR view”), the display range is changed according to the posture change, touch move to the touch panel, drag operation to the mouse, etc. May be changed.

本実施形態では、最大で上下左右に360度の視野分の映像範囲(有効映像範囲)を持つVR画像から、上下左右に180度の視野分の映像範囲(有効映像範囲)をもつVR画像を切出す操作及び処理について説明する。なお、以下では、最大で上下左右に360度の視野分の映像範囲(有効映像範囲)を持つVR画像を、360度のVR画像と称する。また、上下左右に180度の視野分の映像範囲(有効映像範囲)をもつVR画像を、180度のVR画像と称する。360度のVR画像から180度のVR画像を切り出す処理は、概念としては、360度分の映像が全体にマッピングされた仮想的な球体から、半球を切出す処理である。本実施形態で説明する切出しは、通常の矩形画像(平面画像)を切出す処理ではなく、切出し後もVR画像として視聴可能(球体にマッピングしてVRビューで視聴可能)な画像を切出す処理である。切出し後の画像は上下左右180度分の有効映像範囲を有するため、球体にマッピングした場合には、半球分の有効な映像(撮影された画像など)がマッピングされる。残りの半球分は無効映像範囲となり、単色や所定パターンでの塗りつぶしや、何かしら補完された映像がマッピングされる。このような切出し後のVR画像をVRビューで視聴する場合、ユーザーは、前方の幅180度の範囲(中心から上下左右にそれぞれ90度の範囲)で画像を視認することができる。このような切出し処理を行う理由としては以下のようなものがある。 In the present embodiment, a VR image having a video range (effective video range) of 360 degrees in the vertical and horizontal directions at the maximum, and a VR image having a video range of 180 degrees in the vertical and horizontal directions (effective video range). The cutting operation and processing will be described. Note that, hereinafter, a VR image having a video range (effective video range) of 360 degrees in the vertical and horizontal directions at the maximum is referred to as a 360-degree VR image. A VR image having a video range (effective video range) of 180 degrees of visual field in the vertical and horizontal directions is referred to as a 180-degree VR image. The process of cutting out a 180-degree VR image from a 360-degree VR image is conceptually a process of cutting out a hemisphere from a virtual sphere onto which a 360-degree video image is mapped. The cutout described in the present embodiment is not a process of cutting out a normal rectangular image (planar image), but a process of cutting out an image that can be viewed as a VR image even after cutout (that can be viewed in a VR view by mapping on a sphere). Is. Since the image after cutting has an effective image range of 180 degrees in the vertical and horizontal directions, when it is mapped on a sphere, an effective image of a hemisphere (a captured image or the like) is mapped. The remaining hemisphere corresponds to the invalid video range, and the image filled with a single color or a predetermined pattern, or a video that is complemented in some way is mapped. When viewing such a VR image after cutout in the VR view, the user can visually recognize the image in a front width range of 180 degrees (90 degrees from the center in the vertical and horizontal directions). The reason for performing such a cutting process is as follows.

第1に、画像のデータ量を削減することができる。360度のVR画像に対して、切出された180度のVR画像はデータ量が小さい。そのため、保存する際の記録媒体の容量圧迫を抑制できる。また、送受信する際の通信データ量の削減、表示する際の処理負荷の削減をすることができ、その分、処理速度や応答速度の向上、消費電力の削減といった効果を奏する。 First, the amount of image data can be reduced. The cut-out 180-degree VR image has a smaller amount of data than the 360-degree VR image. Therefore, it is possible to suppress the capacity pressure of the recording medium during storage. In addition, it is possible to reduce the amount of communication data when transmitting and receiving, and to reduce the processing load when displaying, and accordingly, there are effects such as improvement in processing speed and response speed, and reduction in power consumption.

第2に、不要な被写体を削除することができる。例えば360度の視野分の有効映像範囲を有するVR画像を撮像するほとんどの場合、撮影者自身が写り込むことが避けられない。しかし、撮影者が撮影したいものが撮影者自身でなく風景などである場合、撮影者自身は余計な被写体であり、意図しないものである。意図しない映像が写っていると、撮影者が主題と考えていた風景などの映像に視聴者の関心を集中させることを阻害してしまう。また、通行人の顔や通行する車のナンバープレートといった秘匿すべき情報が写ってしまうことも多く、プライバシーやセキュリティーの観点から望ましくない場合がある。切出し処理によって、撮影者が意図する範囲のみを切出し、その他の不要な範囲の映像を破棄することで、これらの問題を回避することができる。 Secondly, unnecessary subjects can be deleted. For example, in most cases of capturing a VR image having an effective image range for a field of view of 360 degrees, it is inevitable that the photographer himself/herself will be reflected. However, when the photographer wants to photograph a landscape instead of the photographer himself, the photographer himself is an unnecessary subject and is not intended. When an unintended image is captured, it prevents the viewer from concentrating the viewer's attention on the image such as a landscape that the photographer thought was the subject. In addition, confidential information such as the face of a passerby or the license plate of a passing vehicle is often captured, which may be undesirable from the viewpoint of privacy and security. These problems can be avoided by cutting out only the range intended by the photographer and discarding the images in other unnecessary ranges by the cutout process.

第3に、VRビューで視聴するユーザーの身体的負担を軽減することができる。360度のVR画像をVRビューで視聴する場合、視聴するユーザーの背後まで映像が存在する。前方の180度分の映像であれば、視聴者は自身の首の向きを変えるだけで概ね見渡すことができるが、背後を見ようとすれば、上半身を捻ったり、立つ向きを変えたりしなければならず、身体的負担がやや高い。このような背後を見ようとする身体的動きは、回転チェアでも無い限り、椅子に座って視聴する場合には不向きである。これに対し、180度のVR画像では自身の首の向きを変えるだけで概ね全体を見渡すことができるので、観賞する際の身体的負担が比較的小さい。ガイド表示や180度を超えた範囲が無効領域であることがわかるような表示によって、視聴者が180度のVR画像であることを認識していれば、視聴者は背後を見ようと試みることもない。そのため、背後を見るといった身体的動作を視聴者に行わせることを抑制することができる。 Thirdly, it is possible to reduce the physical burden on the user who views the VR view. When viewing a VR image of 360 degrees in a VR view, an image exists behind the viewing user. If the image is for 180 degrees ahead, the viewer can look around by simply changing the direction of his/her neck, but if he wants to look behind him, he must twist his/her upper body or change the standing direction. However, the physical burden is rather high. Such a physical movement to look behind is not suitable for sitting on a chair for viewing unless the chair is a swivel chair. On the other hand, in a VR image of 180 degrees, the entire body can be overlooked simply by changing the direction of one's own neck, so that the physical burden on viewing is relatively small. If the viewer recognizes that the VR image is a 180-degree VR image by a guide display or a display that shows that the range exceeding 180 degrees is an invalid area, the viewer may try to look behind. Absent. Therefore, it is possible to prevent the viewer from performing a physical action such as looking back.

第4に、360度のVR画像を、180度のVR画像のための記録フォーマットなどに対応させて表示させることができる。360度のVR画像の記録フォーマットと、180度分のVR画像のための記録フォーマットが異なる場合、180度分のVR画像の視聴にのみ対応した再生装置(再生アプリケーションソフト)では、360度のVR画像を視聴
することができない。しかし360度のVR画像から切出して180度のVR画像を生成すれば、180度分のVR画像の視聴にのみ対応した再生装置でも視聴することが可能となる。また、180度のVR画像の視聴と360度のVR画像の視聴の双方に対応していても、180度のVR画像を視聴するモードと360度のVR画像を視聴するモードとを切り替える必要がある場合には、切替の操作が煩わしい。しかし360度のVR画像から切出して180度のVR画像を生成すれば、180度分のVR画像のための表示モードを切り替えることなく、複数のVR画像を次々と切り替えて表示させることができる。また、同一方向の被写体に向けて視差の分だけ離れた距離に設置された2つのカメラユニットによって撮影された、それぞれ右目用、左目用の2つの180度のVR画像を立体視できるように表示する表示モード(2眼VRビュー)が想定される。360度のVR画像から、右目用の180度のVR画像と左目用の180度のVR画像を切出して記録しておけば、このような2眼VRビューでも視聴可能となる。
Fourth, it is possible to display the VR image of 360 degrees in correspondence with the recording format for the VR image of 180 degrees. When the recording format of a 360-degree VR image is different from the recording format of a 180-degree VR image, a playback device (playback application software) that only supports viewing of a 180-degree VR image can output a 360-degree VR image. You cannot view the image. However, if a 180-degree VR image is generated by cutting out a 360-degree VR image, it can be viewed even by a playback device that is only capable of viewing the 180-degree VR image. Further, even if both the 180-degree VR image viewing and the 360-degree VR image viewing are supported, it is necessary to switch between the 180-degree VR image viewing mode and the 360-degree VR image viewing mode. In some cases, the switching operation is troublesome. However, if a 180-degree VR image is generated by cutting out from a 360-degree VR image, it is possible to sequentially switch and display a plurality of VR images without switching the display mode for the 180-degree VR image. Also, two 180-degree VR images for the right eye and the left eye, respectively, captured by two camera units installed at a distance apart by parallax toward the subject in the same direction, are displayed so that they can be viewed stereoscopically. A display mode (binocular VR view) is assumed. If a 180-degree VR image for the right eye and a 180-degree VR image for the left eye are cut out and recorded from the 360-degree VR image, it is possible to view even with such a two-eye VR view.

なお、本実施形態では、360度のVR画像から180度のVR画像を切出して生成する例を説明するが、切出し前のVR画像の有効映像範囲よりも狭い有効映像範囲のVR画像を切出す処理であれば他の視野角度のVR画像にも適用可能である。すなわち、切出し前のVR画像は360度のVR画像に限るものではなく、また、切出し後のVR画像は180度のVR画像に限るものではない。 In the present embodiment, an example in which a 180-degree VR image is cut out and generated from a 360-degree VR image will be described. However, a VR image having an effective video range narrower than the effective video range of the VR image before cutting is cut out. The processing can be applied to VR images with other viewing angles. That is, the VR image before cutout is not limited to the VR image of 360 degrees, and the VR image after cutout is not limited to the VR image of 180 degrees.

後述する各処理では、各種のタッチボタンを表示し、ユーザー操作として各種タッチボタンに対するタッチ操作を受付けて処理を進める例を説明する。各種タッチボタンに対する指示を受付けるタッチ操作とは、具体的にはタッチボタンに対応するタッチ反応領域からのタッチアップとしてもよいし、タッチボタンに対応するタッチ反応領域に対するタッチダウンとしてもよい。またこれに限るものではなく、後述するタッチボタンへの操作によって受付けるものとして説明する各指示は、他のユーザー操作によって受付けるものとしてもよい。例えば、各物理ボタンへの操作、方向キーを用いて表示アイテムを選択して決定ボタンを押下する操作、マウスを用いて表示アイテムを選択する操作、音声コマンド等であってもよい。 In each process described below, an example in which various touch buttons are displayed and a touch operation on each touch button is received as a user operation to proceed the process will be described. Specifically, the touch operation of receiving instructions for various touch buttons may be a touch-up from a touch reaction area corresponding to the touch button or a touch-down to a touch reaction area corresponding to the touch button. Moreover, the present invention is not limited to this, and each instruction described as being accepted by an operation on a touch button described later may be accepted by another user operation. For example, an operation to each physical button, an operation to select a display item using the direction keys and press the enter button, an operation to select a display item using the mouse, a voice command, or the like may be used.

以下図3〜図8を参照して、本発明の実施例の動作を説明する。
図3は、表示制御装置100による、360度のVR画像から180度のVR画像への切り出し処理の一例を示すフローチャートである。このフローチャートおける各処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現する。
The operation of the embodiment of the present invention will be described below with reference to FIGS.
FIG. 3 is a flowchart showing an example of a cutting process from the 360-degree VR image to the 180-degree VR image by the display control device 100. Each process in this flowchart is realized by the CPU 101 expanding a program stored in the nonvolatile memory 103 into the memory 102 and executing the program.

表示制御装置100の電源がオンとされ、記録媒体108に記録された画像や、通信先から取得した画像のうち、VR画像(VRコンテンツ)が選択されると図3の処理が開始される。 When the display control device 100 is powered on and a VR image (VR content) is selected from the images recorded on the recording medium 108 or the images acquired from the communication destination, the process of FIG. 3 is started.

S301では、CPU101は、記録媒体108もしくは通信I/F110を介した通信先から、表示対象となるVR画像を読みこむ。CPU101は、VR画像の属性情報として付帯する映像範囲(有効映像範囲)を示す情報を取得して、有効映像範囲を矩形に収めるフラット表示でVR画像を表示する。S301でディスプレイ105にフラット表示されるVR画像の有効映像範囲は、第1の有効映像範囲の一例である。VRビューであれば仮想球体にマッピングして表示するが、フラット表示では、正距円筒図法などによって矩形に全体を収めて表示する。そのため、矩形端部よりの部分などでは、VRビューで表示する場合よりも被写体が歪む。 In S301, the CPU 101 reads the VR image to be displayed from the communication destination via the recording medium 108 or the communication I/F 110. The CPU 101 acquires information indicating a video range (effective video range) attached as attribute information of the VR image, and displays the VR image in a flat display that fits the effective video range in a rectangle. The effective image range of the VR image displayed flat on the display 105 in S301 is an example of the first effective image range. In the case of the VR view, it is displayed by mapping it on a virtual sphere, but in the flat display, it is displayed as a whole in a rectangle by the equirectangular projection. Therefore, the subject is distorted in a portion from the rectangular end portion as compared with the case of displaying in the VR view.

有効映像範囲を示す情報とは、VR画像が、上下方向、左右方向にどの角度範囲分の有効な映像を有しているかという情報である。有効映像範囲を示す情報は、VR画像の有効
映像範囲を特定できる情報であればよく、画角、視野角、方位角、仰角、俯角、高度角度、ステラジアンなどによって表される角度情報であってもよいし、上下、左右の画素数や座標などの位置情報であってもよい。
The information indicating the effective image range is information indicating which angle range of the effective image the VR image has in the vertical direction and the horizontal direction. The information indicating the effective image range may be any information as long as it can identify the effective image range of the VR image, and is angle information represented by an angle of view, a viewing angle, an azimuth angle, an elevation angle, a depression angle, an altitude angle, a steradian, and the like. Alternatively, it may be position information such as the number of pixels on the top and bottom, and the left and right, and coordinates.

また、有効映像範囲を示す情報は、VR画像を撮像したカメラの機種情報(機種を特定することで撮影可能な範囲を特定可能)や撮影時のズームの情報等でもよい。CPU101は、有効映像範囲を示す情報を取得すると、上下左右360度との差分で無効映像範囲(非映像範囲)も特定(算出)する。なお、逆に、VR画像の属性情報から無効映像範囲を示す情報を取得し、そこから有効映像範囲を算出してもよいし、有効映像範囲を示す情報と無効映像範囲を示す情報の双方をVR画像の属性情報から取得してもよい。 Further, the information indicating the effective video range may be model information of the camera that captured the VR image (the range that can be photographed can be specified by specifying the model), zoom information at the time of photographing, or the like. When the CPU 101 acquires the information indicating the effective video range, the CPU 101 also specifies (calculates) the invalid video range (non-video range) based on the difference between the upper, lower, left and right 360 degrees. On the contrary, the information indicating the invalid video range may be acquired from the attribute information of the VR image, and the valid video range may be calculated from the information, or both the information indicating the valid video range and the information indicating the invalid video range may be obtained. It may be acquired from the attribute information of the VR image.

図6(a)に、S301におけるフラット表示の表示例(第1の画面における表示例)を示す。正距円筒図法を用いた画像であるため、実物とは異なり歪んだ画像となっている。ユーザーは、切り出しボタン602を選択するボタン操作により、VR画像601の切り出しモードに遷移させることが出来る。切り出しボタン602は、ユーザーからの切り出し範囲の設定指示を受付ける操作ボタンである。また、VRビューに遷移するための指示アイコンを表示してもよい。この指示アイコンに対する操作に応じて、同じ画像について、フラット表示から、VRビューに遷移することができる。なお、S301におけるフラット表示を行っている際に、VR画像601の表示領域上でタッチムーブが行われた場合、別の画像への画像切替(ファイル名順などの所定の順序における次の画像、または前の画像の表示への切り替え)を行うものとする。S301におけるフラット表示は、ユーザーが表示対象あるいは編集対象となる画像の識別を行うための画面である。タッチムーブによって画像切替を行う場合、タッチムーブに追従してVR画像601をタッチムーブ方向へスライド(スクロール)するが、図6(a)に示すVR画像601の端部の外側は、黒塗りなどの非画像領域、あるいは切替後の画像が表示される。すなわち、図4の切り出し領域設定処理におけるスクロールとは異なり、端部を識別できないような循環的なスクロールは行わない。 FIG. 6A shows a display example (display example on the first screen) of the flat display in S301. Since the image uses the equirectangular projection, the image is distorted unlike the real one. The user can switch to the cutout mode of the VR image 601 by operating the cutout button 602. The cutout button 602 is an operation button that receives a setting instruction of the cutout range from the user. Further, an instruction icon for transitioning to the VR view may be displayed. In response to an operation on this instruction icon, the same image can be transitioned from the flat display to the VR view. If a touch move is performed on the display area of the VR image 601 during the flat display in S301, the image is switched to another image (the next image in a predetermined order such as a file name order, Or switch to the display of the previous image). The flat display in S301 is a screen for the user to identify an image to be displayed or edited. When the images are switched by touch move, the VR image 601 is slid (scrolled) in the touch move direction following the touch move, but the outside of the end of the VR image 601 shown in FIG. The non-image area of, or the image after switching is displayed. That is, unlike the scroll in the cutout region setting process of FIG. 4, the cyclic scrolling in which the end portion cannot be identified is not performed.

S302では、CPU101は、切り出しボタン602に対するタッチ操作、すなわちタッチパネル106aに対する切り出し範囲の設定指示があったか否かを判定する。切り出し範囲の設定指示があった場合は、S303に進み、切り出し範囲の設定指示がなかった場合は処理を終了させる。S303に進んだ場合は、VR画像を180°で切り出すための切り出し範囲を設定するモードに遷移する。 In S302, the CPU 101 determines whether or not there is a touch operation on the cutout button 602, that is, whether there is an instruction to set the cutout range on the touch panel 106a. If there is an instruction to set the cutout range, the process proceeds to S303, and if there is no instruction to set the cutout range, the process ends. If the process proceeds to S303, the mode transitions to a mode for setting a cutout range for cutting out a VR image at 180°.

S303では、CPU101は、天頂補正を行うか否かを選択する選択画面を表示した上で、タッチパネル106aに入力された天頂補正に関するパラメータを受け取り、天頂補正の実施が希望されている場合は天頂補正を行う。図6(b)に、S303で表示される天頂補正を行うか否かを選択する選択画面の表示例を示す。図6(b)の天頂補正選択ダイアログ603は、切り出しボタン602を選択するボタン操作により表示される。天頂補正選択ダイアログ603は、ボタン604及びボタン605を有する。ユーザーがボタン604を選択するボタン操作により、VR画像の切り出し処理前に天頂軸の補正が実行される。また、ボタン605を選択すると、VR画像の切り出し処理前に天頂軸の補正は実行されない。 In S303, the CPU 101 displays a selection screen for selecting whether or not to perform the zenith correction, receives the parameters related to the zenith correction input on the touch panel 106a, and performs the zenith correction when it is desired to perform the zenith correction. I do. FIG. 6B shows a display example of a selection screen for selecting whether or not to perform the zenith correction displayed in S303. The zenith correction selection dialog 603 of FIG. 6B is displayed by operating the cutout button 602. The zenith correction selection dialog 603 has a button 604 and a button 605. The user operates the button 604 to select the zenith axis before the VR image is cut out. When the button 605 is selected, the zenith axis is not corrected before the VR image cutout process.

S304では、CPU101は、切り出し用のUIをディスプレイ105に表示する。すなわち、ユーザーからの切り出し範囲の設定指示に応じて、S301で説明した表示画面から、切り出し用のUI画面に切り替わる(切替制御)。図6(c)に、S304で表示される切り出し用のUIの表示例(第2の画面の表示例)を示す。切り出し領域枠606は、VR画像から切り出される180°の領域を示すインジケータである。切り出し領域枠606は、矩形領域にフラット表示されたVR画像上(VRコンテンツ上)に表示さ
れる。なお切り出し領域枠606は正確な切り出し範囲を示している訳では無く、大まかな範囲を示したものである。非切り出し領域608は、切り出す180°の領域に含まれない領域を示している。
In S304, the CPU 101 displays the cutout UI on the display 105. That is, the display screen described in S301 is switched to the cutout UI screen according to a cutout range setting instruction from the user (switching control). FIG. 6C shows a display example (display example of the second screen) of the cutout UI displayed in S304. The cutout area frame 606 is an indicator that indicates an area of 180° cut out from the VR image. The cutout area frame 606 is displayed on the VR image (VR content) flat-displayed in the rectangular area. The cut-out area frame 606 does not indicate an accurate cut-out range, but indicates a rough range. The non-cutout region 608 indicates a region that is not included in the 180° cutout region.

ユーザーが切り出し決定(完了)ボタン611を選択するボタン操作により、切り出し領域枠606に囲まれた切り出し領域607が切り出し領域として設定される。天頂切り出しボタン612を選択するボタン操作により、天頂方向(VRコンテンツの上方向)を中心に180°の領域が切り出し領域として設定される。天底切り出しボタン613を選択するボタン操作により、天底方向(VRコンテンツの下方向)を中心に180°の領域が切り出し領域として設定される。CPU101は、設定された切り出し領域に基づいて、切り出し前の有効映像範囲よりも狭い有効映像範囲を有する編集済VRコンテンツを生成することができる。このように、CPU101は、VRコンテンツの上下方向のスクロールは行わず、VRコンテンツの上下方向の切り出しは、ユーザーのボタン操作(スクロールさせる操作を伴わない操作)により実行される。 The user operates the cutout determination (completion) button 611 to set the cutout area 607 surrounded by the cutout area frame 606 as the cutout area. By operating the button for selecting the zenith cutout button 612, an area of 180° around the zenith direction (upward direction of VR content) is set as a cutout area. By operating the button to select the nadir cutout button 613, an area of 180° centering around the nadir direction (downward direction of VR content) is set as a cutout area. The CPU 101 can generate the edited VR content having an effective video range narrower than the effective video range before the cutout based on the set cutout area. As described above, the CPU 101 does not scroll the VR content in the vertical direction, and cuts out the VR content in the vertical direction by a button operation (operation without scrolling operation) by the user.

S305では、CPU101は、ディスプレイ105にフラット表示されたVR画像の表示領域のうち、切り出し領域607の内側の中央領域に対してタッチダウンが検出されたか否かを判定する。切り出し領域607の内側の中央領域は、切り出し領域607の左右境界である切り出し領域枠606の左右部分より所定幅以上内側の領域である。中央領域へのタッチダウンが検出された場合はS306に進み、中央領域へのタッチダウンが検出されなかった場合はS307に進む。 In step S<b>305, the CPU 101 determines whether touchdown has been detected in the central area inside the cutout area 607 in the display area of the VR image displayed flat on the display 105. The central region inside the cutout region 607 is a region inside the left and right portions of the cutout region frame 606, which are the left and right boundaries of the cutout region 607, by a predetermined width or more. When the touchdown to the central area is detected, the process proceeds to S306, and when the touchdown to the central area is not detected, the process proceeds to S307.

S306では、CPU101は、切り出し方向設定処理を実行する。なお、切り出し方向(切り出される画像の範囲)は、図6(c)に示す切り出し領域枠606で囲まれた領域に基づいて設定される。切り出される領域の有効映像範囲は、第2の有効映像範囲の一例である。CPU101は、少なくとも図6(c)に示す切り出し領域枠606で囲まれた領域の中央と、実際に切り出される有効映像範囲(第2の有効映像範囲)の中央とを、一致またはほぼ一致するように制御する。ただし、フラット表示に重畳して示す切り出し領域枠606は、半球の切出し境界を正確に表現したものではないので、切り出し領域枠606で示した範囲と、実際に切り出される有効映像範囲(第2の有効映像範囲)とは、完全には一致しない。例えば、切り出し領域枠606で囲まれた領域の範囲を、実際に切り出される有効映像範囲(180°)より大きくしてもよい。切り出し方向設定処理については、図4を用いて後述する。 In S306, the CPU 101 executes cutout direction setting processing. The clipping direction (range of image to be clipped) is set based on the area surrounded by the clipping area frame 606 shown in FIG. 6C. The effective video range of the clipped area is an example of the second effective video range. The CPU 101 at least matches the center of the area surrounded by the cutout area frame 606 shown in FIG. 6C with the center of the actually cut effective image range (second effective image range). To control. However, since the cutout area frame 606 shown by being superimposed on the flat display does not accurately represent the cutout boundary of the hemisphere, the range shown by the cutout area frame 606 and the effective image area actually cut out (second The effective video range) does not completely match. For example, the range of the area surrounded by the cutout area frame 606 may be made larger than the actually cut out effective image range (180°). The cutout direction setting process will be described later with reference to FIG.

S307では、CPU101は、VR端領域確認処理を実行する。VR端領域確認処理については、図5を用いて後述する。 In S307, the CPU 101 executes VR edge area confirmation processing. The VR end area confirmation processing will be described later with reference to FIG.

S308では、CPU101は、切り出し決定ボタン611に対するタッチ操作があったか否か、すなわち切り出し指示があったか否かを判定する。切り出し指示があった場合はS309に進み、切り出し指示がなかった場合は処理を終了させる。 In S308, the CPU 101 determines whether or not a touch operation has been performed on the cutout determination button 611, that is, whether or not there is a cutout instruction. If there is a cutout instruction, the process proceeds to S309, and if there is no cutout instruction, the process ends.

S309では、CPU101は、S306で設定された切り出し方向に180°の範囲で画像を切り出し、VR180°フォーマットで切り出した画像を記録媒体108に保存する。すなわち、切出し済みのVR画像を記録媒体108に記録する。 In step S309, the CPU 101 clips an image in the range of 180° in the clipping direction set in step S306, and saves the image clipped in the VR 180° format in the recording medium 108. That is, the cut-out VR image is recorded on the recording medium 108.

S309で記録する切出し済みのVR画像(VRビューでの表示が可能な画像ファイル)について説明する。切出し済みのVR画像が静止画であれば、切出範囲内の画像を正距円筒図法で矩形内に変形して収めた画像がマルチピクチャーフォーマットで1ファイル内に複数枚格納されたファイルを生成して記録する。切出し前の360度のVR画像(元画像)を、VRビューではなく通常の平面画像として表示した場合には、図10(a)のよ
うな長方形内に正距円筒図法で描画された画像となる。S301ではこのように表示される。この元画像から図4で説明する処理によって180度の範囲が切出されると、VRビューではなく通常の平面画像として表示した場合に図10(b)に示すようにほぼ正方形内に正距円筒図法で描画された画像が記録される。この際、切出範囲内の画像をコピーした同一の画像を、視差が無いにせよ、右目用画像、左目用画像としてそれぞれ同一ファイル内に記録する。なお、疑似的に視差を有するように(すなわち左目用画像と右目用画像の範囲がやや異なるように)、切出し前の1つの360度のVR画像から2つの180度の範囲を切出して生成してもよい。切出し済みの静止画のVR画像のファイル名は例えば“123456.vr.jpg”となり、拡張子“.jpg”の手前に3文字の文字列“.vr”が記述される。このように静止画ファイルとして保存された画像をVRビューで再生表示すると、図10(b)の画像が半球にマッピングされて表示される。切出し済みの静止画のVR画像ファイルを、2眼VRビューで再生して表示した例(VRゴーグルに装着していない状態のディスプレイ105における表示例)を図10(d)に示す。
The cut-out VR image (image file that can be displayed in VR view) recorded in S309 will be described. If the VR image that has been cut out is a still image, the image that is obtained by transforming the image within the cutout range into a rectangle by the equirectangular cylindrical projection and storing it is generated in multiple files in one file in the multi-picture format. And record. When a VR image (original image) of 360 degrees before being cut out is displayed as a normal plane image instead of a VR view, an image drawn by the equirectangular projection in a rectangle as shown in FIG. Become. This is displayed in S301. When a range of 180 degrees is cut out from the original image by the process described in FIG. 4, when the normal image is displayed instead of the VR view, as shown in FIG. The image drawn by the projection method is recorded. At this time, the same image obtained by copying the image within the cutout range is recorded in the same file as a right-eye image and a left-eye image, respectively, even if there is no parallax. Note that two 180-degree ranges are cut out from one 360-degree VR image before cut-out so as to have a pseudo parallax (that is, the range between the left-eye image and the right-eye image is slightly different). May be. The file name of the VR image of the clipped still image is, for example, “123456.vr.jpg”, and the three-character character string “.vr” is described before the extension “.jpg”. When the image thus saved as a still image file is reproduced and displayed in the VR view, the image in FIG. 10B is displayed in a hemisphere-mapped state. FIG. 10D shows an example in which a VR image file of a cut-out still image is reproduced and displayed in the twin-lens VR view (display example on the display 105 in a state where the VR goggle is not attached).

切出し済みのVR画像が動画であれば、切出範囲内の画像を正距円筒図法ではなく円または楕円内にマッピングした映像(動画)が1つの動画の映像内の左右に(サイドバイサイドで)並べられた動画ファイルを生成して記録する。この際、切出範囲内の画像をコピーした同一の画像を、視差が無いにせよ、右目用画像、左目用画像としてそれぞれ左右に並べて記録する。このような動画をVRビューではなく通常の平面画像として表示すると図10(c)のように表示される。なお、疑似的に視差を有するように(すなわち左目用画像と右目用画像の範囲がやや異なるように)、切出し前の1つの360度のVR画像から2つの180度の範囲を切出して生成してもよい。切出し済みの動画のVR画像のファイル名は例えば“123456.vr.mp4”となり、拡張子“.mp4”の手前に3文字の文字列“.vr”が記述される。切出し済みの動画のVR画像ファイルを、2眼VRビューで再生して表示した場合のあるフレームの表示例(VRゴーグルに装着していない状態のディスプレイ105における表示例)は図10(d)に示した例と同様である。 If the cut-out VR image is a moving image, the images (moving images) in which the images in the cutting range are mapped in a circle or an ellipse instead of the equirectangular projection are arranged side by side (side-by-side) in the image of one moving image. Generate and record the created video file. At this time, the same image obtained by copying the image within the cutout range is recorded side by side as a right-eye image and a left-eye image, respectively, even if there is no parallax. When such a moving image is displayed as a normal plane image instead of the VR view, it is displayed as shown in FIG. Note that two 180-degree ranges are cut out from one 360-degree VR image before cut-out so as to have a pseudo parallax (that is, the range between the left-eye image and the right-eye image is slightly different). May be. The file name of the VR image of the cut-out moving image is, for example, “123456.vr.mp4”, and the character string “.vr” of three characters is described before the extension “.mp4”. FIG. 10D shows a display example of a frame (display example in the display 105 in a state where the VR goggle is not attached) when the VR image file of the cut-out moving image is reproduced and displayed in the twin-lens VR view. It is similar to the example shown.

図4は、図3におけるS306の切り出し方向設定処理の一例を示すフローチャートである。切り出し方向設定処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することで実現される。 FIG. 4 is a flowchart showing an example of the cutout direction setting process of S306 in FIG. The cutout direction setting process is realized by the CPU 101 expanding the program stored in the non-volatile memory 103 into the memory 102 and executing the program.

S401では、CPU101は、タッチパネル106aに対して右スクロールの入力が行われたか否かを判定する。右スクロールの入力は、画像を右側にスクロールさせる操作であり、右方向へのスクロール指示に相当する。右スクロールの入力は、例えば右へ移動するタッチムーブや、スクロールバー(不図示)を左側へスライドさせる操作である。右スクロールの入力が行われた場合はS402に進み、右スクロールの入力が行われなかった場合はS404に進む。 In S401, the CPU 101 determines whether a right scroll input has been performed on the touch panel 106a. The input of right scroll is an operation of scrolling an image to the right, and corresponds to a scroll instruction in the right direction. The input of right scroll is, for example, a touch move for moving to the right or an operation for sliding a scroll bar (not shown) to the left. If the right scroll input has been performed, the process proceeds to S402, and if the right scroll input has not been performed, the process proceeds to S404.

S402では、CPU101は、ユーザーから右スクロールの入力を受付けると、右方向に画像をスクロール(スライド)する。CPU101は、ディスプレイ105右方向へのスクロール量分の画像領域を、ディスプレイ105の左端から右方向に向かって、スクロールに応じて順次表示させる。なお、切り出し領域枠606の画面上の位置は固定であり、スクロールの入力があってもスクロールしない。 In S402, when the CPU 101 receives a right scroll input from the user, the CPU 101 scrolls (slides) the image to the right. The CPU 101 sequentially displays the image area corresponding to the scroll amount in the right direction of the display 105 from the left end of the display 105 toward the right direction in accordance with the scroll. Note that the position of the cutout area frame 606 on the screen is fixed and does not scroll even if a scroll input is made.

S403では、CPU101は、スクロール量分の右側の画像領域を除く左方向側の領域をスクロール量分、右方向に移動させて表示させる。すなわち、CPU101は、ディスプレイ105の矩形領域にフラット表示されたVRコンテンツを右方向にスクロールさせる。また、CPU101は、当該スクロールに応じて、VRコンテンツのうち右方向へのスクロール量分の画像領域を、矩形領域のうち右方向とは反対方向の左方向の端から右方向に向かって順次表示させる。 In S403, the CPU 101 moves the area on the left side excluding the image area on the right side by the scroll amount to the right by the scroll amount and displays it. That is, the CPU 101 scrolls the VR content displayed flat in the rectangular area of the display 105 in the right direction. Further, in response to the scroll, the CPU 101 sequentially displays image areas corresponding to the right scroll amount of the VR content from the left end of the rectangular area opposite to the right direction to the right direction. Let

図7(a)〜図7(e)に、S402,S403で行われるスクロールによる表示例を示す。図7(b)の右スクロール701は、図7(a)に対して右方向のスクロール入力を表している。右スクロール701が入力されると図4のS402、S403の処理が実行される。例えば、S401において、ユーザーが、ディスプレイ105の右端側に、スクロール量D1だけスクロールしたものと想定する。S402において、CPU101は、点線で囲まれたスクロール量分(D1)の画像領域7011を、ディスプレイ105の左端から右方向に向かって、順次表示する。次に、S403において、CPU101は、スクロール量分(D1)の画像領域7011を除く一点鎖線で囲まれた左側の領域7012を、スクロール量分(D1)右方向に移動させて表示させる。これらの処理が実行されると、ディスプレイ105は、図7(c)のような表示になる。 7A to 7E show display examples by the scroll performed in S402 and S403. The right scroll 701 in FIG. 7B represents scroll input in the right direction with respect to FIG. 7A. When the right scroll 701 is input, the processes of S402 and S403 of FIG. 4 are executed. For example, in S401, it is assumed that the user has scrolled to the right end side of the display 105 by the scroll amount D1. In S402, the CPU 101 sequentially displays the image area 7011 for the scroll amount (D1) surrounded by the dotted line from the left end of the display 105 toward the right. Next, in step S403, the CPU 101 moves the left area 7012 surrounded by the alternate long and short dash line excluding the image area 7011 corresponding to the scroll amount (D1) to the right by the scroll amount (D1) to be displayed. When these processes are executed, the display 105 has a display as shown in FIG.

図7(d)の右スクロール703は、図7(c)に対して右方向のスクロール入力を表している。右スクロール703が入力されると、右スクロール701を入力した場合と同様に、図4のS402、S403の処理が実行されて図7(e)の表示になる。 The right scroll 703 in FIG. 7D represents scroll input in the right direction with respect to FIG. 7C. When the right scroll 703 is input, as in the case of inputting the right scroll 701, the processes of S402 and S403 of FIG. 4 are executed and the display of FIG.

このように、S402,S403で行われるスクロールは、画像を右にスクロールすれば、右側の表示領域外までスクロールされて消失した部分が、表示領域の左端から右に向かって次々と進入してくるように表示される。そして、右スクロールの入力を繰り返せば突き当たることなく無限にスクロールさせることができる。すなわちVR画像601の左右の端部といった境目を意識させない、同一コンテンツの循環的スクロール表示である。このようにすることで、図6(a)の表示例では表示領域の端部に位置していた部分を、切り出し領域枠606の中央に位置させることができる。そして、その位置を中心とした180度(その位置を中心とした周囲90度の範囲)の切れ目の無い領域を切出し後のVR画像とするように指示することが可能となる。なお、循環的スクロール表示は、VR画像の任意の方位を中央に指定することができればよいので、無限に循環できる必要はなく、少なくとも1回循環できればよい。 As described above, in the scrolling performed in S402 and S403, if the image is scrolled to the right, the part which is scrolled out of the right display area and disappears successively enters from the left end of the display area toward the right. Is displayed. Then, by repeating the right scroll input, it is possible to endlessly scroll without hitting. That is, it is a circular scroll display of the same content without making the boundaries such as the left and right ends of the VR image 601 conscious. By doing so, the portion located at the end of the display area in the display example of FIG. 6A can be located at the center of the cutout area frame 606. Then, it is possible to instruct to make a 180-degree centered area around that position (a range of 90-degree circumference around that position) with no breaks as the VR image after being cut out. It should be noted that the circular scroll display need only be capable of designating an arbitrary azimuth of the VR image at the center, and therefore need not be infinitely circulable, but may be circulated at least once.

S404では、CPU101は、タッチパネル106aに対して、右方向とは反対側への左スクロールの入力が行われたか否かを判定する。左スクロールの入力は、画像を左側にスクロールさせる操作であり、左方向へのスクロール指示に相当する。左スクロールの入力は、例えば左へ移動するタッチムーブや、スクロールバー(不図示)を右側へスライドさせる操作である。左スクロールの入力が行われた場合はS405に進み、右スクロールの入力が行われなかった場合はS407に進む。 In S404, the CPU 101 determines whether or not a left scroll input is made to the touch panel 106a on the side opposite to the right direction. The input of the left scroll is an operation of scrolling the image to the left, and corresponds to a scroll instruction in the left direction. The input of the left scroll is, for example, a touch move for moving to the left or an operation for sliding a scroll bar (not shown) to the right. When the input of the left scroll is performed, the process proceeds to S405, and when the input of the right scroll is not performed, the process proceeds to S407.

S405では、CPU101は、ユーザーから左スクロールの入力を受付けると、左方向に画像をスクロール(スライド)する。CPU101は、ディスプレイ105左方向へのスクロール量分の画像領域を、ディスプレイ105の右端から左方向に向かって、スクロールに応じて順次表示させる。なお、切り出し領域枠606の画面上の位置は固定であり、スクロールの入力があってもスクロールしない。 In step S405, when the CPU 101 receives a left scroll input from the user, the CPU 101 scrolls (slides) the image to the left. The CPU 101 sequentially displays the image area corresponding to the scroll amount to the left of the display 105 from the right end of the display 105 toward the left in accordance with the scroll. Note that the position of the cutout area frame 606 on the screen is fixed and does not scroll even if a scroll input is made.

S406では、CPU101は、スクロール量分の左側の画像領域を除く右方向側の領域をスクロール量分、左方向に移動させて表示させる。すなわち、CPU101は、ディスプレイ105の矩形領域にフラット表示されたVRコンテンツを左方向にスクロールさせる。また、CPU101は、当該スクロールに応じて、VRコンテンツのうち左方向へのスクロール量分の画像領域を、矩形領域のうち左方向とは反対方向の右方向の端から右方向に向かって順次表示させる。 In step S<b>406, the CPU 101 moves the area on the right side excluding the image area on the left for the scroll amount to the left by the scroll amount and displays it. That is, the CPU 101 scrolls the VR content displayed flat in the rectangular area of the display 105 in the left direction. Further, in response to the scroll, the CPU 101 sequentially displays image areas corresponding to the leftward scroll amount of the VR content from the right end of the rectangular area opposite to the left direction to the right direction. Let

図8(a)〜図8(e)に、S402,S403で行われるスクロールによる表示例を示す。図8(b)の左スクロール801は、図8(a)に対して左方向のスクロール入力
を表している。左スクロール801が入力されると図4のS405、S406の処理が実行される。例えば、S404において、ユーザーが、図7(b)とは反対にディスプレイ105の左端側に、スクロール量D2だけスクロールしたものと想定する。S405において、CPU101は、点線で囲まれたスクロール量分(D2)の画像領域8011を、ディスプレイ105の右端から左方向に向かって、順次表示する。次に、S406において、CPU101は、スクロール量分(D2)の画像領域8011を除く一点鎖線で囲まれた左側の領域8012を、スクロール量分(D2)左方向に移動させて表示させる。これらの処理が実行されると、ディスプレイ105は、図8(c)のような表示になる。
FIGS. 8A to 8E show display examples by scrolling performed in S402 and S403. The left scroll 801 in FIG. 8B represents scroll input in the left direction with respect to FIG. 8A. When the left scroll 801 is input, the processes of S405 and S406 of FIG. 4 are executed. For example, in S404, it is assumed that the user has scrolled to the left end side of the display 105 by the scroll amount D2, as opposed to FIG. 7B. In step S405, the CPU 101 sequentially displays the image area 8011 of the scroll amount (D2) surrounded by the dotted line from the right end of the display 105 toward the left. Next, in S406, the CPU 101 moves the left area 8012 surrounded by the alternate long and short dash line excluding the image area 8011 corresponding to the scroll amount (D2) to the left by the scroll amount (D2) to be displayed. When these processes are executed, the display 105 has a display as shown in FIG.

図8(d)の左スクロール803は、図8(c)に対して左方向のスクロール入力を表している。左スクロール803が入力されると、左スクロール801を入力した場合と同様に、図4のS405、S406の処理が実行されて図8(e)の表示になる。 The left scroll 803 in FIG. 8D represents scroll input in the left direction with respect to FIG. 8C. When the left scroll 803 is input, as in the case where the left scroll 801 is input, the processes of S405 and S406 of FIG. 4 are executed and the display of FIG.

このように、S404,S405で行われるスクロールは、画像を左にスクロールすれば、左側の表示領域外までスクロールされて消失した部分が、表示領域の右端から左に向かって次々と進入してくるように表示される。そして、左スクロールの入力を繰り返せば突き当たることなく無限にスクロールさせることができる。すなわちVR画像601の左右の端部といった境目を意識させない、同一コンテンツの循環的スクロール表示である。このようにすることで、図6(a)の表示例では表示領域の端部に位置していた部分を、切り出し領域枠606の中央に位置させることができる。そして、その位置を中心とした180度(その位置を中心とした周囲90度の範囲)の切れ目の無い領域を切出し後のVR画像とするように指示することが可能となる。 As described above, in the scroll performed in S404 and S405, if the image is scrolled to the left, the part that is scrolled to the outside of the left display area and disappears successively enters from the right end of the display area to the left. Is displayed. Then, if the input of the left scroll is repeated, it is possible to endlessly scroll without hitting. That is, it is a circular scroll display of the same content without making the boundaries such as the left and right ends of the VR image 601 conscious. By doing so, the portion located at the end of the display area in the display example of FIG. 6A can be located at the center of the cutout area frame 606. Then, it is possible to instruct to make a 180-degree centered area around that position (a range of 90-degree circumference around that position) with no breaks as the VR image after being cut out.

S407では、CPU101は、リセットボタン610に対するタッチ操作があったか否か、すなわち、切り出し方向のリセット指示の操作を受付けたか否かを判定する。リセット指示が行われた場合にはS408に進み、リセット指示が行われていなかった場合にはS409に進む。リセットされた切り出し方向位置とは、図3のS304の処理時に設定されている切り出し方向の設定である。S408では、CPU101は、切り出し方向を初期位置に設定する。 In step S407, the CPU 101 determines whether or not a touch operation has been performed on the reset button 610, that is, whether or not an operation for resetting the cutout direction has been received. If the reset instruction has been issued, the operation proceeds to S408, and if the reset instruction has not been issued, the operation proceeds to S409. The reset cutting-out direction position is the setting of the cutting-out direction set at the time of the process of S304 of FIG. In S408, the CPU 101 sets the cutout direction to the initial position.

S409では、CPU101は、切り出し決定ボタン611に対するタッチ操作があったか否か、すなわち切り出し方向の決定指示の操作を受付けたか否かを判定する。切り出し方向の決定指示が行われた場合には、処理を終了し、切り出し方向の決定指示が行われていない場合はS401に進む。S409でYesと判定された場合は、S308でもYesと判定されるものとする。すなわち、本実施形態においては切り出し方向の決定指示と切り出し指示は同じ指示である。ただし、切り出し方向の決定指示と切り出し指示を別の操作によって行うものとしてもよい。例えば、切り出し方向の決定指示があったことに応じて切り出し後のVR画像の範囲を示すプレビュー表示を行い、その後、切り出し指示が行われたことによって切り出し済みのVR画像の画像ファイルを生成するようにしても良い。 In step S<b>409, the CPU 101 determines whether or not the cutout determination button 611 has been touched, that is, whether or not a cutout direction determination instruction operation has been received. If the cutout direction determination instruction has been issued, the process ends, and if the cutout direction determination instruction has not been issued, the process proceeds to S401. If Yes is determined in S409, Yes is also determined in S308. That is, in the present embodiment, the cutout direction determination instruction and the cutout instruction are the same instruction. However, the cutout direction determination instruction and the cutout instruction may be performed by different operations. For example, a preview display showing the range of the VR image after clipping is performed in response to the instruction to determine the clipping direction, and then an image file of the VR image that has already been clipped is generated by the clipping instruction. You can

なお、S401〜S406で説明した左右方向へのスクロールによって、切り出し前のVR画像のうち、切り出し後のVR画像の範囲の方位を指定することができる。切り出し後のVR画像の仰俯角は、天頂から天底までの、水平方向(天頂から90度の方向。天頂補正後であれば補正後の天頂から90度の方向)を中心とした仰俯角180度の範囲に固定される。このようにすることで、切り出し範囲の指定の煩雑さを防ぐことができる。また、切り出し後のVR画像は視聴するユーザーから見て正面(水平方向)を中心とした180度とすることができ、天頂を超えた背後側の範囲や、天底を超えた背後側の範囲を含まないようにすることができる。これによってVRビューで視聴した際にのけぞって背後を見たりするような無理な姿勢での視聴を防止することができる。 Note that, by scrolling in the left-right direction described in S401 to S406, it is possible to specify the azimuth in the range of the VR image after clipping, out of the VR image before clipping. The elevation angle of the VR image after the clipping is 180 degrees from the zenith to the nadir, centering around the horizontal direction (direction of 90 degrees from the zenith, or 90 degrees from the zenith after correction if the zenith correction is performed). Fixed to a range of degrees. By doing this, it is possible to prevent the complexity of specifying the cutout range. In addition, the VR image after clipping can be set to 180 degrees centering on the front (horizontal direction) as viewed from the viewer, and the range behind the zenith and the range behind the nadir. Can be excluded. As a result, it is possible to prevent viewing in an unreasonable posture in which the user looks backward while looking at the VR view.

なお、天頂切り出しボタン612がタッチされた場合は、切り出し範囲は、切り出し領域枠606が示す範囲(ユーザーが指定した方位)にかかわらず、天頂(天頂補正していれば補正後の天頂)を中心として全方位に90度の範囲とする。これは、仮想球体を上下に等分した場合の上側の半球範囲である。また、天底切り出しボタン613がタッチされた場合は、切り出し範囲は、切り出し領域枠606が示す範囲(ユーザーが指定した方位)にかかわらず、天底(天頂補正していれば補正後の天底)を中心として全方位に90度の範囲とする。これは、仮想球体を上下に等分した場合の下側の半球範囲である。天頂切り出しボタン612、天底切り出しボタン613がタッチされた場合は、切り出し指示もあったものとみなし、図3のS309の切り出し済みのVR画像のファイル生成まで行われる。このようにすることで、切り出し前の仮想球体が斜めに切られた半球が生成されるような不自然な切り出しを防止することができる。すなわち、水平線より上側の空全体を見渡せる切り出し後のVR画像や、天井から見た室内全体、テーブルの上から見たテーブル上の料理全体を見渡せる切り出し後のVR画像を容易に生成することができる。 When the zenith cutout button 612 is touched, the cutout range is centered on the zenith (the zenith after correction if the zenith correction is performed) regardless of the range (direction specified by the user) indicated by the cutout region frame 606. The range is 90 degrees in all directions. This is the upper hemisphere range when the virtual sphere is equally divided vertically. When the zenith cutout button 613 is touched, the cutout range is the zenith (the zenith after correction if the zenith correction is performed, regardless of the range indicated by the cutout area frame 606 (the direction specified by the user). ) Is the center and the range is 90 degrees in all directions. This is the lower hemisphere range when the virtual sphere is equally divided vertically. When the zenith cutout button 612 and the nadir cutout button 613 are touched, it is considered that the cutout instruction has been given, and the file generation of the cutout VR image in S309 of FIG. 3 is performed. By doing so, it is possible to prevent unnatural cutting such that a hemisphere in which the virtual sphere before cutting is diagonally cut is generated. That is, it is possible to easily generate a cut-out VR image that can see the entire sky above the horizon, and a cut-out VR image that can see the entire room viewed from the ceiling and the entire dish on the table viewed from the table. ..

図5は、図3におけるS307のVR端領域確認処理の一例を示すフローチャートである。VR端領域確認処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することで実現される。VR端領域確認処理は、切り出される領域の境界および境界を含む領域をVR表示することにより、切り出されるVR画像の端領域を、ユーザーが確認できるようにする処理である。 FIG. 5 is a flowchart showing an example of the VR edge region confirmation processing of S307 in FIG. The VR end area confirmation processing is realized by the CPU 101 expanding the program stored in the non-volatile memory 103 into the memory 102 and executing the program. The VR edge region confirmation process is a process that allows the user to confirm the edge region of the VR image to be clipped by displaying the boundary of the clipped region and a region including the border in VR.

S501では、CPU101は、切り出し範囲の端部の確認指示として、表示されたVR画像の表示領域のうち、前述の中央領域ではなく、切り出し領域607の左右の端領域をタッチされたか否かを判定する。左右の端領域とは、切り出し領域607の左右境界である切り出し領域枠606の左辺を含む左辺より所定幅以内の領域(左端領域)、及び、切り出し領域枠606の右辺を含む→辺より所定幅以内の領域(右端領域)である。左右の端領域をタッチされた場合はS502に進み、端領域をタッチされていない場合は、処理は終了する。切り出し範囲の端部の確認指示はこれに限るものではない。例えば、切り出し範囲の端部の確認指示のためのアイコンを表示し、このアイコンがタッチされたことを切り出し範囲の端部の確認指示としてもよい。また、表示されたVR画像の表示領域のうち、切り出し領域枠606の左辺より左側、あるいは切り出し領域枠606の右辺より右側がタッチされたことを切り出し範囲の端部の確認指示としてもよい。 In step S501, the CPU 101 determines whether or not the left and right end regions of the cutout region 607 are touched in the display region of the displayed VR image, not the above-described central region, as an instruction to confirm the end of the cutout range. To do. The left and right edge areas include an area within a predetermined width (left edge area) including the left side of the cutout area frame 606, which is the left and right boundary of the cutout area 607, and the right side of the cutout area frame 606 → a predetermined width from the side. It is an area within (right end area). If the left and right edge areas have been touched, the process proceeds to S502, and if the edge areas have not been touched, the processing ends. The instruction to confirm the end of the cutout range is not limited to this. For example, an icon for instructing confirmation of the end of the cutout range may be displayed, and touching of this icon may be an instruction for confirmation of the end of the cutout range. Further, in the display area of the displayed VR image, the left side of the left side of the cutout area frame 606 or the right side of the right side of the cutout area frame 606 may be touched to confirm the end of the cutout range.

S502では、CPU101は、S301で取得したVR画像を読み込む。また、VR画像の属性情報として付帯する映像範囲(有効映像範囲)を示す情報を取得する。有効映像範囲を示す情報とは、VR画像が、上下方向、左右方向にどの角度範囲分の有効な映像を有しているかという情報である。有効映像範囲を示す情報は、VR画像の有効映像範囲を特定出来る情報であればよく、画角、視野角、方位角、仰角、左右の画素数や座標などの位置情報であってもよい。また、有効映像範囲を示す情報は、VR画像を撮像したカメラの機種情報(機種を特定することで撮影可能な範囲を特定可能)や撮影時のズームの情報等でもよい。 In S502, the CPU 101 reads the VR image acquired in S301. Further, the information indicating the video range (effective video range) attached as the attribute information of the VR image is acquired. The information indicating the effective image range is information indicating which angle range of the effective image the VR image has in the vertical direction and the horizontal direction. The information indicating the effective video range may be information that can specify the effective video range of the VR image, and may be position information such as an angle of view, a viewing angle, an azimuth angle, an elevation angle, the number of left and right pixels, and coordinates. Further, the information indicating the effective video range may be model information of the camera that captured the VR image (the range that can be photographed can be specified by specifying the model), zoom information at the time of photographing, or the like.

CPU101は、有効映像範囲を示す情報を取得すると、上下左右360度との差分で無効映像範囲(非映像範囲)も特定(算出)する。なお、逆に、VR画像の属性情報から無効映像範囲を示す情報を取得し、そこから有効映像範囲を算出してもよいし、有効映像範囲を示す情報と無効映像範囲を示す情報の双方をVR画像の属性情報から取得してもよい。 When the CPU 101 acquires the information indicating the effective video range, the CPU 101 also specifies (calculates) the invalid video range (non-video range) based on the difference between the upper, lower, left and right 360 degrees. On the contrary, the information indicating the invalid video range may be acquired from the attribute information of the VR image, and the valid video range may be calculated from the information, or both the information indicating the valid video range and the information indicating the invalid video range may be obtained. It may be acquired from the attribute information of the VR image.

S503では、CPU101は、前述の右端領域がタッチされたか否かを判定する。右端領域がタッチされた場合はS504に進み、右端領域がタッチされていない場合はS5
05に進む。
In S503, the CPU 101 determines whether or not the right end area is touched. If the right edge area is touched, the process proceeds to S504, and if the right edge area is not touched, S5.
Go to 05.

S504では、CPU101は、VR画像のうち切り出し領域枠606の範囲内となっている表示範囲に基づき、S502で取得したVR画像の右端領域の表示処理を行う。VR画像の元データ(元画像)は、例えば正距円筒図法を用いた歪んだ画像であり、各画素の位置が球体の表面の座標と対応づけることが可能な形式の画像である。このVR画像の元画像を球体にマッピングし、一部を切り出して表示する。すなわち、S504で表示される画像はVR画像の一部を切り出して拡大した画像であり、かつ、元画像の歪みを除去(あるいは低減)した画像である。この場合、CPU101は、表示するVR画像を、切り出し領域枠606で囲まれた領域の中央線上を中心として左右に90°(計180°)の方位の範囲、及び、天頂から天底までの仰俯角の範囲を有効範囲とする。CPU101は、それ以外の範囲については、有効範囲外(無効範囲、切り出し範囲外となる除外範囲)と設定する。CPU101は、この有効範囲と無効範囲との境界線上を中心に右側端領域を表示することで、右側の有効範囲と無効範囲の境界線上の端の状況確認ができる。 In S504, the CPU 101 performs display processing of the right end area of the VR image acquired in S502 based on the display range within the cutout area frame 606 of the VR image. The original data (original image) of the VR image is a distorted image using, for example, the equirectangular projection, and is an image in a format in which the position of each pixel can be associated with the coordinates of the surface of the sphere. The original image of this VR image is mapped onto a sphere, and a part of it is cut out and displayed. That is, the image displayed in S504 is an image obtained by cutting out and enlarging a part of the VR image, and is an image in which the distortion of the original image is removed (or reduced). In this case, the CPU 101 displays the VR image to be displayed in the azimuth range of 90° (a total of 180°) to the left and right around the center line of the area surrounded by the cutout area frame 606, and the elevation from the zenith to the nadir. The range of depression angle is the effective range. The CPU 101 sets the other ranges as outside the valid range (invalid range, exclusion range outside the cutout range). The CPU 101 can confirm the situation of the end on the boundary line between the valid range and the invalid range on the right side by displaying the right end region centering on the boundary line between the valid range and the invalid range.

S505では、CPU101は、VR画像のうち切り出し領域枠606の範囲内となっている表示範囲に基づき、S502で取得したVR画像の左端領域の表示処理を行う。表示方法はS504と同じである。ここでは有効範囲と無効範囲の境界線上を中心に左端領域を表示することで、左側の有効範囲と無効範囲の境界線上の端の状況確認ができる。 In S505, the CPU 101 performs display processing of the left end area of the VR image acquired in S502 based on the display range within the cutout area frame 606 of the VR image. The display method is the same as S504. Here, by displaying the left end region centered on the boundary line between the effective range and the invalid range, it is possible to confirm the situation of the end on the boundary line between the effective range and the invalid range on the left side.

S506では、CPU101は、タッチパネル106aから通知された情報に基づいて、タッチムーブが検出されたか否かを判定する。タッチムーブが検出された場合はS507へ進み、タッチムーブが検出されていない場合はS508へ進む。 In S506, the CPU 101 determines whether a touch move has been detected, based on the information notified from the touch panel 106a. If the touch move is detected, the process proceeds to S507, and if the touch move is not detected, the process proceeds to S508.

S507では、CPU101は、タッチムーブによるスライド操作の方向(タッチムーブの方向)に応じて、VR画像の表示範囲を変更する。例えば、タッチムーブの方向が左方向と判定された場合にVR画像の表示範囲を左方向へタッチムーブされた量だけずらす(スライドする)ことで、ユーザーはVR画像自体を動かすような操作感で操作することが出来る。この時、切り出し範囲外となる領域のディスプレイ105における表示位置は固定である。したがって、タッチムーブによって、切り出し範囲外となる領域と、切り出し範囲内となる表示されている範囲との相対関係がずらされ、切り出し前のVR画像にたいする切り出し範囲(切り出し方向)が変更される。このようにして、切り出し範囲の境界を確認しながら、切り出し範囲内にどこまで収めるかを微調整して切り出し範囲を設定することができる。 In step S507, the CPU 101 changes the display range of the VR image according to the direction of the slide operation by the touch move (the direction of the touch move). For example, when it is determined that the touch move direction is the left direction, the display range of the VR image is shifted (slide) by the amount touch-moved to the left direction, so that the user can feel the operation of moving the VR image itself. It can be operated. At this time, the display position on the display 105 of the area outside the cutout range is fixed. Therefore, the touch move shifts the relative relationship between the region outside the cutout range and the displayed range inside the cutout range, and changes the cutout range (cutout direction) for the VR image before cutout. In this way, it is possible to set the cut-out range by finely adjusting how far the cut-out range is set, while checking the boundaries of the cut-out range.

S508では、CPU101は、タッチパネル106aに対して切り出し指示の操作があったか否かを判定する。切り出し指示があった場合はS509に進み、切り出し指示がなかった場合にはS510へ処理が進む。 In S508, the CPU 101 determines whether or not a cutout instruction operation has been performed on the touch panel 106a. If there is a cutout instruction, the process proceeds to S509, and if there is no cutout instruction, the process proceeds to S510.

S509では、CPU101は、S508で指定した切り出し方向に180°の範囲で画像を切り出して、VR180°フォーマットで画像を記録媒体108に保存する。生成される画像ファイルはS309で説明したものと同様である。 In step S<b>509, the CPU 101 cuts out an image in the range of 180° in the cutout direction specified in step S<b>508, and saves the image in the recording medium 108 in the VR 180° format. The generated image file is the same as that described in S309.

S510では、CPU101は、タッチパネル106aから通知された情報に基づいて、戻るボタンのタッチ操作により戻る指示が行われたか否かを判定する。戻る指示が行われた場合は、S511へ処理が進み、戻る指示が行われていない場合は、S506へ処理を戻す。 In S510, the CPU 101 determines, based on the information notified from the touch panel 106a, whether or not a return instruction has been issued by a touch operation of the return button. If the return instruction is issued, the process proceeds to S511, and if the return instruction is not issued, the process returns to S506.

S511では、CPU101は、S502で取得したVR画像を読みこみ、VR画像の属性情報として付帯する映像範囲(有効映像範囲)を示す情報を取得して、有効映像範囲
を矩形に収めるフラット表示でVR画像を表示する。S507で表示範囲を変更した場合、フラット表示する画像の中心位置は、変更後の表示範囲の中央の情報に基づいて設定される。表示後、VR端領域確認処理を終了する。
In step S511, the CPU 101 reads the VR image acquired in step S502, acquires information indicating a video range (effective video range) attached as attribute information of the VR image, and performs VR in a flat display in which the effective video range is contained in a rectangle. Display the image. When the display range is changed in S507, the center position of the flat-displayed image is set based on the information on the center of the changed display range. After the display, the VR end area confirmation processing ends.

図9を用いて、VR端領域確認処理の端確認表示について説明をする。この表示は、図5のS504及びS505で行われる表示である。 The edge confirmation display of the VR edge area confirmation processing will be described with reference to FIG. This display is the display performed in S504 and S505 of FIG.

図9(a)は、VR画像をVR表示した場合の右端側を表示した状態を示す図である。図9(a)は、例えば、図6(c)において、切り出し領域枠606の右側の枠の上または右側の非切り出し領域608をタッチすることで表示される。切り出し領域枠606の右側の枠の上または右側の非切り出し領域608をタッチすることは、ユーザーからの「確認指示」の一例である。確認指示は、切り出し領域枠606で囲まれた領域において確認対象となる境界または境界を含む領域を指定する操作である。右側有効範囲901及び無効範囲902がVR表示(VRビュー)で表示されている。VR表示(VRビュー)は、仮想球体にマッピングした表示形態であり、フラット表示からは変形された表示形態である。従って、フラット表示では歪曲していた部分が、歪曲が補正された形状で正確に確認することができる。無効範囲902は、黒色、白色、パターン表示などによりマスキングをして表示されてもよい。境界をほぼ中央に表示することで、VR画像の右側境界線がどのような状態になっているか確認が可能である。戻るボタン903、切り出しボタン904を無効範囲902上に配置することで、ユーザーは、右側有効範囲901及びVR画像の右側境界線を含む領域を確認し、境界を識別することが可能である。 FIG. 9A is a diagram showing a state in which the right end side is displayed when the VR image is VR-displayed. FIG. 9A is displayed, for example, by touching a non-cutout area 608 on the right side of the cutout area frame 606 in FIG. 6C or on the right side. Touching the non-cutout area 608 on the right side of the cutout area frame 606 or on the right side is an example of a “confirmation instruction” from the user. The confirmation instruction is an operation of designating a boundary to be confirmed or an area including the boundary in the area surrounded by the cutout area frame 606. The right side effective range 901 and the ineffective range 902 are displayed in VR display (VR view). The VR display (VR view) is a display form that is mapped to a virtual sphere, and is a display form that is modified from the flat display. Therefore, the distorted portion in the flat display can be accurately confirmed with the shape in which the distortion is corrected. The invalid area 902 may be masked and displayed in black, white, pattern display, or the like. By displaying the boundary almost at the center, it is possible to confirm what the right boundary line of the VR image is. By arranging the return button 903 and the cutout button 904 on the invalid area 902, the user can confirm the area including the right effective area 901 and the right boundary line of the VR image and identify the boundary.

図9(b)は、VR画像をVR表示した場合の左端側を表示した状態を示す図である。図9(b)は、例えば、図6(c)において、切り出し領域枠606の左側の枠の上または左側の非切り出し領域608をタッチすること(確認指示)で表示される。左側有効範囲905及び無効範囲906がVR表示で表示されている。無効範囲906は、黒色、白色、パターン表示などによりマスキングをして表示されてもよい。境界をほぼ中央に表示することで、VR画像の左側境界線がどのような状態になっているか確認が可能である。図9(a)と同様に、戻るボタン903、切り出しボタン904を無効範囲906上に配置することで、ユーザーは、左側有効範囲905及びVR画像の左側境界線を含む領域を確認し、境界を識別することが可能である。 FIG. 9B is a diagram showing a state in which the left end side is displayed when the VR image is displayed in VR. FIG. 9B is displayed, for example, by touching (confirmation instruction) the non-cutout area 608 on the left side or the left side of the cutout area frame 606 in FIG. 6C. The left effective range 905 and the invalid range 906 are displayed in VR display. The invalid area 906 may be masked and displayed in black, white, or pattern display. By displaying the boundary almost at the center, it is possible to confirm what the left boundary line of the VR image is. As in FIG. 9A, by placing the return button 903 and the cutout button 904 on the invalid range 906, the user confirms the left effective range 905 and the area including the left boundary line of the VR image, and sets the boundary. It is possible to identify.

ユーザーからの確認指示として、切り出し領域枠606の枠の上または非切り出し領域608をタッチする例を示したが、これに限られない。例えば、CPU101は、切り出し領域枠606の枠で囲まれた領域において確認対象となる境界を指定するためのアイコンをタッチパネル106aに表示してもよい。ユーザーは、アイコンをタッチすることで、図9(a)または図9(b)の画面により境界を含む領域を確認し、境界を識別することができる。図9(a)または図9(b)の画面は、ユーザーが境界の情報を確認し、境界を識別するために表示される仮情報である。 Although an example of touching the top of the frame of the cutout region frame 606 or the non-cutout region 608 is shown as the confirmation instruction from the user, the present invention is not limited thereto. For example, the CPU 101 may display an icon on the touch panel 106a for designating a boundary to be confirmed in the area surrounded by the cutout area frame 606. By touching the icon, the user can confirm the area including the boundary on the screen of FIG. 9A or 9B and identify the boundary. The screen of FIG. 9A or FIG. 9B is provisional information displayed for the user to confirm the boundary information and identify the boundary.

以上のように、上述の実施形態によればVR画像の180°切り出しをフラット表示から行う場合に、フラット表示上の画像端の方向を切り出し後の中央領域に設定することが出来る。 As described above, according to the above-described embodiment, when 180° cropping of the VR image is performed from the flat display, the direction of the image edge on the flat display can be set to the central region after the cropping.

さらに、VR画像が切り出し編集状態になっていない場合は、左右のスクロールは画像送りすることによって、ユーザーの操作性を向上させることも出来る。 Further, when the VR image is not in the cutout edit state, the user's operability can be improved by scrolling the left and right images by advancing the image.

なお、CPU101が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 The various controls described as being performed by the CPU 101 may be performed by one piece of hardware, or a plurality of pieces of hardware (for example, a plurality of processors or circuits) may share the processing to control the entire apparatus. You may go.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various embodiments within the scope not departing from the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an example of the present invention, and the embodiments may be combined as appropriate.

また、上述した実施形態においては、本発明をスマートフォンに適用した場合を例にして説明したが、これはこの例に限定されずVR画像を表示部に表示することができる装置であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、映像プレーヤーなどに適用可能である。また、本発明は、デジタルカメラ、テレビジョン装置、投影装置、タブレット端末、AIスピーカー、家電装置、車載装置、医療機器などにも適用可能である。
<その他の実施形態>
Further, in the above-described embodiment, the case where the present invention is applied to a smartphone has been described as an example, but the present invention is not limited to this example and can be applied to any device that can display a VR image on the display unit. Is. For example, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printer devices including displays, digital photo frames, music players, game machines, electronic book readers, video players, and the like. Further, the present invention can be applied to a digital camera, a television device, a projection device, a tablet terminal, an AI speaker, a home electric device, an in-vehicle device, a medical device and the like.
<Other embodiments>

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:表示制御装置 101:CPU 105:ディスプレイ 106:操作部
100: Display control device 101: CPU 105: Display 106: Operation unit

Claims (18)

第1の画面において、VRコンテンツの第1の映像範囲を矩形に収めるフラット表示を行い、第2の画面において、矩形領域にフラット表示された前記VRコンテンツ上に、前記VRコンテンツから切り出される領域を示すインジケータを表示するように制御する表示制御手段と、
ユーザーからの切り出し範囲の設定指示に応じて前記第1の画面から前記第2の画面に切り替える切替手段と、
前記第2の画面において、第1の操作に応じて、前記インジケータをスクロールさせることなく、フラット表示された前記VRコンテンツを第1の方向にスクロールさせるとともに、当該スクロールに応じて、前記VRコンテンツのうち前記第1の方向へのスクロール量分の画像領域を、前記矩形領域のうち前記第1の方向とは反対方向の第2の方向の端から前記第1の方向に向かって順次表示させる、同一コンテンツの循環的スクロール表示を行い、
前記第1の画面において、前記第1の操作があっても前記循環的スクロール表示は行わないように制御する制御手段と、
前記第2の画面において前記インジケータが示す領域に基づいて、前記VRコンテンツのうち前記第1の映像範囲よりも狭い第2の映像範囲を有する編集済VRコンテンツを生成する生成手段と、
を有することを特徴とする電子機器。
On the first screen, a flat display that fits the first video range of the VR content into a rectangle is performed, and on the second screen, an area cut out from the VR content is displayed on the VR content that is flatly displayed in the rectangular area. Display control means for controlling to display the indicating indicator,
Switching means for switching from the first screen to the second screen in response to a user's instruction to set the cutout range;
On the second screen, in response to the first operation, the flat-displayed VR content is scrolled in the first direction without scrolling the indicator, and the VR content is scrolled in response to the scroll. Image areas corresponding to the scroll amount in the first direction are sequentially displayed from the end of the rectangular area in the second direction opposite to the first direction toward the first direction. Circular scroll display of the same content
Control means for controlling so that the cyclic scroll display is not performed on the first screen even when the first operation is performed;
Generating means for generating an edited VR content having a second video range narrower than the first video range in the VR content based on the area indicated by the indicator on the second screen;
An electronic device comprising:
前記制御手段は、フラット表示した前記VRコンテンツにおいて前記インジケータが示す範囲の中央と、前記第2の映像範囲の中央とが、一致またはほぼ一致する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, wherein the control unit causes a center of a range indicated by the indicator and a center of the second video range in the VR content displayed in a flat display to match or substantially match each other. ..
前記インジケータは前記矩形領域よりも狭い範囲を示す
ことを特徴とする請求項1または2に記載の電子機器。
The electronic device according to claim 1, wherein the indicator indicates a range narrower than the rectangular area.
前記第1の方向は、前記VRコンテンツに対して右方向または左方向である
ことを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
The electronic device according to claim 1, wherein the first direction is a right direction or a left direction with respect to the VR content.
前記第2の画面における前記第1の方向への前記循環的スクロール表示に応じて、前記第1の映像範囲を仮想球体にマッピングした場合の前記第2の映像範囲の方位が変わる
ことを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
The orientation of the second video range when the first video range is mapped to a virtual sphere changes according to the circular scroll display in the first direction on the second screen. The electronic device according to any one of claims 1 to 4.
前記制御手段は、前記第2の画面において、前記第1の方向と垂直な第3の方向へのスクロールは行わない
ことを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 5, wherein the control unit does not scroll the second screen in a third direction perpendicular to the first direction. ..
前記第2の画面における前記VRコンテンツのスクロールに応じた、前記第1の映像範囲を仮想球体にマッピングした場合の前記第2の映像範囲の仰角または俯角の変更は行わない
ことを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
The elevation angle or the depression angle of the second image range is not changed when the first image range is mapped to a virtual sphere in accordance with the scrolling of the VR content on the second screen. Item 7. The electronic device according to any one of items 1 to 6.
前記第1の操作は、前記矩形領域にタッチして前記第1の方向にタッチ位置を移動するスライド操作である
ことを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。
8. The electronic device according to claim 1, wherein the first operation is a slide operation of touching the rectangular area and moving a touch position in the first direction.
前記制御手段は、前記ユーザーから前記設定指示を受け付けた際に、天頂補正をするか否かを前記ユーザーに確認する、
ことを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。
The control means, when receiving the setting instruction from the user, confirms with the user whether or not to perform zenith correction,
The electronic device according to any one of claims 1 to 8, wherein:
前記制御手段は、前記VRコンテンツの天頂を中心とした切り出しまたは天底を中心とした切り出しの指示を、スクロールさせる操作を伴わない操作により受け付ける
ことを特徴とする請求項1乃至9のいずれか1項に記載の電子機器。
10. The control unit receives an instruction for cutting out the VR content centering on the zenith or centering on the nadir, by an operation that does not involve a scrolling operation. The electronic device according to the item.
前記生成手段で生成した編集済VRコンテンツを格納したファイルを生成して記録する記録手段をさらに有することを特徴とする請求項1乃至10のいずれか1項に記載の電子機器。 11. The electronic device according to claim 1, further comprising a recording unit configured to generate and record a file storing the edited VR content generated by the generation unit. 前記記録手段は、前記第2の映像範囲に基づく複数の画像を格納した1つの静止画ファイルを生成することを特徴とする請求項11に記載の電子機器。 The electronic device according to claim 11, wherein the recording unit generates one still image file that stores a plurality of images based on the second video range. 前記静止画ファイルのファイル名では、拡張子の手前に文字列“.vr”が記述されることを特徴とする請求項12に記載の電子機器。 The electronic device according to claim 12, wherein a character string ".vr" is described before the extension in the file name of the still image file. 前記記録手段は、前記第2の映像範囲に基づく複数の動画を並べた1つの動画ファイルを生成することを特徴とする請求項11乃至13のいずれか1項に記載の電子機器。 14. The electronic device according to claim 11, wherein the recording unit generates one moving image file in which a plurality of moving images based on the second image range are arranged. 前記動画ファイルのファイル名では、拡張子の手前に文字列“.vr”が記述されることを特徴とする請求項14に記載の電子機器。 The electronic device according to claim 14, wherein a character string ".vr" is described before the extension in the file name of the moving image file. 第1の画面において、VRコンテンツの第1の映像範囲を矩形に収めるフラット表示を行い、第2の画面において、矩形領域にフラット表示された前記VRコンテンツ上に、前記VRコンテンツから切り出される領域を示すインジケータを表示するように制御する表示制御ステップと、
ユーザーからの切り出し範囲の設定指示に応じて前記第1の画面から前記第2の画面に切り替える切替ステップと、
前記第2の画面において、第1の操作に応じて、前記インジケータをスクロールさせることなく、フラット表示された前記VRコンテンツを第1の方向にスクロールさせるとともに、当該スクロールに応じて、前記VRコンテンツのうち前記第1の方向へのスクロール量分の画像領域を、前記矩形領域のうち前記第1の方向とは反対方向の第2の方向の端から前記第1の方向に向かって順次表示させる、同一コンテンツの循環的スクロール表示を行い、
前記第1の画面において、前記第1の操作があっても前記循環的スクロール表示は行わないように制御する制御ステップと、
前記第2の画面において前記インジケータが示す領域に基づいて、前記VRコンテンツのうち前記第1の映像範囲よりも狭い第2の映像範囲を有する編集済VRコンテンツを生成する生成ステップと、
を有することを特徴とする電子機器の制御方法。
On the first screen, a flat display that fits the first video range of the VR content into a rectangle is performed, and on the second screen, an area cut out from the VR content is displayed on the VR content that is flatly displayed in the rectangular area. A display control step of controlling to display the indicating indicator,
A switching step of switching from the first screen to the second screen in accordance with a cutout range setting instruction from a user;
On the second screen, in response to the first operation, the flat-displayed VR content is scrolled in the first direction without scrolling the indicator, and the VR content is scrolled in response to the scroll. Image areas corresponding to the scroll amount in the first direction are sequentially displayed from the end of the rectangular area in the second direction opposite to the first direction toward the first direction. Circular scroll display of the same content
On the first screen, a control step of controlling not to perform the cyclic scroll display even if the first operation is performed,
A generation step of generating an edited VR content having a second video range narrower than the first video range in the VR content based on the area indicated by the indicator on the second screen;
A method for controlling an electronic device, comprising:
コンピュータを、請求項1乃至15のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit of the electronic device according to any one of claims 1 to 15. コンピュータを、請求項1乃至15のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
A computer-readable storage medium that stores a program for causing a computer to function as each unit of the electronic device according to claim 1.
JP2018248299A 2018-12-28 2018-12-28 Electronic device and its control method Active JP7187307B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018248299A JP7187307B2 (en) 2018-12-28 2018-12-28 Electronic device and its control method
US16/725,963 US10937217B2 (en) 2018-12-28 2019-12-23 Electronic device and control method thereof for generating edited VR content
CN201911367630.1A CN111381750B (en) 2018-12-28 2019-12-26 Electronic device, control method thereof, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248299A JP7187307B2 (en) 2018-12-28 2018-12-28 Electronic device and its control method

Publications (2)

Publication Number Publication Date
JP2020108112A true JP2020108112A (en) 2020-07-09
JP7187307B2 JP7187307B2 (en) 2022-12-12

Family

ID=71450973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248299A Active JP7187307B2 (en) 2018-12-28 2018-12-28 Electronic device and its control method

Country Status (1)

Country Link
JP (1) JP7187307B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065372A1 (en) * 2020-09-24 2022-03-31 株式会社Jvcケンウッド Storage device, storage method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176560A (en) * 2014-03-18 2015-10-05 株式会社リコー information processing method, information processing apparatus, and program
US9934823B1 (en) * 2015-08-27 2018-04-03 Amazon Technologies, Inc. Direction indicators for panoramic images
US20180121069A1 (en) * 2016-10-28 2018-05-03 Adobe Systems Incorporated Facilitating editing of virtual-reality content using a virtual-reality headset

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176560A (en) * 2014-03-18 2015-10-05 株式会社リコー information processing method, information processing apparatus, and program
US9934823B1 (en) * 2015-08-27 2018-04-03 Amazon Technologies, Inc. Direction indicators for panoramic images
US20180121069A1 (en) * 2016-10-28 2018-05-03 Adobe Systems Incorporated Facilitating editing of virtual-reality content using a virtual-reality headset

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065372A1 (en) * 2020-09-24 2022-03-31 株式会社Jvcケンウッド Storage device, storage method, and program

Also Published As

Publication number Publication date
JP7187307B2 (en) 2022-12-12

Similar Documents

Publication Publication Date Title
JP7005161B2 (en) Electronic devices and their control methods
US11683464B2 (en) Electronic device, control method, and non-transitorycomputer readable medium
EP3591499B1 (en) Electronic device, control method for electronic device, program, and computer readable medium
KR102477993B1 (en) Display control apparatus, imaging apparatus, control method, and computer readable medium
US11706378B2 (en) Electronic device and method of controlling electronic device
JP2021174317A (en) Electronic apparatus and control method therefor
CN111381750B (en) Electronic device, control method thereof, and computer-readable storage medium
US20200035208A1 (en) Electronic device and control method thereof
JP7187307B2 (en) Electronic device and its control method
JP7005160B2 (en) Electronic devices and their control methods
JP2020129261A (en) Electronic device, control method of electronic device, program, and storage medium
JP7278773B2 (en) Electronic device and its control method
JP7313822B2 (en) Electronic device, its control method, program and storage medium
JP7214475B2 (en) Electronic device and its control method
JP7327938B2 (en) Electronic device and its control method, program and storage medium
JP7204482B2 (en) Electronic device and its control method
JP7278774B2 (en) Electronic device and its control method
JP7208002B2 (en) Electronic device and its control method
US20210289191A1 (en) Electronic apparatus, control method for electronic apparatus, and non-transitory computer-readable storage medium
JP2023125345A (en) Electronic apparatus, control method thereof, and program
JP2020205554A (en) Display control device, control method of the same, program, and storage medium
JP2019184689A (en) Electronic apparatus, method for controlling the same, program, and storage media
JP2020043387A (en) Image processing apparatus, image processing method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221130

R151 Written notification of patent or utility model registration

Ref document number: 7187307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151