JP7187307B2 - Electronic device and its control method - Google Patents

Electronic device and its control method Download PDF

Info

Publication number
JP7187307B2
JP7187307B2 JP2018248299A JP2018248299A JP7187307B2 JP 7187307 B2 JP7187307 B2 JP 7187307B2 JP 2018248299 A JP2018248299 A JP 2018248299A JP 2018248299 A JP2018248299 A JP 2018248299A JP 7187307 B2 JP7187307 B2 JP 7187307B2
Authority
JP
Japan
Prior art keywords
image
display
range
content
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018248299A
Other languages
Japanese (ja)
Other versions
JP2020108112A (en
Inventor
潤 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018248299A priority Critical patent/JP7187307B2/en
Priority to US16/725,963 priority patent/US10937217B2/en
Priority to CN201911367630.1A priority patent/CN111381750B/en
Publication of JP2020108112A publication Critical patent/JP2020108112A/en
Application granted granted Critical
Publication of JP7187307B2 publication Critical patent/JP7187307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、電子機器及びその制御方法に関する。 The present invention relates to an electronic device and its control method.

近年、全方位画像、全天球画像といった、人間の視野角より広い範囲の映像を持つVR(Virtual Reality)画像を撮影することが可能な撮像装置が普及している。一方で、前方180°に特化した画像フォーマットも発表されており、VR画像から180°画像への切り出しの需要も高まっている。 2. Description of the Related Art In recent years, imaging apparatuses capable of capturing VR (Virtual Reality) images having a wider range of viewing angles than the human eye, such as omnidirectional images and omnidirectional images, have become widespread. On the other hand, an image format specialized for forward 180° has also been announced, and the demand for clipping a VR image into a 180° image is increasing.

特許文献1では、VR画像のタッチ操作が行われた一部の領域を抜出し、歪み補正を行って画面上に重畳して表示する手法が提案されている。特許文献2では、画像の切り出し領域の設定を、切り出し枠の大きさを変更するか、または切り出し枠は固定で画像の倍率を変更するかで指定するといった方法が提案されている。 Japanese Patent Application Laid-Open No. 2002-200001 proposes a method of extracting a partial region of a VR image where a touch operation has been performed, performing distortion correction, and superimposing and displaying it on the screen. Japanese Patent Application Laid-Open No. 2002-200002 proposes a method of specifying the setting of an image clipping area by changing the size of the clipping frame or by changing the magnification of the image while the clipping frame is fixed.

特開2016-123127号公報JP 2016-123127 A 特開2014-165523号公報JP 2014-165523 A

VR画像から180°の切り出し領域を切り出す場合、ユーザーは360°の有効映像範囲を矩形に収めるフラット表示にすることによって、VR画像の全体を俯瞰して見ることが出来る。しかし、フラット表示の状態で180°の切り出し領域を指定しようとすると、フラット表示上の端の領域を、切り出し中心に指定することが難しいといった課題がある。 When a 180° clipping region is clipped from a VR image, the user can view the entire VR image from a bird's-eye view by displaying a flat display that fits the 360° effective video range in a rectangle. However, when an attempt is made to specify a 180° clipping area in the flat display state, there is a problem that it is difficult to specify the edge area on the flat display as the clipping center.

本発明は、上記課題に鑑み、VR画像からより狭い範囲のVR画像の切り出しをフラット表示上で行う場合に、フラット表示の画面端近辺の領域を切り出し中心として指定することができるようにした電子機器及びその制御方法を提供することを目的とする。 In view of the above-mentioned problems, the present invention provides an electronic device that can specify an area near the edge of the flat display screen as the center of extraction when clipping a VR image in a narrower range from a VR image on a flat display. The object is to provide a device and its control method.

上記課題を解決するために、本発明の電子機器は、
第1の画面において、VRコンテンツの第1の映像範囲を矩形に収めるフラット表示を行い、第2の画面において、矩形領域にフラット表示された前記VRコンテンツ上に、前記VRコンテンツから切り出される領域を示すインジケータを表示するように制御する表示制御手段と、
ユーザーからの切り出し範囲の設定指示に応じて前記第1の画面から前記第2の画面に切り替える切替手段と、
前記第2の画面において、第1の操作に応じて、前記インジケータをスクロールさせることなく、フラット表示された前記VRコンテンツを第1の方向にスクロールさせるとともに、当該スクロールに応じて、前記VRコンテンツのうち前記第1の方向へのスクロール量分の画像領域を、前記矩形領域のうち前記第1の方向とは反対方向の第2の方向の端から前記第1の方向に向かって順次表示させる、同一コンテンツの循環的スクロール表示を行い、
前記第1の画面において、前記第1の操作があっても前記循環的スクロール表示は行わないように制御する制御手段と、
前記第2の画面において前記インジケータが示す領域に基づいて、前記VRコンテンツのうち前記第1の映像範囲よりも狭い第2の映像範囲を有する編集済VRコンテンツを生成する生成手段と、
を有することを特徴とする。
In order to solve the above problems, the electronic device of the present invention includes:
On the first screen, a flat display is performed in which the first image range of the VR content is contained in a rectangle, and on the second screen, an area cut out from the VR content is displayed on the VR content that is flatly displayed in the rectangular area. display control means for controlling to display an indicator showing
switching means for switching from the first screen to the second screen in response to an instruction to set a cutout range from a user;
In the second screen, scrolling the flat-displayed VR content in a first direction without scrolling the indicator according to a first operation, and scrolling the VR content according to the scrolling. The image area corresponding to the scroll amount in the first direction is sequentially displayed in the first direction from the end of the rectangular area in the second direction opposite to the first direction. Circular scroll display of the same content,
control means for controlling not to perform the cyclic scrolling display on the first screen even if the first operation is performed;
generating means for generating edited VR content having a second video range narrower than the first video range of the VR content, based on the area indicated by the indicator on the second screen;
characterized by having

VR画像からより狭い範囲のVR画像の切り出しをフラット表示上で行う場合に、フラット表示の画面端近辺の領域を切り出し中心として指定することができる。 When clipping a VR image in a narrower range from a VR image on a flat display, an area near the edge of the flat display screen can be specified as the clipping center.

表示制御装置のブロック図である。1 is a block diagram of a display control device; FIG. 表示制御装置の外観図である。1 is an external view of a display control device; FIG. VR画像から180°画像への切り出し処理を示すフローチャートである。FIG. 11 is a flow chart showing clipping processing from a VR image to a 180° image; FIG. 切り出し方向設定処理を示すフローチャートである。9 is a flowchart showing a cutout direction setting process; VR表示での端領域確認処理を示すフローチャートである。10 is a flowchart showing edge region confirmation processing in VR display. VR画像から180°画像への切り出し処理を行う際の表示例である。It is an example of a display at the time of clipping processing from a VR image to a 180° image. 切り出し方向を右スクロールによって変更した際の表示例である。It is a display example when the clipping direction is changed by right scrolling. 切り出し方向を左スクロールによって変更した際の表示例である。It is a display example when the clipping direction is changed by left scrolling. VR表示での端領域確認方法の表示例である。It is a display example of the edge area confirmation method in the VR display. VR画像の各種表示の一例である。It is an example of various displays of VR images.

以下、図面を参照して本発明の好適な実施形態を説明する。図1は、電子機器の一例としての表示制御装置100の構成例を示すブロック図である。内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109、及び、通信I/F110が接続されている。また、内部バス150に対して音声出力部112と姿勢検出部113も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。 Preferred embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration example of a display control device 100 as an example of electronic equipment. A CPU 101, a memory 102, a nonvolatile memory 103, an image processing unit 104, a display 105, an operation unit 106, a recording medium I/F 107, an external I/F 109, and a communication I/F 110 are connected to the internal bus 150. . An audio output unit 112 and a posture detection unit 113 are also connected to the internal bus 150 . Each unit connected to the internal bus 150 is capable of exchanging data with each other via the internal bus 150 .

CPU101は、表示制御装置100の全体を制御する制御部であり、少なくとも1つのプロセッサーまたは回路からなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば、不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、表示制御装置100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばフラッシュメモリやROMなどで構成される。CPU101は、表示制御装置100が有する表示制御手段、制御手段、生成手段、境界表示手段の各手段の処理を実行する。 The CPU 101 is a control unit that controls the entire display control device 100 and includes at least one processor or circuit. The memory 102 is, for example, a RAM (a volatile memory using a semiconductor element, etc.). The CPU 101 controls each part of the display control device 100 according to a program stored in the nonvolatile memory 103, for example, using the memory 102 as a work memory. The nonvolatile memory 103 stores image data, audio data, other data, various programs for the CPU 101 to operate, and the like. The nonvolatile memory 103 is composed of, for example, flash memory or ROM. The CPU 101 executes the processes of the display control means, control means, generation means, and boundary display means of the display control device 100 .

画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記録媒体108に格納された画像や、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像などに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。また、全方位画像あるいは全方位ではないにせよ広範囲の映像を有する広範囲画像であるVR画像のパノラマ展開やマッピング処理、変換などの各種画像処理も行う。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。 Under the control of the CPU 101 , the image processing unit 104 processes images stored in the nonvolatile memory 103 and the recording medium 108 , video signals obtained via the external I/F 109 , and images obtained via the communication I/F 110 . etc. are subjected to various image processing. The image processing performed by the image processing unit 104 includes A/D conversion processing, D/A conversion processing, image data encoding processing, compression processing, decoding processing, enlargement/reduction processing (resize), noise reduction processing, color conversion, and so on. processing, etc. It also performs various image processing such as panorama development, mapping processing, and conversion of an omnidirectional image or a VR image that is a wide-range image having a wide-range image, even if it is not omnidirectional. The image processing unit 104 may be composed of a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 101 can perform image processing according to a program without using the image processing unit 104 .

ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成してディスプレイ105に出力するように表示制御装置100の各部を制御する。ディスプレイ105は生成・出力された映像信号に基づいて映像を表示する。なお、表示制御装置自体が備える構成としてはディスプレイ105に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(テレビやHMDなど)で構成してもよい。 The display 105 displays an image, a GUI screen that constitutes a GUI (Graphical User Interface), and the like, under the control of the CPU 101 . The CPU 101 controls each unit of the display control device 100 to generate a display control signal according to a program, generate a video signal for display on the display 105 , and output the video signal to the display 105 . The display 105 displays an image based on the generated/output image signal. Note that the display control device itself includes an interface for outputting a video signal for display on the display 105, and the display 105 may be configured with an external monitor (television, HMD, etc.).

操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサー、タッチパッドなどを含む、ユーザー操作を受付けるための入力デバイスである。なお、タッチパネル106aは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。 The operation unit 106 is an input device for accepting user operations, including a character information input device such as a keyboard, a pointing device such as a mouse and a touch panel, buttons, dials, joysticks, touch sensors, and touch pads. It should be noted that the touch panel 106a is an input device that is superimposed on the display 105 and configured in a two-dimensional manner so as to output coordinate information corresponding to the touched position.

記録媒体I/F107には、メモリーカードやCD、DVDといった記録媒体108が着脱可能である。記録媒体I/F107は、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、記録媒体108に対するデータの書き込みを行う。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。 A recording medium 108 such as a memory card, CD, or DVD can be detachably attached to the recording medium I/F 107 . The recording medium I/F 107 reads data from the attached recording medium 108 and writes data to the recording medium 108 under the control of the CPU 101 . The external I/F 109 is an interface for connecting with an external device via a wired cable or wirelessly and inputting/outputting a video signal and an audio signal. The communication I/F 110 is an interface for communicating with an external device, the Internet 111, etc., and transmitting/receiving various data such as files and commands.

音声出力部112は、動画や音楽データの音声や、操作音、着信音、各種通知音などを出力する。音声出力部112には、イヤホンなどを接続する音声出力端子112a(後述)、スピーカー112b(後述)が含まれるものとするが、音声出力部112は無線通信などで外部スピーカーに音声データを出力してもよい。 The audio output unit 112 outputs audio of video and music data, operation sounds, ringtones, various notification sounds, and the like. The audio output unit 112 includes an audio output terminal 112a (described later) for connecting an earphone or the like and a speaker 112b (described later). The audio output unit 112 outputs audio data to an external speaker through wireless communication or the like. may

姿勢検出部113は、重力方向に対する表示制御装置100の姿勢(傾き)や、ヨー方向、ピッチ方向、ロール方向の各軸に対する表示制御装置100の姿勢を検出する。姿勢検出部113で検出された姿勢に基づいて、表示制御装置100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。また、ヨー方向、ピッチ方向、ロール方向などの回転方向における表示制御装置100の傾きの有無や大きさ、当該回転方向に表示制御装置100が回転したかなどを判別可能である。加速度センサー、ジャイロセンサー、地磁気センサー、方位センサー、高度センサーなどのうちの1つのセンサーまたは複数のセンサーの組み合わせを、姿勢検出部113として用いることができる。 The posture detection unit 113 detects the posture (inclination) of the display control device 100 with respect to the direction of gravity, and the posture of the display control device 100 with respect to each axis of the yaw direction, the pitch direction, and the roll direction. Based on the orientation detected by the orientation detection unit 113, whether the display control device 100 is held horizontally, held vertically, directed upward, downward, or oblique. etc. can be determined. In addition, it is possible to determine whether or not the display control device 100 is tilted in the rotation directions such as the yaw direction, the pitch direction, and the roll direction, and whether the display control device 100 is rotated in the rotation direction. One sensor or a combination of a plurality of sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an orientation sensor, an altitude sensor, etc. can be used as the orientation detection unit 113 .

なお操作部106には、タッチパネル106aが含まれる。CPU101はタッチパネル106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)
・タッチパネル106aを指やペンがタッチしている状態(以下、タッチオン(Touch-On)と称する)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
Note that the operation unit 106 includes a touch panel 106a. The CPU 101 can detect the following operations or states on the touch panel 106a.
- A finger or pen that has not touched the touch panel 106a newly touches the touch panel 106a, that is, the start of touch (hereinafter referred to as Touch-Down)
A state in which a finger or pen touches the touch panel 106a (hereinafter referred to as Touch-On)
・The finger or pen is moving while touching the touch panel 106a (hereinafter referred to as Touch-Move)
- The finger or pen touching the touch panel 106a is separated from the touch panel 106a, that is, the end of the touch (hereinafter referred to as Touch-Up)
A state in which nothing is touched on the touch panel 106a (hereinafter referred to as Touch-Off)

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。 When touchdown is detected, touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. Touch-on is detected at the same time when touch-move is detected. Even if touch-on is detected, touch-move is not detected if the touch position does not move. Touch-off is detected when it is detected that all the fingers and pens that were in touch have touched up.

これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知され、CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。 The CPU 101 is notified of these operations/states and the coordinates of the position where the finger or pen touches the touch panel 106a through the internal bus. ) has been performed. As for the touch move, the movement direction of the finger or pen moving on the touch panel 106a can also be determined for each vertical component/horizontal component on the touch panel 106a based on the change in the position coordinates. If it is detected that the touch-move has been performed for a predetermined distance or more, it is determined that the slide operation has been performed.

タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。 An operation of touching the touch panel 106a with a finger and quickly moving it by a certain distance and then releasing it is called a flick. A flick is, in other words, an operation of quickly tracing the touch panel 106a as if flicking it with a finger. It can be determined that a flick has been performed when a touch-move of a predetermined distance or more at a predetermined speed or more is detected, and a touch-up is detected as it is (it can be determined that a flick has occurred following a slide operation).

更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式など、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。 Further, a touch operation of simultaneously touching a plurality of points (for example, two points) to bring the touch positions closer to each other is called pinch-in, and a touch operation of moving the touch positions away from each other is called pinch-out. Pinch-out and pinch-in are collectively called pinch operation (or simply pinch). The touch panel 106a may use any type of touch panel among various types of touch panels such as a resistive film type, an electrostatic capacity type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. good. There is a method of detecting that there is a touch when there is contact with the touch panel, and a method of detecting that there is a touch when there is an approach of a finger or pen to the touch panel.

図2は、電子機器の一例である表示制御装置100の外観図である。表示制御装置100は、例えばスマートフォンなどの表示装置である。ディスプレイ105は画像や各種情報を表示する表示部である。ディスプレイ105はタッチパネル106aと一体的に構成されており、ディスプレイ105の表示面へのタッチ操作を検出できるようになっている。表示制御装置100は、VR画像(VRコンテンツ)をディスプレイ105においてVR表示することが可能である。例えば、デジタルカメラ(全方位カメラ;全天球カメラ)で撮像されたVR画像を通信I/F110を介して取得して(無線通信により転送されたVR画像を受信し)記録媒体108に記録することができる。このようにして記録媒体108に記録されたVR画像を、ディスプレイ105でVR表示(VRビューで表示)することが可能である。また、デジタルカメラで撮像されたVR画像が記録された記録媒体を記録媒体I/F107に直接接続し、記録媒体からVR画像を読み出して再生することで、ディスプレイ105でVR表示(VRビューで表示)することも可能である。また、SNS等を介して、ネットワークに接続されたサーバー装置等に記録されたVR画像(共有されたVR画像)を取得してVR表示することも可能である。本実施形態では、操作部106は、タッチパネル106a、操作部106b、106c、106d、106eを含む。操作部106bは表示制御装置100の電源のオンとオフを切り替える操作を受付ける電源ボタンである。操作部106cと操作部106dは音声出力部112から出力する音声のボリュームを増減するボリュームボタンである。操作部106eは、ディスプレイ1
05にホーム画面を表示させるためのホームボタンである。音声出力端子112aはイヤホンジャックであり、イヤホンや外部スピーカーなどに音声信号を出力する端子である。スピーカー112bは音声を出力する本体内蔵スピーカーである。
FIG. 2 is an external view of a display control device 100, which is an example of an electronic device. The display control device 100 is, for example, a display device such as a smartphone. A display 105 is a display unit that displays images and various types of information. The display 105 is configured integrally with the touch panel 106a so that a touch operation on the display surface of the display 105 can be detected. The display control device 100 is capable of VR-displaying a VR image (VR content) on the display 105 . For example, a VR image captured by a digital camera (omnidirectional camera; omnidirectional camera) is acquired via the communication I/F 110 (receives the VR image transferred by wireless communication) and is recorded in the recording medium 108. be able to. The VR image recorded on the recording medium 108 in this manner can be VR-displayed (displayed in a VR view) on the display 105 . Also, a recording medium in which a VR image captured by a digital camera is recorded is directly connected to the recording medium I/F 107, and the VR image is read out from the recording medium and played back to display the VR on the display 105 (display in VR view). ) is also possible. It is also possible to obtain VR images (shared VR images) recorded in a server device or the like connected to a network via SNS and display them in VR. In this embodiment, the operation unit 106 includes a touch panel 106a and operation units 106b, 106c, 106d, and 106e. The operation unit 106b is a power button that receives an operation for switching the power of the display control device 100 between on and off. An operation unit 106 c and an operation unit 106 d are volume buttons for increasing or decreasing the volume of audio output from the audio output unit 112 . The operation unit 106e is the display 1
05 to display the home screen. The audio output terminal 112a is an earphone jack, and is a terminal for outputting an audio signal to an earphone, an external speaker, or the like. The speaker 112b is a built-in speaker for outputting sound.

表示制御装置100は、VR画像(VRコンテンツ)をディスプレイ105においてVR表示することが可能である。VR画像とは、VR表示(表示モード「VRビュー」で表示)をすることのできる画像であるものとする。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれるものとする。VR画像には、静止画だけでなく、動画やライブビュー画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で上下方向(垂直角度、天頂からの角度、仰角、俯角、高度角、ピッチ角)360度、左右方向(水平角度、方位角度、ヨー角)360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像は、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示部に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含むものとする。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。また、例えば、左右方向(水平角度、方位角度)180度、水平方向を中心とした垂直角度180度の視野分(画角分)の被写体を撮影可能なカメラで撮影された画像はVR画像の一種である。即ち、上下方向と左右方向にそれぞれ160度(±80度)以上の視野分の映像範囲を有しており、人間が一度に視認できる範囲よりも広い映像範囲を有している画像はVR画像の一種である。このVR画像をVR表示(表示モード:「VRビュー」で表示)すると、左右回転方向に表示装置(VR画像を表示する表示装置)の姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することができる。上下方向(垂直回転方向)には、真上(天頂)から±105度の範囲では継ぎ目のない全方位の映像を視聴することができるが、真上から105度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。 The display control device 100 is capable of VR-displaying a VR image (VR content) on the display 105 . A VR image is an image that can be displayed in VR (displayed in the display mode “VR view”). VR images include an omnidirectional image (omnidirectional image) captured by an omnidirectional camera (omnidirectional camera), or a panoramic image with a video range (effective video range) wider than the display range that can be displayed at once on the display unit. etc. shall be included. VR images include not only still images but also moving images and live-view images (images obtained from cameras in almost real time). The VR image has a maximum visual range of 360 degrees in the vertical direction (vertical angle, angle from the zenith, elevation angle, depression angle, altitude angle, pitch angle) and 360 degrees in the horizontal direction (horizontal angle, azimuth angle, yaw angle). (Effective video range). In addition, even if the VR image is less than 360 degrees vertically and 360 degrees horizontally, it can be displayed at a wide angle of view (viewing range) that is wider than the angle of view that can be taken with a normal camera, or on the display unit at once. An image having a video range (effective video range) wider than the display range is also included. For example, an image captured by an omnidirectional camera capable of capturing a subject with a field of view (angle of view) of 360 degrees in the horizontal direction (horizontal angle, azimuth angle) and a vertical angle of 210 degrees centered on the zenith is It is a kind of VR image. Also, for example, an image captured by a camera capable of capturing a subject with a field of view (angle of view) of 180 degrees in the horizontal direction (horizontal angle, azimuth angle) and 180 degrees in the vertical angle centered on the horizontal direction is a VR image. It is one kind. That is, an image that has a video range of 160 degrees (±80 degrees) or more in the vertical direction and the horizontal direction and has a video range that is wider than the range that can be visually recognized by humans at once is a VR image. is a kind of When this VR image is displayed in VR (display mode: "VR view"), by changing the posture of the display device (display device that displays the VR image) in the left and right direction, can view seamless omnidirectional images. In the vertical direction (vertical rotation direction), seamless omnidirectional images can be viewed within a range of ±105 degrees from directly above (zenith), but no images exist within a range exceeding 105 degrees from directly above. It becomes a blank area. A VR image can also be said to be "an image whose video range is at least part of a virtual space (VR space)".

VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。表示装置であるヘッドマウントディスプレイ(HMD)を装着して視聴する場合には、ユーザーの顔の向きに応じた視野範囲の映像を表示することになる。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野角(画角)の映像を表示しているものとする。この状態から、表示装置の姿勢を表裏反転させると(例えば、表示面を南向きから北向きに変更すると)、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度(水平)を中心とした視野角の映像に、表示範囲が変更される。ユーザーがHMDを視聴している場合で言えば、ユーザーが顔を北から南に向ければ(すなわち後ろを向けば)、HMDに表示される映像も北の映像から南の映像に変わるということである。このようなVR表示によって、ユーザーに、視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚(没入感)を提供することができる。VRゴーグル(ヘッドマウントアダプター)に装着されたスマートフォンは、HMDの一種と言える。 VR display (VR view) is a display method (display mode) that allows the display range to be changed by displaying an image within a viewing range corresponding to the posture of the display device. When the user wears a head-mounted display (HMD) as a display device to view the video, the video is displayed within the visual range corresponding to the orientation of the user's face. For example, in the VR image, at a certain point in time, the viewing angle (angle of view) is centered at 0 degrees in the horizontal direction (a specific direction, such as north) and 90 degrees in the vertical direction (90 degrees from the zenith, that is, horizontal). shall be displayed. From this state, if the posture of the display device is reversed (for example, if the display surface is changed from facing south to facing north), the same VR image can be displayed by 180 degrees in the left and right direction (opposite orientation, for example, south), and up and down. The display range is changed to an image with a viewing angle centered at 90 degrees (horizontal) in the direction. In the case where the user is viewing the HMD, if the user turns his face from north to south (that is, turns his back), the image displayed on the HMD will also change from the north image to the south image. be. With such VR display, it is possible to provide the user with a sense (immersive feeling) as if he or she were visually present in the VR image (inside the VR space). A smartphone attached to VR goggles (head mount adapter) can be said to be a kind of HMD.

なお、VR画像の表示方法は上記に限るものではない。姿勢変化ではなく、タッチパネルや方向ボタンなどに対するユーザー操作に応じて表示範囲を移動(スクロール)させてもよい。VR表示(表示モード「VRビュー」)で表示した場合にも、姿勢変化による表示範囲の変更に加え、タッチパネルへのタッチムーブ、マウスなどへのドラッグ操作、方向ボタンの押下などに応じて表示範囲を変更できるようにしてもよい。 Note that the display method of the VR image is not limited to the above. The display range may be moved (scrolled) according to the user's operation on the touch panel, direction buttons, or the like, instead of changing the posture. Even when displaying in VR display (display mode "VR view"), in addition to changing the display range due to changes in posture, the display range changes according to touch-move to the touch panel, drag operation to the mouse, pressing of the direction button, etc. may be changed.

本実施形態では、最大で上下左右に360度の視野分の映像範囲(有効映像範囲)を持つVR画像から、上下左右に180度の視野分の映像範囲(有効映像範囲)をもつVR画像を切出す操作及び処理について説明する。なお、以下では、最大で上下左右に360度の視野分の映像範囲(有効映像範囲)を持つVR画像を、360度のVR画像と称する。また、上下左右に180度の視野分の映像範囲(有効映像範囲)をもつVR画像を、180度のVR画像と称する。360度のVR画像から180度のVR画像を切り出す処理は、概念としては、360度分の映像が全体にマッピングされた仮想的な球体から、半球を切出す処理である。本実施形態で説明する切出しは、通常の矩形画像(平面画像)を切出す処理ではなく、切出し後もVR画像として視聴可能(球体にマッピングしてVRビューで視聴可能)な画像を切出す処理である。切出し後の画像は上下左右180度分の有効映像範囲を有するため、球体にマッピングした場合には、半球分の有効な映像(撮影された画像など)がマッピングされる。残りの半球分は無効映像範囲となり、単色や所定パターンでの塗りつぶしや、何かしら補完された映像がマッピングされる。このような切出し後のVR画像をVRビューで視聴する場合、ユーザーは、前方の幅180度の範囲(中心から上下左右にそれぞれ90度の範囲)で画像を視認することができる。このような切出し処理を行う理由としては以下のようなものがある。 In this embodiment, a VR image having a visual range (effective video range) of 360 degrees vertically and horizontally at maximum is converted to a VR image having a visual range (effective video range) of 180 degrees vertically and horizontally. The extraction operation and processing will be described. In the following, a VR image having a video range (effective video range) corresponding to a field of view of 360 degrees vertically and horizontally at maximum is referred to as a 360-degree VR image. Also, a VR image having a video range (effective video range) corresponding to a field of view of 180 degrees vertically and horizontally is referred to as a 180-degree VR image. Conceptually, the process of cutting out a 180-degree VR image from a 360-degree VR image is a process of cutting out a hemisphere from a virtual sphere on which a 360-degree video is entirely mapped. The clipping described in this embodiment is not a process of clipping a normal rectangular image (planar image), but a process of clipping an image that can be viewed as a VR image even after clipping (mapped onto a sphere and viewable in a VR view). is. Since the clipped image has an effective video range of 180 degrees vertically and horizontally, when mapped on a sphere, a hemispherical effective video (photographed image, etc.) is mapped. The rest of the hemisphere becomes an invalid image range, and images that are filled with a single color or a predetermined pattern or that are complemented in some way are mapped. When viewing such a cut-out VR image in a VR view, the user can visually recognize the image within a range of 180 degrees in width in front (a range of 90 degrees to the left, right, top and bottom from the center). The reasons for performing such clipping processing are as follows.

第1に、画像のデータ量を削減することができる。360度のVR画像に対して、切出された180度のVR画像はデータ量が小さい。そのため、保存する際の記録媒体の容量圧迫を抑制できる。また、送受信する際の通信データ量の削減、表示する際の処理負荷の削減をすることができ、その分、処理速度や応答速度の向上、消費電力の削減といった効果を奏する。 First, the amount of image data can be reduced. The clipped 180-degree VR image has a smaller data amount than the 360-degree VR image. Therefore, it is possible to suppress the capacity pressure of the recording medium at the time of saving. In addition, it is possible to reduce the amount of communication data to be transmitted and received, and to reduce the processing load to display, thereby improving processing speed and response speed, and reducing power consumption.

第2に、不要な被写体を削除することができる。例えば360度の視野分の有効映像範囲を有するVR画像を撮像するほとんどの場合、撮影者自身が写り込むことが避けられない。しかし、撮影者が撮影したいものが撮影者自身でなく風景などである場合、撮影者自身は余計な被写体であり、意図しないものである。意図しない映像が写っていると、撮影者が主題と考えていた風景などの映像に視聴者の関心を集中させることを阻害してしまう。また、通行人の顔や通行する車のナンバープレートといった秘匿すべき情報が写ってしまうことも多く、プライバシーやセキュリティーの観点から望ましくない場合がある。切出し処理によって、撮影者が意図する範囲のみを切出し、その他の不要な範囲の映像を破棄することで、これらの問題を回避することができる。 Second, unnecessary subjects can be deleted. For example, in most cases of capturing a VR image having an effective video range of 360 degrees, it is inevitable that the photographer himself will appear in the picture. However, if what the photographer wants to photograph is not the photographer himself but a landscape or the like, the photographer himself is an unnecessary subject and is unintended. If an unintended image is captured, it hinders the viewer from concentrating on the image such as the landscape that the photographer considered to be the main subject. In addition, information that should be kept confidential, such as the face of a passerby or the license plate of a passing vehicle, is often captured, which is undesirable from the viewpoint of privacy and security. These problems can be avoided by clipping only the range intended by the photographer and discarding other unnecessary ranges of the image.

第3に、VRビューで視聴するユーザーの身体的負担を軽減することができる。360度のVR画像をVRビューで視聴する場合、視聴するユーザーの背後まで映像が存在する。前方の180度分の映像であれば、視聴者は自身の首の向きを変えるだけで概ね見渡すことができるが、背後を見ようとすれば、上半身を捻ったり、立つ向きを変えたりしなければならず、身体的負担がやや高い。このような背後を見ようとする身体的動きは、回転チェアでも無い限り、椅子に座って視聴する場合には不向きである。これに対し、180度のVR画像では自身の首の向きを変えるだけで概ね全体を見渡すことができるので、観賞する際の身体的負担が比較的小さい。ガイド表示や180度を超えた範囲が無効領域であることがわかるような表示によって、視聴者が180度のVR画像であることを認識していれば、視聴者は背後を見ようと試みることもない。そのため、背後を見るといった身体的動作を視聴者に行わせることを抑制することができる。 Thirdly, it is possible to reduce the physical burden on the user watching in the VR view. When viewing a 360-degree VR image in a VR view, the image exists even behind the viewing user. Viewers can see a 180-degree image in front of them by simply turning their head, but if they want to see behind them, they have to twist their upper body or change the direction in which they stand. However, the physical burden is rather high. Such a physical movement to look behind is not suitable for viewing from a seat, unless it is a swivel chair. On the other hand, with a 180-degree VR image, the viewer can see the entire scene simply by changing the direction of his/her head, so the physical burden of viewing the image is relatively small. If the viewer recognizes that the VR image is 180 degrees through a guide display or a display that indicates that the range beyond 180 degrees is an invalid area, the viewer may try to look behind. do not have. Therefore, it is possible to prevent the viewer from performing physical actions such as looking behind.

第4に、360度のVR画像を、180度のVR画像のための記録フォーマットなどに対応させて表示させることができる。360度のVR画像の記録フォーマットと、180度分のVR画像のための記録フォーマットが異なる場合、180度分のVR画像の視聴にのみ対応した再生装置(再生アプリケーションソフト)では、360度のVR画像を視聴
することができない。しかし360度のVR画像から切出して180度のVR画像を生成すれば、180度分のVR画像の視聴にのみ対応した再生装置でも視聴することが可能となる。また、180度のVR画像の視聴と360度のVR画像の視聴の双方に対応していても、180度のVR画像を視聴するモードと360度のVR画像を視聴するモードとを切り替える必要がある場合には、切替の操作が煩わしい。しかし360度のVR画像から切出して180度のVR画像を生成すれば、180度分のVR画像のための表示モードを切り替えることなく、複数のVR画像を次々と切り替えて表示させることができる。また、同一方向の被写体に向けて視差の分だけ離れた距離に設置された2つのカメラユニットによって撮影された、それぞれ右目用、左目用の2つの180度のVR画像を立体視できるように表示する表示モード(2眼VRビュー)が想定される。360度のVR画像から、右目用の180度のVR画像と左目用の180度のVR画像を切出して記録しておけば、このような2眼VRビューでも視聴可能となる。
Fourthly, a 360-degree VR image can be displayed in correspondence with a recording format for a 180-degree VR image. If the recording format for 360-degree VR images and the recording format for 180-degree VR images are different, a playback device (playback application software) that only supports viewing of 180-degree VR images will not be able to record 360-degree VR images. Images cannot be viewed. However, if a 180-degree VR image is generated by clipping from a 360-degree VR image, it becomes possible to view even a playback device that can only view 180-degree VR images. Also, even if both 180-degree VR image viewing and 360-degree VR image viewing are supported, it is necessary to switch between the 180-degree VR image viewing mode and the 360-degree VR image viewing mode. In some cases, the switching operation is troublesome. However, if a 180-degree VR image is generated by extracting a 360-degree VR image, a plurality of VR images can be displayed by switching one after another without switching the display mode for the 180-degree VR image. In addition, two 180-degree VR images for the right eye and left eye, captured by two camera units installed at a distance equal to the parallax, facing the subject in the same direction, are displayed so that they can be viewed stereoscopically. A display mode (dino VR view) is assumed. If a 180-degree VR image for the right eye and a 180-degree VR image for the left eye are cut out from a 360-degree VR image and recorded, it is possible to view even such a twin-lens VR view.

なお、本実施形態では、360度のVR画像から180度のVR画像を切出して生成する例を説明するが、切出し前のVR画像の有効映像範囲よりも狭い有効映像範囲のVR画像を切出す処理であれば他の視野角度のVR画像にも適用可能である。すなわち、切出し前のVR画像は360度のVR画像に限るものではなく、また、切出し後のVR画像は180度のVR画像に限るものではない。 In the present embodiment, an example in which a 180-degree VR image is generated by cutting out a 360-degree VR image will be described. The processing can also be applied to VR images with other viewing angles. That is, the VR image before clipping is not limited to a 360-degree VR image, and the VR image after clipping is not limited to a 180-degree VR image.

後述する各処理では、各種のタッチボタンを表示し、ユーザー操作として各種タッチボタンに対するタッチ操作を受付けて処理を進める例を説明する。各種タッチボタンに対する指示を受付けるタッチ操作とは、具体的にはタッチボタンに対応するタッチ反応領域からのタッチアップとしてもよいし、タッチボタンに対応するタッチ反応領域に対するタッチダウンとしてもよい。またこれに限るものではなく、後述するタッチボタンへの操作によって受付けるものとして説明する各指示は、他のユーザー操作によって受付けるものとしてもよい。例えば、各物理ボタンへの操作、方向キーを用いて表示アイテムを選択して決定ボタンを押下する操作、マウスを用いて表示アイテムを選択する操作、音声コマンド等であってもよい。 In each process to be described later, an example will be described in which various touch buttons are displayed, and a touch operation to the various touch buttons is accepted as a user operation to proceed with the process. A touch operation for receiving instructions for various touch buttons may specifically be a touch-up from a touch-responsive area corresponding to a touch button, or a touch-down from a touch-responsive area corresponding to a touch button. Further, the present invention is not limited to this, and each instruction explained as being received by operating a touch button to be described later may be received by another user's operation. For example, it may be an operation on each physical button, an operation of selecting a display item using a direction key and pressing an enter button, an operation of selecting a display item using a mouse, a voice command, or the like.

以下図3~図8を参照して、本発明の実施例の動作を説明する。
図3は、表示制御装置100による、360度のVR画像から180度のVR画像への切り出し処理の一例を示すフローチャートである。このフローチャートおける各処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することにより実現する。
The operation of the embodiment of the present invention will now be described with reference to FIGS.
FIG. 3 is a flowchart showing an example of clipping processing from a 360-degree VR image to a 180-degree VR image by the display control device 100 . Each process in this flow chart is implemented by the CPU 101 developing a program stored in the nonvolatile memory 103 in the memory 102 and executing the program.

表示制御装置100の電源がオンとされ、記録媒体108に記録された画像や、通信先から取得した画像のうち、VR画像(VRコンテンツ)が選択されると図3の処理が開始される。 When the power of the display control device 100 is turned on and a VR image (VR content) is selected from among images recorded on the recording medium 108 and images obtained from communication destinations, the processing in FIG. 3 is started.

S301では、CPU101は、記録媒体108もしくは通信I/F110を介した通信先から、表示対象となるVR画像を読みこむ。CPU101は、VR画像の属性情報として付帯する映像範囲(有効映像範囲)を示す情報を取得して、有効映像範囲を矩形に収めるフラット表示でVR画像を表示する。S301でディスプレイ105にフラット表示されるVR画像の有効映像範囲は、第1の有効映像範囲の一例である。VRビューであれば仮想球体にマッピングして表示するが、フラット表示では、正距円筒図法などによって矩形に全体を収めて表示する。そのため、矩形端部よりの部分などでは、VRビューで表示する場合よりも被写体が歪む。 In S<b>301 , the CPU 101 reads a VR image to be displayed from the recording medium 108 or the communication destination via the communication I/F 110 . The CPU 101 acquires information indicating a video range (effective video range) attached as attribute information of the VR image, and displays the VR image in a flat display that encloses the effective video range in a rectangle. The effective video range of the VR image displayed flat on the display 105 in S301 is an example of the first effective video range. In the VR view, the image is displayed by mapping it on a virtual sphere, but in the flat display, the entire image is displayed in a rectangle using an equirectangular projection or the like. Therefore, the subject is more distorted than when displayed in the VR view in a portion near the edge of the rectangle.

有効映像範囲を示す情報とは、VR画像が、上下方向、左右方向にどの角度範囲分の有効な映像を有しているかという情報である。有効映像範囲を示す情報は、VR画像の有効
映像範囲を特定できる情報であればよく、画角、視野角、方位角、仰角、俯角、高度角度、ステラジアンなどによって表される角度情報であってもよいし、上下、左右の画素数や座標などの位置情報であってもよい。
The information indicating the effective image range is information indicating which angular range of effective image the VR image has in the vertical direction and the horizontal direction. The information indicating the effective video range may be any information that can specify the effective video range of the VR image, and is angle information represented by angle of view, viewing angle, azimuth angle, elevation angle, depression angle, altitude angle, steradian, and the like. Alternatively, it may be positional information such as the number of pixels on the top, bottom, left, and right, or coordinates.

また、有効映像範囲を示す情報は、VR画像を撮像したカメラの機種情報(機種を特定することで撮影可能な範囲を特定可能)や撮影時のズームの情報等でもよい。CPU101は、有効映像範囲を示す情報を取得すると、上下左右360度との差分で無効映像範囲(非映像範囲)も特定(算出)する。なお、逆に、VR画像の属性情報から無効映像範囲を示す情報を取得し、そこから有効映像範囲を算出してもよいし、有効映像範囲を示す情報と無効映像範囲を示す情報の双方をVR画像の属性情報から取得してもよい。 The information indicating the effective image range may be model information of the camera that captured the VR image (specifying the model makes it possible to specify the shootable range), zoom information at the time of shooting, or the like. When the information indicating the effective video range is acquired, the CPU 101 also specifies (calculates) the invalid video range (non-video range) based on the difference between 360 degrees vertically and horizontally. Conversely, information indicating the invalid video range may be obtained from the attribute information of the VR image, and the effective video range may be calculated from the information. It may be acquired from the attribute information of the VR image.

図6(a)に、S301におけるフラット表示の表示例(第1の画面における表示例)を示す。正距円筒図法を用いた画像であるため、実物とは異なり歪んだ画像となっている。ユーザーは、切り出しボタン602を選択するボタン操作により、VR画像601の切り出しモードに遷移させることが出来る。切り出しボタン602は、ユーザーからの切り出し範囲の設定指示を受付ける操作ボタンである。また、VRビューに遷移するための指示アイコンを表示してもよい。この指示アイコンに対する操作に応じて、同じ画像について、フラット表示から、VRビューに遷移することができる。なお、S301におけるフラット表示を行っている際に、VR画像601の表示領域上でタッチムーブが行われた場合、別の画像への画像切替(ファイル名順などの所定の順序における次の画像、または前の画像の表示への切り替え)を行うものとする。S301におけるフラット表示は、ユーザーが表示対象あるいは編集対象となる画像の識別を行うための画面である。タッチムーブによって画像切替を行う場合、タッチムーブに追従してVR画像601をタッチムーブ方向へスライド(スクロール)するが、図6(a)に示すVR画像601の端部の外側は、黒塗りなどの非画像領域、あるいは切替後の画像が表示される。すなわち、図4の切り出し領域設定処理におけるスクロールとは異なり、端部を識別できないような循環的なスクロールは行わない。 FIG. 6A shows a display example of flat display (display example on the first screen) in S301. Since it is an image using equirectangular projection, it is a distorted image unlike the real thing. The user can switch to a clipping mode for the VR image 601 by operating a button to select the clipping button 602 . A cutout button 602 is an operation button for accepting a cutout range setting instruction from the user. Also, an instruction icon for transitioning to the VR view may be displayed. According to the operation on this instruction icon, the same image can be transitioned from flat display to VR view. Note that if a touch move is performed on the display area of the VR image 601 during flat display in S301, image switching to another image (next image in a predetermined order such as file name order, or switch to the display of the previous image). The flat display in S301 is a screen for the user to identify an image to be displayed or edited. When image switching is performed by touch-move, the VR image 601 is slid (scrolled) in the direction of the touch-move following the touch-move. , or the image after switching is displayed. In other words, unlike the scrolling in the clipping area setting process of FIG. 4, no cyclical scrolling is performed in which the end portion cannot be identified.

S302では、CPU101は、切り出しボタン602に対するタッチ操作、すなわちタッチパネル106aに対する切り出し範囲の設定指示があったか否かを判定する。切り出し範囲の設定指示があった場合は、S303に進み、切り出し範囲の設定指示がなかった場合は処理を終了させる。S303に進んだ場合は、VR画像を180°で切り出すための切り出し範囲を設定するモードに遷移する。 In S302, the CPU 101 determines whether or not there has been a touch operation on the crop button 602, that is, whether or not an instruction to set a crop range has been given to the touch panel 106a. If there is an instruction to set the extraction range, the process proceeds to S303, and if there is no instruction to set the extraction range, the process is terminated. When proceeding to S303, the mode is changed to a mode for setting a clipping range for clipping the VR image at 180°.

S303では、CPU101は、天頂補正を行うか否かを選択する選択画面を表示した上で、タッチパネル106aに入力された天頂補正に関するパラメータを受け取り、天頂補正の実施が希望されている場合は天頂補正を行う。図6(b)に、S303で表示される天頂補正を行うか否かを選択する選択画面の表示例を示す。図6(b)の天頂補正選択ダイアログ603は、切り出しボタン602を選択するボタン操作により表示される。天頂補正選択ダイアログ603は、ボタン604及びボタン605を有する。ユーザーがボタン604を選択するボタン操作により、VR画像の切り出し処理前に天頂軸の補正が実行される。また、ボタン605を選択すると、VR画像の切り出し処理前に天頂軸の補正は実行されない。 In S303, the CPU 101 displays a selection screen for selecting whether or not to perform zenith correction, and receives parameters related to zenith correction input to the touch panel 106a. I do. FIG. 6B shows a display example of the selection screen displayed in S303 for selecting whether or not to perform the zenith correction. A zenith correction selection dialog 603 shown in FIG. The zenith correction selection dialog 603 has buttons 604 and 605 . When the user operates a button 604, correction of the zenith axis is executed before the VR image clipping process. Also, when the button 605 is selected, correction of the zenith axis is not executed before the VR image clipping processing.

S304では、CPU101は、切り出し用のUIをディスプレイ105に表示する。すなわち、ユーザーからの切り出し範囲の設定指示に応じて、S301で説明した表示画面から、切り出し用のUI画面に切り替わる(切替制御)。図6(c)に、S304で表示される切り出し用のUIの表示例(第2の画面の表示例)を示す。切り出し領域枠606は、VR画像から切り出される180°の領域を示すインジケータである。切り出し領域枠606は、矩形領域にフラット表示されたVR画像上(VRコンテンツ上)に表示さ
れる。なお切り出し領域枠606は正確な切り出し範囲を示している訳では無く、大まかな範囲を示したものである。非切り出し領域608は、切り出す180°の領域に含まれない領域を示している。
In S<b>304 , the CPU 101 displays a cutout UI on the display 105 . That is, the display screen described in S301 is switched to the UI screen for clipping in accordance with the user's instruction to set the clipping range (switching control). FIG. 6C shows a display example of the cutout UI (display example of the second screen) displayed in S304. A clipping area frame 606 is an indicator that indicates the 180° area to be clipped from the VR image. A cutout area frame 606 is displayed on the VR image (on the VR content) displayed flat in a rectangular area. Note that the clipping area frame 606 does not indicate an accurate clipping range, but indicates a rough range. A non-cutout region 608 indicates a region that is not included in the 180° region to be cut out.

ユーザーが切り出し決定(完了)ボタン611を選択するボタン操作により、切り出し領域枠606に囲まれた切り出し領域607が切り出し領域として設定される。天頂切り出しボタン612を選択するボタン操作により、天頂方向(VRコンテンツの上方向)を中心に180°の領域が切り出し領域として設定される。天底切り出しボタン613を選択するボタン操作により、天底方向(VRコンテンツの下方向)を中心に180°の領域が切り出し領域として設定される。CPU101は、設定された切り出し領域に基づいて、切り出し前の有効映像範囲よりも狭い有効映像範囲を有する編集済VRコンテンツを生成することができる。このように、CPU101は、VRコンテンツの上下方向のスクロールは行わず、VRコンテンツの上下方向の切り出しは、ユーザーのボタン操作(スクロールさせる操作を伴わない操作)により実行される。 By the user's button operation of selecting the crop determination (completion) button 611, the crop area 607 surrounded by the crop area frame 606 is set as the crop area. By button operation to select the zenith clipping button 612, an area of 180° around the zenith direction (upward direction of the VR content) is set as a clipping area. By button operation to select the nadir clipping button 613, an area of 180° around the nadir direction (downward direction of the VR content) is set as a clipping area. The CPU 101 can generate edited VR content having an effective video range narrower than the effective video range before clipping, based on the set clipping region. In this way, the CPU 101 does not scroll the VR content in the vertical direction, and cuts out the VR content in the vertical direction by the user's button operation (an operation that does not involve a scrolling operation).

S305では、CPU101は、ディスプレイ105にフラット表示されたVR画像の表示領域のうち、切り出し領域607の内側の中央領域に対してタッチダウンが検出されたか否かを判定する。切り出し領域607の内側の中央領域は、切り出し領域607の左右境界である切り出し領域枠606の左右部分より所定幅以上内側の領域である。中央領域へのタッチダウンが検出された場合はS306に進み、中央領域へのタッチダウンが検出されなかった場合はS307に進む。 In S<b>305 , the CPU 101 determines whether a touchdown has been detected in the center area inside the cutout area 607 in the display area of the VR image displayed flat on the display 105 . The central area inside the cutout area 607 is an area that is a predetermined width or more inside the left and right portions of the cutout area frame 606 that is the left and right boundaries of the cutout area 607 . If touchdown to the central area is detected, the process proceeds to S306, and if touchdown to the central area is not detected, the process proceeds to S307.

S306では、CPU101は、切り出し方向設定処理を実行する。なお、切り出し方向(切り出される画像の範囲)は、図6(c)に示す切り出し領域枠606で囲まれた領域に基づいて設定される。切り出される領域の有効映像範囲は、第2の有効映像範囲の一例である。CPU101は、少なくとも図6(c)に示す切り出し領域枠606で囲まれた領域の中央と、実際に切り出される有効映像範囲(第2の有効映像範囲)の中央とを、一致またはほぼ一致するように制御する。ただし、フラット表示に重畳して示す切り出し領域枠606は、半球の切出し境界を正確に表現したものではないので、切り出し領域枠606で示した範囲と、実際に切り出される有効映像範囲(第2の有効映像範囲)とは、完全には一致しない。例えば、切り出し領域枠606で囲まれた領域の範囲を、実際に切り出される有効映像範囲(180°)より大きくしてもよい。切り出し方向設定処理については、図4を用いて後述する。 In S306, the CPU 101 executes a cutout direction setting process. The clipping direction (the range of the clipped image) is set based on the area surrounded by the clipping area frame 606 shown in FIG. 6(c). The effective image range of the clipped area is an example of the second effective image range. The CPU 101 causes at least the center of the region surrounded by the clipping region frame 606 shown in FIG. to control. However, the cutout area frame 606 superimposed on the flat display does not accurately represent the cutout boundary of the hemisphere. effective video range) does not completely match. For example, the range of the area surrounded by the clipping area frame 606 may be larger than the effective image range (180°) that is actually clipped. The clipping direction setting process will be described later with reference to FIG.

S307では、CPU101は、VR端領域確認処理を実行する。VR端領域確認処理については、図5を用いて後述する。 In S307, the CPU 101 executes VR edge area confirmation processing. The VR edge region confirmation processing will be described later using FIG.

S308では、CPU101は、切り出し決定ボタン611に対するタッチ操作があったか否か、すなわち切り出し指示があったか否かを判定する。切り出し指示があった場合はS309に進み、切り出し指示がなかった場合は処理を終了させる。 In S<b>308 , the CPU 101 determines whether or not there has been a touch operation on the cutout decision button 611 , that is, whether or not there has been a cutout instruction. If there is a clipping instruction, the process proceeds to step S309, and if there is no clipping instruction, the process ends.

S309では、CPU101は、S306で設定された切り出し方向に180°の範囲で画像を切り出し、VR180°フォーマットで切り出した画像を記録媒体108に保存する。すなわち、切出し済みのVR画像を記録媒体108に記録する。 In S<b>309 , the CPU 101 cuts out an image within a range of 180° in the cutout direction set in S<b>306 , and saves the cut out image in the VR 180° format in the recording medium 108 . That is, the clipped VR image is recorded on the recording medium 108 .

S309で記録する切出し済みのVR画像(VRビューでの表示が可能な画像ファイル)について説明する。切出し済みのVR画像が静止画であれば、切出範囲内の画像を正距円筒図法で矩形内に変形して収めた画像がマルチピクチャーフォーマットで1ファイル内に複数枚格納されたファイルを生成して記録する。切出し前の360度のVR画像(元画像)を、VRビューではなく通常の平面画像として表示した場合には、図10(a)のよ
うな長方形内に正距円筒図法で描画された画像となる。S301ではこのように表示される。この元画像から図4で説明する処理によって180度の範囲が切出されると、VRビューではなく通常の平面画像として表示した場合に図10(b)に示すようにほぼ正方形内に正距円筒図法で描画された画像が記録される。この際、切出範囲内の画像をコピーした同一の画像を、視差が無いにせよ、右目用画像、左目用画像としてそれぞれ同一ファイル内に記録する。なお、疑似的に視差を有するように(すなわち左目用画像と右目用画像の範囲がやや異なるように)、切出し前の1つの360度のVR画像から2つの180度の範囲を切出して生成してもよい。切出し済みの静止画のVR画像のファイル名は例えば“123456.vr.jpg”となり、拡張子“.jpg”の手前に3文字の文字列“.vr”が記述される。このように静止画ファイルとして保存された画像をVRビューで再生表示すると、図10(b)の画像が半球にマッピングされて表示される。切出し済みの静止画のVR画像ファイルを、2眼VRビューで再生して表示した例(VRゴーグルに装着していない状態のディスプレイ105における表示例)を図10(d)に示す。
The clipped VR image (image file that can be displayed in the VR view) recorded in S309 will be described. If the clipped VR image is a still image, the image within the clipped range is deformed into a rectangle using the equirectangular projection method, and multiple images are stored in one file in a multi-picture format. to record. When the 360-degree VR image (original image) before cropping is displayed as a normal plane image instead of a VR view, it is an image drawn in an equirectangular projection within a rectangle as shown in FIG. 10(a). Become. In S301, it is displayed like this. When a 180-degree range is cut out from this original image by the processing described in FIG. An image rendered in the projection is recorded. At this time, the same image obtained by copying the image within the clipping range is recorded in the same file as the image for the right eye and the image for the left eye, respectively, even if there is no parallax. Two 180-degree ranges are extracted from one 360-degree VR image before extraction so as to have a pseudo parallax (that is, the ranges of the image for the left eye and the image for the right eye are slightly different). may The file name of the extracted still image VR image is, for example, "123456.vr.jpg", and a three-letter string ".vr" is written before the extension ".jpg". When an image saved as a still image file in this way is reproduced and displayed in a VR view, the image in FIG. 10B is mapped on a hemisphere and displayed. FIG. 10D shows an example of reproducing and displaying a clipped still image VR image file in a twin-lens VR view (an example of display on the display 105 when the VR goggles are not worn).

切出し済みのVR画像が動画であれば、切出範囲内の画像を正距円筒図法ではなく円または楕円内にマッピングした映像(動画)が1つの動画の映像内の左右に(サイドバイサイドで)並べられた動画ファイルを生成して記録する。この際、切出範囲内の画像をコピーした同一の画像を、視差が無いにせよ、右目用画像、左目用画像としてそれぞれ左右に並べて記録する。このような動画をVRビューではなく通常の平面画像として表示すると図10(c)のように表示される。なお、疑似的に視差を有するように(すなわち左目用画像と右目用画像の範囲がやや異なるように)、切出し前の1つの360度のVR画像から2つの180度の範囲を切出して生成してもよい。切出し済みの動画のVR画像のファイル名は例えば“123456.vr.mp4”となり、拡張子“.mp4”の手前に3文字の文字列“.vr”が記述される。切出し済みの動画のVR画像ファイルを、2眼VRビューで再生して表示した場合のあるフレームの表示例(VRゴーグルに装着していない状態のディスプレイ105における表示例)は図10(d)に示した例と同様である。 If the clipped VR image is a video, the video (video) in which the images within the clipped range are mapped in a circle or ellipse instead of the equirectangular projection is arranged side by side in the video of one video. generate and record a video file At this time, the same image obtained by copying the image within the clipping range is recorded side by side as an image for the right eye and an image for the left eye, respectively, even if there is no parallax. When such a moving image is displayed not as a VR view but as a normal planar image, it is displayed as shown in FIG. 10(c). Two 180-degree ranges are extracted from one 360-degree VR image before extraction so as to have a pseudo parallax (that is, the ranges of the image for the left eye and the image for the right eye are slightly different). may The file name of the VR image of the clipped moving image is, for example, "123456.vr.mp4", and the three-character string ".vr" is written before the extension ".mp4". FIG. 10(d) shows a display example of a frame (display example on the display 105 when the VR goggles are not worn) when a VR image file of a cut-out moving image is reproduced and displayed in a twin-lens VR view. Similar to the example shown.

図4は、図3におけるS306の切り出し方向設定処理の一例を示すフローチャートである。切り出し方向設定処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することで実現される。 FIG. 4 is a flow chart showing an example of the extraction direction setting process of S306 in FIG. The extraction direction setting process is realized by the CPU 101 developing a program stored in the nonvolatile memory 103 in the memory 102 and executing the program.

S401では、CPU101は、タッチパネル106aに対して右スクロールの入力が行われたか否かを判定する。右スクロールの入力は、画像を右側にスクロールさせる操作であり、右方向へのスクロール指示に相当する。右スクロールの入力は、例えば右へ移動するタッチムーブや、スクロールバー(不図示)を左側へスライドさせる操作である。右スクロールの入力が行われた場合はS402に進み、右スクロールの入力が行われなかった場合はS404に進む。 In S401, the CPU 101 determines whether or not an input for right scrolling has been performed on the touch panel 106a. The right scroll input is an operation for scrolling the image to the right, and corresponds to an instruction to scroll to the right. The right scroll input is, for example, a touch move to move to the right or an operation to slide a scroll bar (not shown) to the left. If the right scroll input has been performed, the process proceeds to S402, and if the right scroll input has not been performed, the process proceeds to S404.

S402では、CPU101は、ユーザーから右スクロールの入力を受付けると、右方向に画像をスクロール(スライド)する。CPU101は、ディスプレイ105右方向へのスクロール量分の画像領域を、ディスプレイ105の左端から右方向に向かって、スクロールに応じて順次表示させる。なお、切り出し領域枠606の画面上の位置は固定であり、スクロールの入力があってもスクロールしない。 In S402, the CPU 101 scrolls (slides) the image in the right direction upon receiving an input to scroll right from the user. The CPU 101 sequentially displays an image area corresponding to the scroll amount of the display 105 rightward from the left end of the display 105 toward the right in accordance with the scrolling. Note that the position of the clipping area frame 606 on the screen is fixed, and scrolling does not occur even if there is a scroll input.

S403では、CPU101は、スクロール量分の右側の画像領域を除く左方向側の領域をスクロール量分、右方向に移動させて表示させる。すなわち、CPU101は、ディスプレイ105の矩形領域にフラット表示されたVRコンテンツを右方向にスクロールさせる。また、CPU101は、当該スクロールに応じて、VRコンテンツのうち右方向へのスクロール量分の画像領域を、矩形領域のうち右方向とは反対方向の左方向の端から右方向に向かって順次表示させる。 In S403, the CPU 101 moves the area on the left side excluding the image area on the right side by the scroll amount to the right by the scroll amount and displays it. That is, the CPU 101 scrolls the VR content displayed flat in the rectangular area of the display 105 in the right direction. Further, in accordance with the scrolling, the CPU 101 sequentially displays the image areas of the VR content corresponding to the amount of rightward scrolling from the left end of the rectangular area in the direction opposite to the rightward direction toward the rightward. Let

図7(a)~図7(e)に、S402,S403で行われるスクロールによる表示例を示す。図7(b)の右スクロール701は、図7(a)に対して右方向のスクロール入力を表している。右スクロール701が入力されると図4のS402、S403の処理が実行される。例えば、S401において、ユーザーが、ディスプレイ105の右端側に、スクロール量D1だけスクロールしたものと想定する。S402において、CPU101は、点線で囲まれたスクロール量分(D1)の画像領域7011を、ディスプレイ105の左端から右方向に向かって、順次表示する。次に、S403において、CPU101は、スクロール量分(D1)の画像領域7011を除く一点鎖線で囲まれた左側の領域7012を、スクロール量分(D1)右方向に移動させて表示させる。これらの処理が実行されると、ディスプレイ105は、図7(c)のような表示になる。 7A to 7E show examples of display by scrolling performed in S402 and S403. A right scroll 701 in FIG. 7(b) represents a scroll input in the right direction with respect to FIG. 7(a). When the right scroll 701 is input, the processes of S402 and S403 in FIG. 4 are executed. For example, in S401, it is assumed that the user scrolls to the right end of the display 105 by the scroll amount D1. In S402, the CPU 101 sequentially displays the scroll amount (D1) image area 7011 surrounded by the dotted line from the left end of the display 105 toward the right direction. Next, in S403, the CPU 101 moves the left area 7012 enclosed by the dashed line, excluding the image area 7011 by the scroll amount (D1), to the right by the scroll amount (D1) and displays it. When these processes are executed, the display 105 becomes a display as shown in FIG. 7(c).

図7(d)の右スクロール703は、図7(c)に対して右方向のスクロール入力を表している。右スクロール703が入力されると、右スクロール701を入力した場合と同様に、図4のS402、S403の処理が実行されて図7(e)の表示になる。 A right scroll 703 in FIG. 7(d) represents a scroll input in the right direction with respect to FIG. 7(c). When the right scroll 703 is input, the processing of S402 and S403 in FIG. 4 is executed in the same manner as when the right scroll 701 is input, resulting in the display of FIG. 7(e).

このように、S402,S403で行われるスクロールは、画像を右にスクロールすれば、右側の表示領域外までスクロールされて消失した部分が、表示領域の左端から右に向かって次々と進入してくるように表示される。そして、右スクロールの入力を繰り返せば突き当たることなく無限にスクロールさせることができる。すなわちVR画像601の左右の端部といった境目を意識させない、同一コンテンツの循環的スクロール表示である。このようにすることで、図6(a)の表示例では表示領域の端部に位置していた部分を、切り出し領域枠606の中央に位置させることができる。そして、その位置を中心とした180度(その位置を中心とした周囲90度の範囲)の切れ目の無い領域を切出し後のVR画像とするように指示することが可能となる。なお、循環的スクロール表示は、VR画像の任意の方位を中央に指定することができればよいので、無限に循環できる必要はなく、少なくとも1回循環できればよい。 In this manner, in the scrolling performed in S402 and S403, if the image is scrolled to the right, the portion that has been scrolled out of the display area on the right side and disappeared will enter the display area one after another from the left end to the right. is displayed. And if you repeat the right scroll input, you can scroll infinitely without bumping. That is, it is a cyclic scrolling display of the same content that does not make the user conscious of the boundary such as the left and right ends of the VR image 601 . By doing so, it is possible to position the portion positioned at the end of the display area in the display example of FIG. Then, it is possible to instruct that a continuous region of 180 degrees around that position (a range of 90 degrees around that position) be used as a VR image after clipping. In the cyclical scrolling display, it is sufficient that any orientation of the VR image can be designated as the center, so it is not necessary to be able to circulate infinitely, and it is sufficient to be able to circulate at least once.

S404では、CPU101は、タッチパネル106aに対して、右方向とは反対側への左スクロールの入力が行われたか否かを判定する。左スクロールの入力は、画像を左側にスクロールさせる操作であり、左方向へのスクロール指示に相当する。左スクロールの入力は、例えば左へ移動するタッチムーブや、スクロールバー(不図示)を右側へスライドさせる操作である。左スクロールの入力が行われた場合はS405に進み、右スクロールの入力が行われなかった場合はS407に進む。 In S404, the CPU 101 determines whether or not an input for scrolling to the left in the opposite direction to the right direction has been performed on the touch panel 106a. The left scroll input is an operation for scrolling the image leftward, and corresponds to a leftward scroll instruction. The left scroll input is, for example, a touch move to move to the left or an operation to slide a scroll bar (not shown) to the right. If the left scroll input is performed, the process proceeds to S405, and if the right scroll input is not performed, the process proceeds to S407.

S405では、CPU101は、ユーザーから左スクロールの入力を受付けると、左方向に画像をスクロール(スライド)する。CPU101は、ディスプレイ105左方向へのスクロール量分の画像領域を、ディスプレイ105の右端から左方向に向かって、スクロールに応じて順次表示させる。なお、切り出し領域枠606の画面上の位置は固定であり、スクロールの入力があってもスクロールしない。 In S405, the CPU 101 scrolls (slides) the image in the left direction upon receiving an input for left scrolling from the user. The CPU 101 sequentially displays an image area corresponding to the amount of leftward scrolling of the display 105 from the right end of the display 105 toward the left in accordance with the scrolling. Note that the position of the clipping area frame 606 on the screen is fixed, and scrolling does not occur even if there is a scroll input.

S406では、CPU101は、スクロール量分の左側の画像領域を除く右方向側の領域をスクロール量分、左方向に移動させて表示させる。すなわち、CPU101は、ディスプレイ105の矩形領域にフラット表示されたVRコンテンツを左方向にスクロールさせる。また、CPU101は、当該スクロールに応じて、VRコンテンツのうち左方向へのスクロール量分の画像領域を、矩形領域のうち左方向とは反対方向の右方向の端から右方向に向かって順次表示させる。 In S406, the CPU 101 moves the area on the right side excluding the image area on the left side by the scroll amount to the left by the scroll amount and displays it. That is, the CPU 101 scrolls the VR content displayed flat in the rectangular area of the display 105 in the left direction. Further, in accordance with the scrolling, the CPU 101 sequentially displays the image areas corresponding to the leftward scrolling amount of the VR content from the right end of the rectangular area in the direction opposite to the leftward direction toward the right. Let

図8(a)~図8(e)に、S402,S403で行われるスクロールによる表示例を示す。図8(b)の左スクロール801は、図8(a)に対して左方向のスクロール入力
を表している。左スクロール801が入力されると図4のS405、S406の処理が実行される。例えば、S404において、ユーザーが、図7(b)とは反対にディスプレイ105の左端側に、スクロール量D2だけスクロールしたものと想定する。S405において、CPU101は、点線で囲まれたスクロール量分(D2)の画像領域8011を、ディスプレイ105の右端から左方向に向かって、順次表示する。次に、S406において、CPU101は、スクロール量分(D2)の画像領域8011を除く一点鎖線で囲まれた左側の領域8012を、スクロール量分(D2)左方向に移動させて表示させる。これらの処理が実行されると、ディスプレイ105は、図8(c)のような表示になる。
FIGS. 8A to 8E show display examples by scrolling performed in S402 and S403. A left scroll 801 in FIG. 8(b) represents a scroll input in the left direction with respect to FIG. 8(a). When left scroll 801 is input, the processing of S405 and S406 in FIG. 4 is executed. For example, in S404, it is assumed that the user scrolls to the left end side of the display 105 by the scroll amount D2, contrary to FIG. 7B. In S405, the CPU 101 sequentially displays the image area 8011 of the scroll amount (D2) surrounded by the dotted line from the right end of the display 105 toward the left. Next, in S406, the CPU 101 moves the left area 8012 surrounded by the dashed line, excluding the image area 8011 by the scroll amount (D2), to the left by the scroll amount (D2) and displays it. When these processes are executed, the display 105 becomes a display as shown in FIG. 8(c).

図8(d)の左スクロール803は、図8(c)に対して左方向のスクロール入力を表している。左スクロール803が入力されると、左スクロール801を入力した場合と同様に、図4のS405、S406の処理が実行されて図8(e)の表示になる。 A left scroll 803 in FIG. 8(d) represents a scroll input in the left direction with respect to FIG. 8(c). When the left scroll 803 is input, the processing of S405 and S406 in FIG. 4 is executed as in the case of inputting the left scroll 801, resulting in the display of FIG.

このように、S404,S405で行われるスクロールは、画像を左にスクロールすれば、左側の表示領域外までスクロールされて消失した部分が、表示領域の右端から左に向かって次々と進入してくるように表示される。そして、左スクロールの入力を繰り返せば突き当たることなく無限にスクロールさせることができる。すなわちVR画像601の左右の端部といった境目を意識させない、同一コンテンツの循環的スクロール表示である。このようにすることで、図6(a)の表示例では表示領域の端部に位置していた部分を、切り出し領域枠606の中央に位置させることができる。そして、その位置を中心とした180度(その位置を中心とした周囲90度の範囲)の切れ目の無い領域を切出し後のVR画像とするように指示することが可能となる。 In this way, in the scrolling performed in S404 and S405, if the image is scrolled to the left, the portion that has been scrolled out of the display area on the left side and disappeared will enter one after another from the right end of the display area to the left. is displayed. By repeatedly inputting the left scroll, it is possible to scroll infinitely without bumping into each other. That is, it is a cyclic scrolling display of the same content that does not make the user conscious of the boundary such as the left and right ends of the VR image 601 . By doing so, it is possible to position the portion positioned at the end of the display area in the display example of FIG. Then, it is possible to instruct that a continuous region of 180 degrees around that position (a range of 90 degrees around that position) be used as a VR image after clipping.

S407では、CPU101は、リセットボタン610に対するタッチ操作があったか否か、すなわち、切り出し方向のリセット指示の操作を受付けたか否かを判定する。リセット指示が行われた場合にはS408に進み、リセット指示が行われていなかった場合にはS409に進む。リセットされた切り出し方向位置とは、図3のS304の処理時に設定されている切り出し方向の設定である。S408では、CPU101は、切り出し方向を初期位置に設定する。 In S407, the CPU 101 determines whether or not there has been a touch operation on the reset button 610, that is, whether or not an operation for resetting the cropping direction has been received. If the reset instruction has been issued, the process proceeds to S408, and if the reset instruction has not been issued, the process proceeds to S409. The reset orientation position is the setting of the orientation set during the process of S304 in FIG. In S408, the CPU 101 sets the cutout direction to the initial position.

S409では、CPU101は、切り出し決定ボタン611に対するタッチ操作があったか否か、すなわち切り出し方向の決定指示の操作を受付けたか否かを判定する。切り出し方向の決定指示が行われた場合には、処理を終了し、切り出し方向の決定指示が行われていない場合はS401に進む。S409でYesと判定された場合は、S308でもYesと判定されるものとする。すなわち、本実施形態においては切り出し方向の決定指示と切り出し指示は同じ指示である。ただし、切り出し方向の決定指示と切り出し指示を別の操作によって行うものとしてもよい。例えば、切り出し方向の決定指示があったことに応じて切り出し後のVR画像の範囲を示すプレビュー表示を行い、その後、切り出し指示が行われたことによって切り出し済みのVR画像の画像ファイルを生成するようにしても良い。 In S<b>409 , the CPU 101 determines whether or not there is a touch operation on the cutout determination button 611 , that is, whether or not an operation to set the cutout direction has been received. If an instruction to determine the extraction direction has been issued, the process ends, and if no instruction to determine the extraction direction has been issued, the process advances to step S401. If S409 determines Yes, then S308 also determines Yes. That is, in the present embodiment, the instruction to determine the cutout direction and the cutout instruction are the same instruction. However, the determination instruction of the extraction direction and the extraction instruction may be performed by separate operations. For example, a preview display showing the range of the VR image after extraction is performed in response to an instruction to determine the extraction direction, and then an image file of the extracted VR image is generated in response to the extraction instruction. You can do it.

なお、S401~S406で説明した左右方向へのスクロールによって、切り出し前のVR画像のうち、切り出し後のVR画像の範囲の方位を指定することができる。切り出し後のVR画像の仰俯角は、天頂から天底までの、水平方向(天頂から90度の方向。天頂補正後であれば補正後の天頂から90度の方向)を中心とした仰俯角180度の範囲に固定される。このようにすることで、切り出し範囲の指定の煩雑さを防ぐことができる。また、切り出し後のVR画像は視聴するユーザーから見て正面(水平方向)を中心とした180度とすることができ、天頂を超えた背後側の範囲や、天底を超えた背後側の範囲を含まないようにすることができる。これによってVRビューで視聴した際にのけぞって背後を見たりするような無理な姿勢での視聴を防止することができる。 By scrolling in the horizontal direction described in S401 to S406, it is possible to specify the orientation of the range of the VR image after clipping out of the VR image before clipping. The elevation/depression angle of the cropped VR image is an elevation/depression angle of 180 from the zenith to the nadir centered on the horizontal direction (the direction of 90 degrees from the zenith. If the zenith has been corrected, the direction of 90 degrees from the zenith after correction). Fixed to a range of degrees. By doing so, it is possible to prevent the complexity of specifying the extraction range. In addition, the VR image after clipping can be 180 degrees centered on the front (horizontal direction) as seen from the viewing user, and the rear range beyond the zenith and the rear range beyond the nadir can be excluded. This makes it possible to prevent viewing in an unreasonable posture such as leaning back and looking behind when viewing in a VR view.

なお、天頂切り出しボタン612がタッチされた場合は、切り出し範囲は、切り出し領域枠606が示す範囲(ユーザーが指定した方位)にかかわらず、天頂(天頂補正していれば補正後の天頂)を中心として全方位に90度の範囲とする。これは、仮想球体を上下に等分した場合の上側の半球範囲である。また、天底切り出しボタン613がタッチされた場合は、切り出し範囲は、切り出し領域枠606が示す範囲(ユーザーが指定した方位)にかかわらず、天底(天頂補正していれば補正後の天底)を中心として全方位に90度の範囲とする。これは、仮想球体を上下に等分した場合の下側の半球範囲である。天頂切り出しボタン612、天底切り出しボタン613がタッチされた場合は、切り出し指示もあったものとみなし、図3のS309の切り出し済みのVR画像のファイル生成まで行われる。このようにすることで、切り出し前の仮想球体が斜めに切られた半球が生成されるような不自然な切り出しを防止することができる。すなわち、水平線より上側の空全体を見渡せる切り出し後のVR画像や、天井から見た室内全体、テーブルの上から見たテーブル上の料理全体を見渡せる切り出し後のVR画像を容易に生成することができる。 Note that when the crop zenith button 612 is touched, the cropping range is centered on the zenith (corrected zenith if corrected) regardless of the range indicated by the cropping area frame 606 (orientation specified by the user). , the range is 90 degrees in all directions. This is the upper hemispheric range when the phantom sphere is equally divided vertically. Also, when the crop nadir button 613 is touched, the cropping range is set to the nadir (if the zenith is corrected, the corrected nadir) regardless of the range indicated by the cropping area frame 606 (orientation specified by the user). ) is the center, and the range is 90 degrees in all directions. This is the lower hemispheric range when the phantom sphere is equally divided vertically. When the zenith clipping button 612 or the nadir clipping button 613 is touched, it is assumed that a clipping instruction has also been given, and processing is performed up to file generation of the clipped VR image in S309 of FIG. By doing so, it is possible to prevent unnatural clipping such as generating a hemisphere obtained by obliquely cutting the phantom sphere before clipping. That is, it is possible to easily generate a cropped VR image that overlooks the entire sky above the horizon, a cropped VR image that overlooks the entire room as seen from the ceiling, and the entire dish on the table as seen from above the table. .

図5は、図3におけるS307のVR端領域確認処理の一例を示すフローチャートである。VR端領域確認処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することで実現される。VR端領域確認処理は、切り出される領域の境界および境界を含む領域をVR表示することにより、切り出されるVR画像の端領域を、ユーザーが確認できるようにする処理である。 FIG. 5 is a flow chart showing an example of the VR edge region confirmation processing of S307 in FIG. The VR edge area confirmation process is implemented by the CPU 101 developing a program stored in the nonvolatile memory 103 into the memory 102 and executing the program. The VR edge area confirmation process is a process that allows the user to check the edge area of the clipped VR image by displaying the boundary of the clipped area and the area including the boundary in VR.

S501では、CPU101は、切り出し範囲の端部の確認指示として、表示されたVR画像の表示領域のうち、前述の中央領域ではなく、切り出し領域607の左右の端領域をタッチされたか否かを判定する。左右の端領域とは、切り出し領域607の左右境界である切り出し領域枠606の左辺を含む左辺より所定幅以内の領域(左端領域)、及び、切り出し領域枠606の右辺を含む→辺より所定幅以内の領域(右端領域)である。左右の端領域をタッチされた場合はS502に進み、端領域をタッチされていない場合は、処理は終了する。切り出し範囲の端部の確認指示はこれに限るものではない。例えば、切り出し範囲の端部の確認指示のためのアイコンを表示し、このアイコンがタッチされたことを切り出し範囲の端部の確認指示としてもよい。また、表示されたVR画像の表示領域のうち、切り出し領域枠606の左辺より左側、あるいは切り出し領域枠606の右辺より右側がタッチされたことを切り出し範囲の端部の確認指示としてもよい。 In S501, the CPU 101 determines whether or not the right and left end regions of the cutout region 607 are touched, not the above-described center region, in the display region of the displayed VR image, as an instruction to confirm the ends of the cutout range. do. The left and right end regions are regions (left end regions) within a predetermined width from the left side including the left side of the cutout region frame 606 that is the left and right boundary of the cutout region 607, and the right side of the cutout region frame 606 → predetermined width from the side. within (rightmost region). If the left and right end regions have been touched, the process proceeds to S502, and if the end regions have not been touched, the processing ends. The confirmation instruction for the edge of the clipping range is not limited to this. For example, an icon may be displayed for instructing confirmation of the end of the extraction range, and touching the icon may be used as an instruction to confirm the end of the extraction range. Further, the confirmation of the edge of the cutout range may be indicated by touching the left side of the left side of the cutout area frame 606 or the right side of the right side of the cutout area frame 606 in the display area of the displayed VR image.

S502では、CPU101は、S301で取得したVR画像を読み込む。また、VR画像の属性情報として付帯する映像範囲(有効映像範囲)を示す情報を取得する。有効映像範囲を示す情報とは、VR画像が、上下方向、左右方向にどの角度範囲分の有効な映像を有しているかという情報である。有効映像範囲を示す情報は、VR画像の有効映像範囲を特定出来る情報であればよく、画角、視野角、方位角、仰角、左右の画素数や座標などの位置情報であってもよい。また、有効映像範囲を示す情報は、VR画像を撮像したカメラの機種情報(機種を特定することで撮影可能な範囲を特定可能)や撮影時のズームの情報等でもよい。 In S502, the CPU 101 reads the VR image acquired in S301. Also, information indicating a video range (effective video range) attached as attribute information of the VR image is acquired. The information indicating the effective image range is information indicating which angular range of effective image the VR image has in the vertical direction and the horizontal direction. The information indicating the effective video range may be any information that can specify the effective video range of the VR image, and may be positional information such as angle of view, viewing angle, azimuth angle, elevation angle, number of left and right pixels, and coordinates. The information indicating the effective image range may be model information of the camera that captured the VR image (specifying the model makes it possible to specify the shootable range), zoom information at the time of shooting, or the like.

CPU101は、有効映像範囲を示す情報を取得すると、上下左右360度との差分で無効映像範囲(非映像範囲)も特定(算出)する。なお、逆に、VR画像の属性情報から無効映像範囲を示す情報を取得し、そこから有効映像範囲を算出してもよいし、有効映像範囲を示す情報と無効映像範囲を示す情報の双方をVR画像の属性情報から取得してもよい。 When the information indicating the effective video range is acquired, the CPU 101 also specifies (calculates) the invalid video range (non-video range) based on the difference between 360 degrees vertically and horizontally. Conversely, information indicating the invalid video range may be obtained from the attribute information of the VR image, and the effective video range may be calculated from the information. It may be acquired from the attribute information of the VR image.

S503では、CPU101は、前述の右端領域がタッチされたか否かを判定する。右端領域がタッチされた場合はS504に進み、右端領域がタッチされていない場合はS5
05に進む。
In S503, the CPU 101 determines whether or not the aforementioned right end area has been touched. If the right end area is touched, the process proceeds to S504; if the right end area is not touched, S5
Go to 05.

S504では、CPU101は、VR画像のうち切り出し領域枠606の範囲内となっている表示範囲に基づき、S502で取得したVR画像の右端領域の表示処理を行う。VR画像の元データ(元画像)は、例えば正距円筒図法を用いた歪んだ画像であり、各画素の位置が球体の表面の座標と対応づけることが可能な形式の画像である。このVR画像の元画像を球体にマッピングし、一部を切り出して表示する。すなわち、S504で表示される画像はVR画像の一部を切り出して拡大した画像であり、かつ、元画像の歪みを除去(あるいは低減)した画像である。この場合、CPU101は、表示するVR画像を、切り出し領域枠606で囲まれた領域の中央線上を中心として左右に90°(計180°)の方位の範囲、及び、天頂から天底までの仰俯角の範囲を有効範囲とする。CPU101は、それ以外の範囲については、有効範囲外(無効範囲、切り出し範囲外となる除外範囲)と設定する。CPU101は、この有効範囲と無効範囲との境界線上を中心に右側端領域を表示することで、右側の有効範囲と無効範囲の境界線上の端の状況確認ができる。 In S504, the CPU 101 performs display processing for the right end area of the VR image acquired in S502, based on the display range within the cutout area frame 606 of the VR image. The original data (original image) of the VR image is, for example, a distorted image using equirectangular projection, and is an image of a format in which the position of each pixel can be associated with the coordinates of the surface of a sphere. The original image of this VR image is mapped onto a sphere, and a part of it is cut out and displayed. That is, the image displayed in S504 is an image obtained by clipping and enlarging a part of the VR image, and is an image from which the distortion of the original image has been removed (or reduced). In this case, the CPU 101 displays the VR image to be displayed in a range of 90° left and right (180° in total) around the center line of the area surrounded by the clipping area frame 606, and an elevation from the zenith to the nadir. The effective range is the range of depression angles. The CPU 101 sets other ranges as outside the valid range (invalid range, exclusion range outside the extraction range). The CPU 101 displays the right end area centering on the boundary line between the valid range and the invalid range, so that the state of the edge on the boundary line between the valid range and the invalid range on the right side can be confirmed.

S505では、CPU101は、VR画像のうち切り出し領域枠606の範囲内となっている表示範囲に基づき、S502で取得したVR画像の左端領域の表示処理を行う。表示方法はS504と同じである。ここでは有効範囲と無効範囲の境界線上を中心に左端領域を表示することで、左側の有効範囲と無効範囲の境界線上の端の状況確認ができる。 In S505, the CPU 101 performs display processing of the left end area of the VR image acquired in S502, based on the display range within the cutout area frame 606 of the VR image. The display method is the same as in S504. Here, by displaying the left end area centering on the boundary line between the valid range and the invalid range, it is possible to check the state of the edge on the border line between the valid range and the invalid range on the left side.

S506では、CPU101は、タッチパネル106aから通知された情報に基づいて、タッチムーブが検出されたか否かを判定する。タッチムーブが検出された場合はS507へ進み、タッチムーブが検出されていない場合はS508へ進む。 In S506, the CPU 101 determines whether a touch move has been detected based on information notified from the touch panel 106a. If the touch-move is detected, the process proceeds to S507, and if the touch-move is not detected, the process proceeds to S508.

S507では、CPU101は、タッチムーブによるスライド操作の方向(タッチムーブの方向)に応じて、VR画像の表示範囲を変更する。例えば、タッチムーブの方向が左方向と判定された場合にVR画像の表示範囲を左方向へタッチムーブされた量だけずらす(スライドする)ことで、ユーザーはVR画像自体を動かすような操作感で操作することが出来る。この時、切り出し範囲外となる領域のディスプレイ105における表示位置は固定である。したがって、タッチムーブによって、切り出し範囲外となる領域と、切り出し範囲内となる表示されている範囲との相対関係がずらされ、切り出し前のVR画像にたいする切り出し範囲(切り出し方向)が変更される。このようにして、切り出し範囲の境界を確認しながら、切り出し範囲内にどこまで収めるかを微調整して切り出し範囲を設定することができる。 In S507, the CPU 101 changes the display range of the VR image according to the direction of the slide operation by touch move (direction of touch move). For example, when the touch-move direction is determined to be leftward, the display range of the VR image is shifted (slid) to the left by the amount of the touch-move. can be operated. At this time, the display position on the display 105 of the area outside the cutout range is fixed. Therefore, by touch-move, the relative relationship between the area outside the cutout range and the displayed range inside the cutout range is shifted, and the cutout range (cutout direction) for the VR image before the cutout is changed. In this way, while confirming the boundaries of the clipping range, it is possible to set the clipping range by finely adjusting how far to fit within the clipping range.

S508では、CPU101は、タッチパネル106aに対して切り出し指示の操作があったか否かを判定する。切り出し指示があった場合はS509に進み、切り出し指示がなかった場合にはS510へ処理が進む。 In S<b>508 , the CPU 101 determines whether or not there is an operation for instructing extraction on the touch panel 106 a. If there is a cutting instruction, the process proceeds to S509, and if there is no cutting instruction, the process proceeds to S510.

S509では、CPU101は、S508で指定した切り出し方向に180°の範囲で画像を切り出して、VR180°フォーマットで画像を記録媒体108に保存する。生成される画像ファイルはS309で説明したものと同様である。 In S509, the CPU 101 cuts out the image within a range of 180° in the cutout direction specified in S508, and saves the image in the recording medium 108 in the VR180° format. The generated image file is the same as that described in S309.

S510では、CPU101は、タッチパネル106aから通知された情報に基づいて、戻るボタンのタッチ操作により戻る指示が行われたか否かを判定する。戻る指示が行われた場合は、S511へ処理が進み、戻る指示が行われていない場合は、S506へ処理を戻す。 In S510, the CPU 101 determines whether or not a return instruction has been given by a return button touch operation, based on information notified from the touch panel 106a. If the return instruction has been issued, the process proceeds to S511, and if the return instruction has not been issued, the process returns to S506.

S511では、CPU101は、S502で取得したVR画像を読みこみ、VR画像の属性情報として付帯する映像範囲(有効映像範囲)を示す情報を取得して、有効映像範囲
を矩形に収めるフラット表示でVR画像を表示する。S507で表示範囲を変更した場合、フラット表示する画像の中心位置は、変更後の表示範囲の中央の情報に基づいて設定される。表示後、VR端領域確認処理を終了する。
In S511, the CPU 101 reads the VR image acquired in S502, acquires information indicating the video range (effective video range) attached as attribute information of the VR image, and displays the VR image in a flat display that fits the effective video range in a rectangle. Display an image. When the display range is changed in S507, the center position of the image displayed flat is set based on the information about the center of the display range after the change. After the display, the VR edge region confirmation processing ends.

図9を用いて、VR端領域確認処理の端確認表示について説明をする。この表示は、図5のS504及びS505で行われる表示である。 The edge confirmation display of the VR edge area confirmation process will be described with reference to FIG. This display is the display performed in S504 and S505 of FIG.

図9(a)は、VR画像をVR表示した場合の右端側を表示した状態を示す図である。図9(a)は、例えば、図6(c)において、切り出し領域枠606の右側の枠の上または右側の非切り出し領域608をタッチすることで表示される。切り出し領域枠606の右側の枠の上または右側の非切り出し領域608をタッチすることは、ユーザーからの「確認指示」の一例である。確認指示は、切り出し領域枠606で囲まれた領域において確認対象となる境界または境界を含む領域を指定する操作である。右側有効範囲901及び無効範囲902がVR表示(VRビュー)で表示されている。VR表示(VRビュー)は、仮想球体にマッピングした表示形態であり、フラット表示からは変形された表示形態である。従って、フラット表示では歪曲していた部分が、歪曲が補正された形状で正確に確認することができる。無効範囲902は、黒色、白色、パターン表示などによりマスキングをして表示されてもよい。境界をほぼ中央に表示することで、VR画像の右側境界線がどのような状態になっているか確認が可能である。戻るボタン903、切り出しボタン904を無効範囲902上に配置することで、ユーザーは、右側有効範囲901及びVR画像の右側境界線を含む領域を確認し、境界を識別することが可能である。 FIG. 9(a) is a diagram showing a state in which the right end side is displayed when a VR image is VR-displayed. FIG. 9A is displayed, for example, by touching the top of the right frame of the cropping area frame 606 or the right non-cutting area 608 in FIG. 6C. Touching the non-cropped area 608 on the right side of the cropped area frame 606 or on the right side is an example of a "confirmation instruction" from the user. The confirmation instruction is an operation of designating a boundary to be confirmed or an area including the boundary in the area surrounded by the clipping area frame 606 . A right valid range 901 and an invalid range 902 are displayed in VR display (VR view). The VR display (VR view) is a display form mapped onto a virtual sphere, and is a display form deformed from the flat display. Therefore, the portion that was distorted in the flat display can be accurately confirmed in the shape in which the distortion is corrected. The invalid range 902 may be displayed by masking with black, white, pattern display, or the like. By displaying the boundary almost in the center, it is possible to check the condition of the right boundary line of the VR image. By arranging the return button 903 and the clipping button 904 on the invalid range 902, the user can confirm the area including the right valid range 901 and the right border line of the VR image, and can identify the border.

図9(b)は、VR画像をVR表示した場合の左端側を表示した状態を示す図である。図9(b)は、例えば、図6(c)において、切り出し領域枠606の左側の枠の上または左側の非切り出し領域608をタッチすること(確認指示)で表示される。左側有効範囲905及び無効範囲906がVR表示で表示されている。無効範囲906は、黒色、白色、パターン表示などによりマスキングをして表示されてもよい。境界をほぼ中央に表示することで、VR画像の左側境界線がどのような状態になっているか確認が可能である。図9(a)と同様に、戻るボタン903、切り出しボタン904を無効範囲906上に配置することで、ユーザーは、左側有効範囲905及びVR画像の左側境界線を含む領域を確認し、境界を識別することが可能である。 FIG. 9(b) is a diagram showing a state where the left end side is displayed when the VR image is VR-displayed. FIG. 9(b) is displayed, for example, by touching (confirmation instruction) the non-cutout area 608 on the left side of the cutout area frame 606 or on the left side of the cutout area frame 606 in FIG. 6(c). A left effective area 905 and an ineffective area 906 are displayed in VR display. The invalid range 906 may be displayed by masking with black, white, pattern display, or the like. By displaying the boundary almost in the center, it is possible to check the state of the left boundary line of the VR image. By arranging the return button 903 and the clipping button 904 on the invalid range 906 as in FIG. 9A, the user can check the left valid range 905 and the area including the left border of the VR image, It is possible to identify

ユーザーからの確認指示として、切り出し領域枠606の枠の上または非切り出し領域608をタッチする例を示したが、これに限られない。例えば、CPU101は、切り出し領域枠606の枠で囲まれた領域において確認対象となる境界を指定するためのアイコンをタッチパネル106aに表示してもよい。ユーザーは、アイコンをタッチすることで、図9(a)または図9(b)の画面により境界を含む領域を確認し、境界を識別することができる。図9(a)または図9(b)の画面は、ユーザーが境界の情報を確認し、境界を識別するために表示される仮情報である。 Although an example of touching the top of the cropping area frame 606 or the non-cutting area 608 as a confirmation instruction from the user has been shown, this is not restrictive. For example, the CPU 101 may display, on the touch panel 106a, an icon for designating a boundary to be checked in the area surrounded by the cutout area frame 606. FIG. By touching the icon, the user can confirm the area including the boundary on the screen of FIG. 9(a) or 9(b) and identify the boundary. The screen of FIG. 9(a) or FIG. 9(b) is provisional information displayed for the user to confirm the boundary information and identify the boundary.

以上のように、上述の実施形態によればVR画像の180°切り出しをフラット表示から行う場合に、フラット表示上の画像端の方向を切り出し後の中央領域に設定することが出来る。 As described above, according to the above-described embodiment, when the 180° clipping of the VR image is performed from the flat display, the direction of the edge of the image on the flat display can be set to the central region after clipping.

さらに、VR画像が切り出し編集状態になっていない場合は、左右のスクロールは画像送りすることによって、ユーザーの操作性を向上させることも出来る。 Furthermore, when the VR image is not cut out and edited, the user's operability can be improved by scrolling left and right by image feed.

なお、CPU101が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 Note that the various controls described above that are performed by the CPU 101 may be performed by one piece of hardware, or a plurality of pieces of hardware (for example, a plurality of processors or circuits) may share the processing to control the entire apparatus. may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Moreover, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention can be applied to the present invention. included. Furthermore, each embodiment described above merely shows one embodiment of the present invention, and it is also possible to combine each embodiment as appropriate.

また、上述した実施形態においては、本発明をスマートフォンに適用した場合を例にして説明したが、これはこの例に限定されずVR画像を表示部に表示することができる装置であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、映像プレーヤーなどに適用可能である。また、本発明は、デジタルカメラ、テレビジョン装置、投影装置、タブレット端末、AIスピーカー、家電装置、車載装置、医療機器などにも適用可能である。
<その他の実施形態>
In addition, in the above-described embodiment, the case where the present invention is applied to a smartphone has been described as an example, but this is not limited to this example, and any device that can display a VR image on the display unit can be applied. is. For example, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printers equipped with displays, digital photo frames, music players, game machines, electronic book readers, video players, and the like. In addition, the present invention can also be applied to digital cameras, television devices, projection devices, tablet terminals, AI speakers, home appliances, vehicle-mounted devices, medical devices, and the like.
<Other embodiments>

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100:表示制御装置 101:CPU 105:ディスプレイ 106:操作部
100: Display control device 101: CPU 105: Display 106: Operation unit

Claims (18)

第1の画面において、VRコンテンツの第1の映像範囲を矩形に収めるフラット表示を行い、第2の画面において、矩形領域にフラット表示された前記VRコンテンツ上に、前記VRコンテンツから切り出される領域を示すインジケータを表示するように制御する表示制御手段と、
ユーザーからの切り出し範囲の設定指示に応じて前記第1の画面から前記第2の画面に切り替える切替手段と、
前記第2の画面において、第1の操作に応じて、前記インジケータをスクロールさせることなく、フラット表示された前記VRコンテンツを第1の方向にスクロールさせるとともに、当該スクロールに応じて、前記VRコンテンツのうち前記第1の方向へのスクロール量分の画像領域を、前記矩形領域のうち前記第1の方向とは反対方向の第2の方向の端から前記第1の方向に向かって順次表示させる、同一コンテンツの循環的スクロール表示を行い、
前記第1の画面において、前記第1の操作があっても前記循環的スクロール表示は行わないように制御する制御手段と、
前記第2の画面において前記インジケータが示す領域に基づいて、前記VRコンテンツのうち前記第1の映像範囲よりも狭い第2の映像範囲を有する編集済VRコンテンツを生成する生成手段と、
を有することを特徴とする電子機器。
On the first screen, a flat display is performed in which the first image range of the VR content is contained in a rectangle, and on the second screen, an area cut out from the VR content is displayed on the VR content that is flatly displayed in the rectangular area. display control means for controlling to display an indicator showing
switching means for switching from the first screen to the second screen in response to an instruction to set a cutout range from a user;
In the second screen, scrolling the flat-displayed VR content in a first direction without scrolling the indicator according to a first operation, and scrolling the VR content according to the scrolling. The image area corresponding to the scroll amount in the first direction is sequentially displayed in the first direction from the end of the rectangular area in the second direction opposite to the first direction. Circular scroll display of the same content,
control means for controlling not to perform the cyclic scrolling display on the first screen even if the first operation is performed;
generating means for generating edited VR content having a second video range narrower than the first video range of the VR content, based on the area indicated by the indicator on the second screen;
An electronic device comprising:
前記制御手段は、フラット表示した前記VRコンテンツにおいて前記インジケータが示す範囲の中央と、前記第2の映像範囲の中央とが、一致またはほぼ一致する
ことを特徴とする請求項1に記載の電子機器。
2. The electronic device according to claim 1, wherein the control means causes the center of the range indicated by the indicator in the flat-displayed VR content to match or substantially match the center of the second image range. .
前記インジケータは前記矩形領域よりも狭い範囲を示す
ことを特徴とする請求項1または2に記載の電子機器。
3. The electronic device according to claim 1, wherein the indicator indicates a range narrower than the rectangular area.
前記第1の方向は、前記VRコンテンツに対して右方向または左方向である
ことを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
4. The electronic device according to any one of claims 1 to 3, wherein the first direction is a rightward direction or a leftward direction with respect to the VR content.
前記第2の画面における前記第1の方向への前記循環的スクロール表示に応じて、前記第1の映像範囲を仮想球体にマッピングした場合の前記第2の映像範囲の方位が変わる
ことを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
The orientation of the second image range when the first image range is mapped onto a virtual sphere changes according to the cyclic scrolling display in the first direction on the second screen. The electronic device according to any one of claims 1 to 4.
前記制御手段は、前記第2の画面において、前記第1の方向と垂直な第3の方向へのスクロールは行わない
ことを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。
6. The electronic device according to claim 1, wherein the control means does not scroll the second screen in a third direction perpendicular to the first direction. .
前記第2の画面における前記VRコンテンツのスクロールに応じた、前記第1の映像範囲を仮想球体にマッピングした場合の前記第2の映像範囲の仰角または俯角の変更は行わない
ことを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
The elevation angle or the depression angle of the second image range when the first image range is mapped onto the virtual sphere is not changed according to the scrolling of the VR content on the second screen. Item 7. The electronic device according to any one of Items 1 to 6.
前記第1の操作は、前記矩形領域にタッチして前記第1の方向にタッチ位置を移動するスライド操作である
ことを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 7, wherein the first operation is a slide operation of touching the rectangular area and moving the touch position in the first direction.
前記制御手段は、前記ユーザーから前記設定指示を受け付けた際に、天頂補正をするか否かを前記ユーザーに確認する、
ことを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。
When receiving the setting instruction from the user, the control means confirms with the user whether or not to perform zenith correction.
The electronic device according to any one of claims 1 to 8, characterized in that:
前記制御手段は、前記VRコンテンツの天頂を中心とした切り出しまたは天底を中心とした切り出しの指示を、スクロールさせる操作を伴わない操作により受け付ける
ことを特徴とする請求項1乃至9のいずれか1項に記載の電子機器。
10. The control unit according to any one of claims 1 to 9, wherein the control unit receives an instruction to cut out the VR content centered on the zenith or the nadir by an operation that does not involve a scrolling operation. The electronic equipment described in the paragraph.
前記生成手段で生成した編集済VRコンテンツを格納したファイルを生成して記録する記録手段をさらに有することを特徴とする請求項1乃至10のいずれか1項に記載の電子機器。 11. The electronic device according to any one of claims 1 to 10, further comprising recording means for generating and recording a file containing the edited VR content generated by said generating means. 前記記録手段は、前記第2の映像範囲に基づく複数の画像を格納した1つの静止画ファイルを生成することを特徴とする請求項11に記載の電子機器。 12. The electronic device according to claim 11, wherein said recording means generates one still image file storing a plurality of images based on said second video range. 前記静止画ファイルのファイル名では、拡張子の手前に文字列“.vr”が記述されることを特徴とする請求項12に記載の電子機器。 13. The electronic device according to claim 12, wherein the file name of the still image file includes a character string ".vr" before the extension. 前記記録手段は、前記第2の映像範囲に基づく複数の動画を並べた1つの動画ファイルを生成することを特徴とする請求項11乃至13のいずれか1項に記載の電子機器。 14. The electronic device according to any one of claims 11 to 13, wherein said recording means generates one moving image file in which a plurality of moving images based on said second image range are arranged. 前記動画ファイルのファイル名では、拡張子の手前に文字列“.vr”が記述されることを特徴とする請求項14に記載の電子機器。 15. The electronic device according to claim 14, wherein the file name of the moving image file includes a character string ".vr" before the extension. 第1の画面において、VRコンテンツの第1の映像範囲を矩形に収めるフラット表示を行い、第2の画面において、矩形領域にフラット表示された前記VRコンテンツ上に、前記VRコンテンツから切り出される領域を示すインジケータを表示するように制御する表示制御ステップと、
ユーザーからの切り出し範囲の設定指示に応じて前記第1の画面から前記第2の画面に切り替える切替ステップと、
前記第2の画面において、第1の操作に応じて、前記インジケータをスクロールさせることなく、フラット表示された前記VRコンテンツを第1の方向にスクロールさせるとともに、当該スクロールに応じて、前記VRコンテンツのうち前記第1の方向へのスクロール量分の画像領域を、前記矩形領域のうち前記第1の方向とは反対方向の第2の方向の端から前記第1の方向に向かって順次表示させる、同一コンテンツの循環的スクロール表示を行い、
前記第1の画面において、前記第1の操作があっても前記循環的スクロール表示は行わないように制御する制御ステップと、
前記第2の画面において前記インジケータが示す領域に基づいて、前記VRコンテンツのうち前記第1の映像範囲よりも狭い第2の映像範囲を有する編集済VRコンテンツを生成する生成ステップと、
を有することを特徴とする電子機器の制御方法。
On the first screen, a flat display is performed in which the first image range of the VR content is contained in a rectangle, and on the second screen, an area cut out from the VR content is displayed on the VR content that is flatly displayed in the rectangular area. a display control step for controlling to display an indicator showing
a switching step of switching from the first screen to the second screen in response to a user's instruction to set an extraction range;
In the second screen, scrolling the flat-displayed VR content in a first direction without scrolling the indicator according to a first operation, and scrolling the VR content according to the scrolling. The image area corresponding to the scroll amount in the first direction is sequentially displayed in the first direction from the end of the rectangular area in the second direction opposite to the first direction. Circular scroll display of the same content,
a control step of controlling not to perform the cyclic scrolling display on the first screen even if the first operation is performed;
a generation step of generating edited VR content having a second video range narrower than the first video range of the VR content, based on the area indicated by the indicator on the second screen;
A control method for an electronic device, comprising:
コンピュータを、請求項1乃至15のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 15. コンピュータを、請求項1乃至15のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
A computer-readable storage medium storing a program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 15.
JP2018248299A 2018-12-28 2018-12-28 Electronic device and its control method Active JP7187307B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018248299A JP7187307B2 (en) 2018-12-28 2018-12-28 Electronic device and its control method
US16/725,963 US10937217B2 (en) 2018-12-28 2019-12-23 Electronic device and control method thereof for generating edited VR content
CN201911367630.1A CN111381750B (en) 2018-12-28 2019-12-26 Electronic device, control method thereof, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248299A JP7187307B2 (en) 2018-12-28 2018-12-28 Electronic device and its control method

Publications (2)

Publication Number Publication Date
JP2020108112A JP2020108112A (en) 2020-07-09
JP7187307B2 true JP7187307B2 (en) 2022-12-12

Family

ID=71450973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248299A Active JP7187307B2 (en) 2018-12-28 2018-12-28 Electronic device and its control method

Country Status (1)

Country Link
JP (1) JP7187307B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116134437A (en) * 2020-09-24 2023-05-16 Jvc建伍株式会社 Storage device, storage method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176560A (en) 2014-03-18 2015-10-05 株式会社リコー information processing method, information processing apparatus, and program
US20180121069A1 (en) 2016-10-28 2018-05-03 Adobe Systems Incorporated Facilitating editing of virtual-reality content using a virtual-reality headset

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9934823B1 (en) * 2015-08-27 2018-04-03 Amazon Technologies, Inc. Direction indicators for panoramic images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176560A (en) 2014-03-18 2015-10-05 株式会社リコー information processing method, information processing apparatus, and program
US20180121069A1 (en) 2016-10-28 2018-05-03 Adobe Systems Incorporated Facilitating editing of virtual-reality content using a virtual-reality headset

Also Published As

Publication number Publication date
JP2020108112A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP7005161B2 (en) Electronic devices and their control methods
US11683464B2 (en) Electronic device, control method, and non-transitorycomputer readable medium
US10979700B2 (en) Display control apparatus and control method
KR102477993B1 (en) Display control apparatus, imaging apparatus, control method, and computer readable medium
US11706378B2 (en) Electronic device and method of controlling electronic device
JP7187307B2 (en) Electronic device and its control method
US11100903B2 (en) Electronic device and control method for controlling a display range on a display
JP2021174317A (en) Electronic apparatus and control method therefor
CN111381750B (en) Electronic device, control method thereof, and computer-readable storage medium
JP7005160B2 (en) Electronic devices and their control methods
JP7278773B2 (en) Electronic device and its control method
JP7313822B2 (en) Electronic device, its control method, program and storage medium
JP7214475B2 (en) Electronic device and its control method
JP7204482B2 (en) Electronic device and its control method
JP7327938B2 (en) Electronic device and its control method, program and storage medium
JP7278774B2 (en) Electronic device and its control method
JP7208002B2 (en) Electronic device and its control method
US11558599B2 (en) Electronic apparatus, control method for electronic apparatus, and non-transitory computer-readable storage medium
CN110881102B (en) Image capturing apparatus, control method of image capturing apparatus, and computer readable medium
US20200260004A1 (en) Electronic device and method for controlling the same
JP2023125345A (en) Electronic apparatus, control method thereof, and program
JP2020205554A (en) Display control device, control method of the same, program, and storage medium
JP2019184689A (en) Electronic apparatus, method for controlling the same, program, and storage media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221130

R151 Written notification of patent or utility model registration

Ref document number: 7187307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151