JP7358938B2 - Communication terminal, image communication system, display method, and program - Google Patents
Communication terminal, image communication system, display method, and program Download PDFInfo
- Publication number
- JP7358938B2 JP7358938B2 JP2019212855A JP2019212855A JP7358938B2 JP 7358938 B2 JP7358938 B2 JP 7358938B2 JP 2019212855 A JP2019212855 A JP 2019212855A JP 2019212855 A JP2019212855 A JP 2019212855A JP 7358938 B2 JP7358938 B2 JP 7358938B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- predetermined area
- movement
- predetermined
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 101
- 238000000034 method Methods 0.000 title claims description 25
- 238000012545 processing Methods 0.000 description 77
- 238000010586 diagram Methods 0.000 description 73
- 238000003384 imaging method Methods 0.000 description 49
- 230000006870 function Effects 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 230000015654 memory Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 4
- 239000013256 coordination polymer Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
本開示内容は、画像における所定領域である所定領域画像を表示する発明に関する。 The present disclosure relates to an invention that displays a predetermined area image that is a predetermined area in an image.
近年、全天球(360°)撮影用カメラで撮影されることで得られた正距円筒射影画像を、スマートフォン等の通信端末で表示することで、撮影及び表示の範囲が広がっている。通信端末で正距円筒射影画像を表示させる場合、全天球画像として全体を表示することができるが、一般的なカメラで撮影されることで得られた平面画像と同様に、全天球画像の所定領域を示す所定領域画像を表示することができる。この場合、通信端末の利用者は、通信端末で表示されている所定領域画像に対してスワイプ操作することで、同じ全天球画像の他の所定領域を示す所定領域画像を表示させることができる(特許文献1参照)。この操作及び表示に関して、以下に図26乃至図29を用いて詳細に説明する。 In recent years, the range of photography and display has expanded by displaying equirectangular cylindrical projection images obtained by photographing with a spherical (360°) camera on a communication terminal such as a smartphone. When displaying an equirectangular projection image on a communication terminal, the entire image can be displayed as a spherical image. It is possible to display a predetermined area image showing a predetermined area of . In this case, the user of the communication terminal can display a predetermined region image showing another predetermined region of the same spherical image by performing a swipe operation on the predetermined region image displayed on the communication terminal. (See Patent Document 1). This operation and display will be explained in detail below using FIGS. 26 to 29.
図26乃至図29において、それぞれ、従来の表示例に係り、(a)は複数の正距円筒射影画像(ここでは、正距円筒射影画像の状態)における所定領域画像を示した図、(b)はスマートフォンの操作前に対応する所定領域画像を示した図、(c)はスマートフォンの操作後に対応する所定領域画像を示した図である。ここでは、最初に、正距円筒射影画像EC1が読み出され、その後に正距円筒射影画像EC2が読み出される場合が示されている。 26 to 29 respectively relate to conventional display examples, (a) is a diagram showing a predetermined area image in a plurality of equirectangular projection images (here, the state of equirectangular projection images), (b) ) is a diagram showing a corresponding predetermined area image before operating the smartphone, and (c) is a diagram showing a corresponding predetermined area image after operating the smartphone. Here, a case is shown in which the equirectangular projection image EC1 is first read out, and then the equirectangular projection image EC2 is read out.
まず、利用者がスマートフォン30に正距円筒射影画像としての全天球画像の所定領域画像を表示する場合、図26(b)に示されているように、スマートフォン30は最初に予め定められた所定領域の所定領域画像pa11を表示する。この所定領域画像pa11は、図26(a)に示されているように、所定領域画像pa11におけるスワイプ操作(左方向)による画像の移動方向(右方向)の後端r11が、最初に読み出された正距円筒射影画像EC1の始端BE1に位置するように表示される。この状態で、利用者がスマートフォン30に対して左方向に所定のスワイプ操作を行うと、スマートフォン30は、図26(c)に示されているように、所定領域画像p11の右側の所定領域画像pa12を表示する。この所定領域画像pa12は、図26(a)に示されているように、正距円筒射影画像EC1のほぼ中央の領域を示している。 First, when the user displays a predetermined region image of a spherical image as an equirectangular projection image on the smartphone 30, as shown in FIG. A predetermined area image pa11 of the predetermined area is displayed. In this predetermined area image pa11, as shown in FIG. It is displayed so as to be located at the starting end BE1 of the equirectangular projection image EC1. In this state, when the user performs a predetermined swipe operation to the left on the smartphone 30, the smartphone 30 displays the predetermined area image on the right side of the predetermined area image p11, as shown in FIG. 26(c). Display pa12. This predetermined area image pa12, as shown in FIG. 26(a), shows a substantially central area of the equirectangular projection image EC1.
次に、図27(b)に示されているように、利用者は所定領域画像pa12が表示されているスマートフォン30に対して更に同じ方向のスワイプ操作(左方向)を行うと、スマートフォン30は、図27(c)に示されているように、所定領域画像pa13を表示する。この場合、図27(a)に示されているように、所定領域画像pa13におけるスワイプ操作(右方向)による画像の移動方向(左方向)の先端a13が、正距円筒射影画像EC1の終端TE1に位置するように表示される。 Next, as shown in FIG. 27(b), when the user further performs a swipe operation in the same direction (to the left) on the smartphone 30 on which the predetermined area image pa12 is displayed, the smartphone 30 , the predetermined area image pa13 is displayed, as shown in FIG. 27(c). In this case, as shown in FIG. 27(a), the tip a13 in the image movement direction (leftward) due to the swipe operation (rightward) in the predetermined area image pa13 is the terminal end TE1 of the equirectangular projection image EC1. It is displayed as being located at .
次に、図28(b)に示されているように、利用者は所定領域画像ps13が表示されているスマートフォン30に対して更に同じ方向に所定のスワイプ操作(左方向)を行うと、スマートフォン30は、図28(c)に示されているように、所定領域画像pa14を表示する。この所定領域画像pa14は、図28(a)に示されているように、左側の所定領域画像pa14aと、正距円筒射影画像EC1を1周後の右側の所定領域画像pa14bによって構成されている。このように、利用者がスワイプ操作を続けた場合、次の正距円筒射影画像EC2が読み出されないで、正距円筒射影画像EC1内を周回する。 Next, as shown in FIG. 28(b), when the user further performs a predetermined swipe operation (leftward) in the same direction on the smartphone 30 on which the predetermined area image ps13 is displayed, the user 30 displays a predetermined area image pa14, as shown in FIG. 28(c). As shown in FIG. 28(a), this predetermined area image pa14 is composed of a left predetermined area image pa14a and a right predetermined area image pa14b after one rotation of the equirectangular projection image EC1. . In this way, when the user continues the swipe operation, the next equirectangular projection image EC2 is not read out, and the next equirectangular projection image EC2 is circulated within the equirectangular projection image EC1.
そして、利用者が次の正距円筒射影画像EC2を読み出して所定領域画像pa21を表示したい場合には、図29(b)に示されているように、「次へ」ボタンn1を押下する。これにより、スマートフォン30は、図29(c)に示されているように、所定領域画像pa21を表示する。この所定領域画像pa21は、図29(a)に示されているように、所定領域画像pa21におけるスワイプ操作(左方向)による画像の移動方向(右方向)の後端r21が、読み出された正距円筒射影画像EC2の始端BE2に位置するように表示される。なお、所定領域画像は正距円筒射影画像上を周回するため、正距円筒射影画像EC1の終端TE1は、正距円筒射影画像EC1の始端BE1でもある。 If the user wishes to read out the next equirectangular projection image EC2 and display the predetermined area image pa21, the user presses the "Next" button n1, as shown in FIG. 29(b). Thereby, the smartphone 30 displays the predetermined area image pa21, as shown in FIG. 29(c). In this predetermined area image pa21, as shown in FIG. It is displayed so as to be located at the starting end BE2 of the equirectangular projection image EC2. Note that since the predetermined area image revolves on the equirectangular projection image, the terminal end TE1 of the equirectangular projection image EC1 is also the starting end BE1 of the equirectangular projection image EC1.
しかしながら、従来の方法では、利用者が、全天球画像に対してスワイプ操作をすると、表示される所定領域画像が正距円筒射影画像(広角画像の一例)内を周回するだけであるため、次の全天球画像としての正距円筒射影画像を読み出して表示させる場合には、わざわざ、「次へ」ボタンn1の押下等の別の操作を行わなければならなかった。例えば、スワイプ操作のように、利用者が指を移動させる勢いで所定領域画像を移動させるような場合、一旦、スワイプ操作中の指を止めて別の操作を行うことには違和感が生じてしまい、操作性が悪いという課題が生じていた。 However, in the conventional method, when a user performs a swipe operation on a spherical image, the displayed predetermined area image only revolves within an equirectangular projection image (an example of a wide-angle image). When reading and displaying the equirectangular projection image as the next spherical image, it was necessary to perform another operation such as pressing the "next" button n1. For example, when a user moves a predetermined area image with the momentum of moving a finger, such as in a swipe operation, it may feel strange to stop the finger during the swipe operation and perform another operation. However, there was a problem of poor operability.
請求項1に係る発明は、任意の広角画像における所定領域である第1の所定領域画像を表示手段に表示させる通信端末であって、前記表示手段に表示中の前記第1の所定領域画像の移動を受け付ける受付手段と、前記受付手段によって、前記第1の所定領域画像が、前記任意の広角画像において一定領域に渡る所定の移動方向への移動を受け付けられ、更に前記移動方向への移動を受け付けられた場合には、次の広角画像における所定領域である第2の所定領域を前記表示手段に表示させる表示制御手段と、を有することを特徴とする通信端末である。 The invention according to claim 1 is a communication terminal for displaying a first predetermined area image, which is a predetermined area in an arbitrary wide-angle image, on a display means, wherein the first predetermined area image being displayed on the display means is A reception means for accepting movement, and the reception means accept movement of the first predetermined area image in a predetermined movement direction over a certain area in the arbitrary wide-angle image, and further allow movement in the movement direction. The communication terminal is characterized in that it has a display control means for causing the display means to display a second predetermined area, which is a predetermined area in the next wide-angle image, when the communication terminal is accepted.
以上説明したように本発明によれば、利用者によって所定領域画像を所定の移動方向に移動させ、更に同じ移動方向へ移動させることで、利用者には同じ操作の繰り返しによって、次の広角画像を表示することができる。これにより、操作性を向上させるという効果を奏する。 As explained above, according to the present invention, the user can move a predetermined area image in a predetermined moving direction and then move it in the same moving direction, so that the user can move the image to the next wide-angle image by repeating the same operation. can be displayed. This has the effect of improving operability.
以下、図面を用いて、本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
〔実施形態の概要〕
以下、本実施形態の概要について説明する。
[Overview of embodiment]
An overview of this embodiment will be described below.
まずは、図1乃至図7を用いて、全天球画像の生成方法について説明する。 First, a method for generating a spherical image will be explained using FIGS. 1 to 7.
まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の背面図であり、図1(c)は撮影装置の平面図であり、図1(d)は撮影装置の底面図である。 First, the appearance of the photographing device 1 will be explained using FIG. 1. The photographing device 1 is a digital camera for obtaining a photographed image that is the basis of a spherical (360°) panoramic image. Note that FIG. 1(a) is a left side view of the imaging device, FIG. 1(b) is a rear view of the imaging device, FIG. 1(c) is a plan view of the imaging device, and FIG. 1(d) is a top view of the imaging device. is a bottom view of the photographing device.
図1(a),図1(b),図1(c),図(d)に示されているように、撮影装置1の上部には、正面側(前側)に魚眼型のレンズ102a及び背面側(後側)に魚眼型のレンズ102bが設けられている。撮影装置1の内部には、後述の撮像素子(画像センサ)103a,103bが設けられており、それぞれレンズ102a、102bを介して被写体や風景を撮影することで、半球画像(画角180°以上)を得ることができる。撮影装置1の正面側と反対側の面には、シャッターボタン115aが設けられている。また、撮影装置1の側面には、電源ボタン115b、Wi-Fi(Wireless Fidelity)ボタン115c、及び撮影モード切替ボタン115dが設けられている。電源ボタン115b、及びWi-Fiボタン115cは、いずれも押下される度に、オンとオフが切り替えられる。また、撮影モード切替ボタン115dは、押下される度に、静止画の撮影モードと動画の撮影モードが切り替えられる。なお、シャッターボタン115a、電源ボタン115b、Wi-Fiボタン115c、及び撮影モード切替ボタン115dは、操作部115の一部であり、操作部115は、これらのボタンに限られない。 As shown in FIG. 1(a), FIG. 1(b), FIG. 1(c), and FIG. A fisheye lens 102b is provided on the back side (rear side). Inside the photographing device 1, image sensors (image sensors) 103a and 103b, which will be described later, are provided, and by photographing a subject or scenery through lenses 102a and 102b, respectively, a hemispherical image (an angle of view of 180° or more) is provided. ) can be obtained. A shutter button 115a is provided on the surface of the photographing device 1 opposite to the front side. Further, on the side surface of the photographing device 1, a power button 115b, a Wi-Fi (Wireless Fidelity) button 115c, and a photographing mode switching button 115d are provided. The power button 115b and the Wi-Fi button 115c are both turned on and off each time they are pressed. Furthermore, each time the shooting mode switching button 115d is pressed, the shooting mode for still images and the shooting mode for moving images are switched. Note that the shutter button 115a, the power button 115b, the Wi-Fi button 115c, and the shooting mode switching button 115d are part of the operation unit 115, and the operation unit 115 is not limited to these buttons.
また、撮影装置1の底部150の中央には、カメラ用三脚に撮影装置1を取り付けるための三脚ねじ穴151が設けられている。また、底部150の左端側には、Micro USB(Universal Serial Bus)端子152が設けられている。底部150の右端側には、HDMI(High-Definition Multimedia Interface)端子153が設けられている。なお、HDMIは登録商標である。 Further, a tripod screw hole 151 for attaching the photographing device 1 to a camera tripod is provided at the center of the bottom portion 150 of the photographing device 1. Further, a Micro USB (Universal Serial Bus) terminal 152 is provided on the left end side of the bottom portion 150. On the right end side of the bottom portion 150, an HDMI (High-Definition Multimedia Interface) terminal 153 is provided. Please note that HDMI is a registered trademark.
次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、例えば、利用者が手に持って利用者の周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれ利用者の周りの被写体が撮像されることで、2つの半球画像を得ることができる。 Next, using FIG. 2, the usage status of the photographing device 1 will be explained. Note that FIG. 2 is an image diagram of how the photographing device is used. As shown in FIG. 2, the photographing device 1 is, for example, held by a user and used to photograph objects around the user. In this case, two hemispherical images can be obtained by capturing images of objects around the user using the imaging device 103a and the imaging device 103b shown in FIG. 1, respectively.
次に、図3及び図4を用いて、撮影装置1で撮影された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置1で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図4(a)は正距円筒射影画像で球を被う状態を示した概念図、図4(b)は全天球画像を示した図である。なお、正距円筒射影画像は、広角画像の一例である。 Next, using FIGS. 3 and 4, an outline of the processing from the image photographed by the photographing device 1 to the creation of the equirectangular projection image EC and the celestial sphere image CE will be described. In addition, FIG. 3(a) is a hemispherical image taken with the imaging device 1 (front side), FIG. 3(b) is a hemispherical image taken with the imaging device (rear side), and FIG. 3(c) is an equirectangular projection. FIG. 2 is a diagram showing an image represented by (hereinafter referred to as "equirectangular projection image"). FIG. 4(a) is a conceptual diagram showing a state where a sphere is covered by an equirectangular projection image, and FIG. 4(b) is a diagram showing a spherical image. Note that the equirectangular projection image is an example of a wide-angle image.
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、正距円筒射影画像ECが作成される。 As shown in FIG. 3A, the image obtained by the image sensor 103a becomes a hemispherical image (front side) curved by a fisheye lens 102a, which will be described later. Further, as shown in FIG. 3(b), the image obtained by the image sensor 103b becomes a hemispherical image (rear side) curved by a fisheye lens 102b, which will be described later. The hemispherical image (front side) and the hemispherical image (rear side) inverted by 180 degrees are combined by the imaging device 1, and as shown in FIG. 3(c), an equirectangular projection image EC is obtained. Created.
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。また、正距円筒射影画像を立体球CSに貼り付ける例を示したが、立体球CSだけでなく、立方体や角柱であってもよい。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), the equirectangular projection image is pasted to cover the spherical surface, as shown in Figure 4(a). A spherical image CE as shown in b) is created. In this way, the spherical image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. Note that OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the omnidirectional image CE may be a still image or a moving image. Further, although an example has been shown in which an equirectangular projection image is pasted onto the three-dimensional sphere CS, it may be not only the three-dimensional sphere CS but also a cube or a prism.
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると、歪みがあり違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, since the spherical image CE is an image pasted so as to cover a spherical surface, when viewed by a human being, it is distorted and feels strange. Therefore, by displaying a predetermined area (hereinafter referred to as a "predetermined area image") of a part of the spherical image CE as a flat image with less curvature, it is possible to perform a display that does not give a sense of discomfort to humans. This will be explained using FIGS. 5 and 6.
なお、図5は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球画像CEが、三次元の立体球CSに貼り付けられて表わされている。このように生成された全天球画像CEが、立体球CSに貼り付けられた場合には、図5に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮影領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。 Note that FIG. 5 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional solid sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who views the spherical image CE displayed as a three-dimensional solid sphere. Further, FIG. 6(a) is a three-dimensional perspective view of FIG. 5, and FIG. 6(b) is a diagram showing a predetermined area image when displayed on a display. Furthermore, in FIG. 6(a), the omnidirectional spherical image CE shown in FIG. 4 is pasted onto a three-dimensional solid sphere CS. When the spherical image CE generated in this way is pasted on the three-dimensional sphere CS, the virtual camera IC is located inside the spherical image CE, as shown in FIG. There is. The predetermined area T in the spherical image CE is a shooting area of the virtual camera IC, and is specified by the predetermined area information indicating the shooting direction and angle of view of the virtual camera IC in the three-dimensional virtual space including the spherical image CE. Ru.
そして、図6(a)に示されている所定領域画像Qは、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって表された所定領域画像である。以下では、仮想カメラICの撮影方向(θ,φ)と画角(α)を用いて説明する。なお、撮影方向は視線方向ともいう。 The predetermined area image Q shown in FIG. 6(a) is displayed on a predetermined display as an image of the imaging area of the virtual camera IC, as shown in FIG. 6(b). The image shown in FIG. 6(b) is a predetermined area image represented by initially set (default) predetermined area information. In the following, description will be given using the photographing direction (θ, φ) and angle of view (α) of the virtual camera IC. Note that the shooting direction is also referred to as the line-of-sight direction.
図7を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図7は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図7に示されているように、「θ」は仮想カメラICの撮影方向におけるパン角、「φ」は仮想カメラICの撮影方向におけるチルト角、「α」は画角(Angle)を示す。更に、「W」は所定領域Tの幅、「H」は所定領域Hの高さを示す。即ち、撮影方向(θ,φ)で示される仮想カメラICの注視点が、仮想カメラICの撮影領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図7では、一般的に以下の(式1)で示される三角関数が成り立つ。 The relationship between the predetermined area information and the image of the predetermined area T will be explained using FIG. 7. Note that FIG. 7 is a diagram showing the relationship between the predetermined area information and the image of the predetermined area T. As shown in FIG. 7, "θ" represents the pan angle of the virtual camera IC in the photographing direction, "φ" represents the tilt angle of the virtual camera IC in the photographing direction, and "α" represents the angle of view. Further, "W" indicates the width of the predetermined area T, and "H" indicates the height of the predetermined area H. That is, the attitude of the virtual camera IC is changed so that the point of view of the virtual camera IC indicated by the shooting direction (θ, φ) becomes the center point CP of the predetermined area T that is the shooting area of the virtual camera IC. Become. The predetermined area image Q is an image of a predetermined area T in the omnidirectional image CE. f is the distance from the virtual camera IC to the center point CP. L is the distance between an arbitrary vertex of the predetermined region T and the center point CP (2L is a diagonal line). In FIG. 7, the trigonometric function expressed by the following (Equation 1) generally holds true.
L/f=tan(α/2)・・・(式1)
●第1の実施形態
続いて、図8乃至図17を用いて、本発明の第1の実施形態について説明する。
L/f=tan(α/2)...(Formula 1)
●First Embodiment Next, the first embodiment of the present invention will be described using FIGS. 8 to 17.
〔画像通信システムの構成の概略〕
まずは、図8を用いて、第1の実施形態に係る画像通信システムの構成の概略について説明する。図8は、第1の実施形態に係る画像通信システムの概略図である。
[Outline of the configuration of the image communication system]
First, the outline of the configuration of the image communication system according to the first embodiment will be described using FIG. 8. FIG. 8 is a schematic diagram of an image communication system according to the first embodiment.
図8に示されているように、本実施形態の画像通信システムは、撮影装置1、及びスマートフォン3によって構築されている。撮影装置1とスマートフォン3は、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)等の近距離無線通信技術を利用して無線通信することができる。 As shown in FIG. 8, the image communication system of this embodiment is constructed by a photographing device 1 and a smartphone 3. The photographing device 1 and the smartphone 3 can wirelessly communicate using short-range wireless communication technology such as Wi-Fi, Bluetooth (registered trademark), and NFC (Near Field Communication).
これらのうち、撮影装置1は、上述のように、被写体や風景等を撮影して正距円筒射影画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。なお、正距円筒射影画像ではなく、一般の広角な平面画像を得るための撮影装置(一眼レフカメラ、コンパクトデジタルカメラ、スマートフォン、タブレットPC等)であってもよいが、本実施形態では、主に正距円筒射影画像を得るためのデジタルカメラの場合について説明する。なお、ここで、広角画像は、一般には広角レンズを用いて撮影された画像であり、人間の目で感じるよりも広い範囲を撮影することができるレンズで撮影されたものである。また、一般的に35mmフィルム換算で35mm以下の焦点距離のレンズで、撮影された画像を意味する。 Among these, the photographing device 1 is a special digital camera for photographing a subject, scenery, etc. to obtain two hemispherical images that are the basis of an equirectangular projection image, as described above. Note that a photographing device (such as a single-lens reflex camera, a compact digital camera, a smartphone, a tablet PC, etc.) for obtaining a general wide-angle planar image instead of an equirectangular projection image may be used, but in this embodiment, the main The case of a digital camera for obtaining an equirectangular projection image will be explained below. Note that here, the wide-angle image is generally an image photographed using a wide-angle lens, and is one that is photographed with a lens that can photograph a wider range than that perceived by the human eye. Also, generally refers to images taken with a lens with a focal length of 35mm or less in 35mm film equivalent.
スマートフォン3は、利用者Aが利用するPC(Personal Computer)である。スマートフォン3は、通信端末の一例である。なお、撮影装置1とスマートフォン3は、無線通信を行わずに、USB(Universal Serial Bus)ケーブル等を用いて、有線通信を行ってもよい。 The smartphone 3 is a PC (Personal Computer) used by the user A. The smartphone 3 is an example of a communication terminal. Note that the photographing device 1 and the smartphone 3 may perform wired communication using a USB (Universal Serial Bus) cable or the like instead of performing wireless communication.
スマートフォン3は、撮影装置1が被写体等を撮影した後に作成した全天球画像データを無線通信等で受信して、この全天球画像の所定領域画像を表示する通信端末の一例である。なお、通信端末には、スマートフォン3の他に、PC、スマートウォッチ、表示アプリケーションがインストレールされているディスプレイ、ゲーム機、カーナビゲーション装置、ウェアラブル端末などが含まれる。 The smartphone 3 is an example of a communication terminal that receives spherical image data created by the photographing device 1 after photographing a subject or the like through wireless communication or the like, and displays an image of a predetermined area of the spherical image. In addition to the smartphone 3, the communication terminal includes a PC, a smart watch, a display with a display application installed, a game console, a car navigation device, a wearable terminal, and the like.
〔実施形態のハードウェア構成〕
次に、図9及び図10を用いて、本実施形態の撮影装置1及びスマートフォン3のハードウェア構成を詳細に説明する。
[Hardware configuration of embodiment]
Next, the hardware configurations of the photographing device 1 and the smartphone 3 of this embodiment will be described in detail using FIGS. 9 and 10.
<撮影装置のハードウェア構成>
まず、図9を用いて、撮影装置1のハードウェア構成を説明する。図9は、撮影装置1のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全天球(全方位)撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラ等に後付けの全方位の撮像ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。
<Hardware configuration of imaging device>
First, the hardware configuration of the imaging device 1 will be explained using FIG. 9. FIG. 9 is a hardware configuration diagram of the imaging device 1. In the following, the photographing device 1 is assumed to be a spherical (omnidirectional) photographing device using two image sensors, but the number of image sensors may be any number greater than or equal to two. Further, the device does not necessarily have to be dedicated to omnidirectional photography, and may have substantially the same functions as the photographing device 1 by attaching an aftermarket omnidirectional imaging unit to a normal digital camera or the like.
図9に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120、及び端子121によって構成されている。 As shown in FIG. 9, the imaging device 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, and a ROM (Read Only Memory). ) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I/F 116, communication unit 117, antenna 117a, electronic compass 118, gyro sensor 119, acceleration sensor 120, It is configured by a terminal 121.
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Among these, the imaging unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b each having an angle of view of 180° or more for forming a hemispherical image, and two imaging units provided corresponding to each wide-angle lens. It includes elements 103a and 103b. The image sensors 103a and 103b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images formed by fisheye lenses 102a and 102b into electrical signal image data and output the image data. It has a timing generation circuit that generates horizontal or vertical synchronization signals and pixel clocks, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105及び音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The imaging elements 103a and 103b of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I/F bus. On the other hand, the imaging elements 103a and 103b of the imaging unit 101 are connected to the imaging control unit 105 via a serial I/F bus (such as an I2C bus). The image processing unit 104, the imaging control unit 105, and the sound processing unit 109 are connected to the CPU 111 via a bus 110. Furthermore, a ROM 112, an SRAM 113, a DRAM 114, an operation unit 115, a network I/F 116, a communication unit 117, an electronic compass 118, and the like are also connected to the bus 110.
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているような正距円筒射影画像のデータを作成する。 The image processing unit 104 takes in image data output from the image sensors 103a and 103b through the parallel I/F bus, performs predetermined processing on each image data, and then synthesizes these image data. , create equirectangular cylindrical projection image data as shown in FIG. 3(c).
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 Generally, the imaging control unit 105 uses the I2C bus to set commands and the like in register groups of the imaging devices 103a and 103b, using the imaging control unit 105 as a master device and the imaging devices 103a and 103b as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to take in status data and the like of the register groups of the imaging elements 103a and 103b, and sends it to the CPU 111.
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置1によっては、ディスプレイ(例えば、スマートフォン3のディスプレイ318)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the imaging control unit 105 instructs the imaging elements 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Depending on the photographing device 1, it may have a preview display function or a function corresponding to video display on a display (for example, the display 318 of the smartphone 3). In this case, image data is output continuously from the image sensors 103a and 103b at a predetermined frame rate (frames/minute).
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置1にはディスプレイが設けられていないが、表示部を設けてもよい。 The imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of image data of the imaging elements 103a and 103b in cooperation with the CPU 111, as will be described later. Note that in this embodiment, the photographing device 1 is not provided with a display, but may be provided with a display section.
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in sound data output from the microphone 108 through the I/F bus, and performs predetermined processing on the sound data.
CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 111 controls the overall operation of the photographing device 1 and executes necessary processing. ROM112 stores various programs for CPU111. The SRAM 113 and DRAM 114 are work memories that store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data that is being processed by the image processing unit 104 and data of processed equirectangular projection images.
操作部115は、シャッターボタン115aなどの操作ボタンの総称である。ユーザは操作部115を操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 115 is a general term for operation buttons such as the shutter button 115a. By operating the operation unit 115, the user inputs various shooting modes, shooting conditions, and the like.
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してスマートフォン3等の外部端末(装置)に送信されたりする。 The network I/F 116 is a general term for interface circuits (USB I/F, etc.) with external media such as an SD card, a personal computer, and the like. Further, the network I/F 116 may be wireless or wired. The data of the equirectangular projection image stored in the DRAM 114 may be recorded on an external media via this network I/F 116, or may be transferred to an external terminal (device) such as a smartphone 3 via the network I/F 116 as necessary. ).
通信部117は、撮影装置1に設けられたアンテナ117aを介して、Wi-Fi、NFC、Bluetooth等の近距離無線通信技術によって、スマートフォン3等の外部端末(装置)と通信を行う。この通信部117によっても、正距円筒射影画像のデータをスマートフォン3等の外部端末(装置)に送信することができる。 The communication unit 117 communicates with an external terminal (device) such as the smartphone 3 via an antenna 117a provided in the photographing device 1 using a short-range wireless communication technology such as Wi-Fi, NFC, or Bluetooth. This communication unit 117 can also transmit the data of the equirectangular projection image to an external terminal (device) such as the smartphone 3.
電子コンパス118は、地球の磁気から撮影装置1の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the direction of the imaging device 1 from the earth's magnetism and outputs direction information. This orientation information is an example of related information (metadata) in accordance with Exif, and is used for image processing such as image correction of captured images. Note that the related information also includes data such as the date and time when the image was taken and the data capacity of the image data.
ジャイロセンサ119は、全天球カメラ20の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The gyro sensor 119 is a sensor that detects changes in angle (roll angle, pitch angle, yaw angle) accompanying movement of the omnidirectional camera 20. A change in angle is an example of related information (metadata) according to Exif, and is used for image processing such as image correction of a captured image.
加速度センサ120は、3軸方向の加速度を検出するセンサである。撮影装置1は、加速度センサ120が検出した加速度に基づいて、自装置(撮影装置1)の姿勢(重力方向に対する角度)を算出する。撮影装置1に、ジャイロセンサ119と加速度センサ120の両方が設けられることによって、画像の傾きを補正する精度が向上する。 The acceleration sensor 120 is a sensor that detects acceleration in three axial directions. The imaging device 1 calculates the attitude (angle with respect to the direction of gravity) of its own device (imaging device 1) based on the acceleration detected by the acceleration sensor 120. By providing both the gyro sensor 119 and the acceleration sensor 120 in the photographing device 1, the accuracy of correcting the tilt of the image is improved.
端子121は、Micro USB用の凹状の端子である。 The terminal 121 is a concave terminal for Micro USB.
<スマートフォンのハードウェア構成>
次に、図10を用いて、スマートフォンのハードウェア構成を詳細に説明する。図10は、スマートフォンのハードウェア構成図である。
<Hardware configuration of smartphone>
Next, the hardware configuration of the smartphone will be described in detail using FIG. 10. FIG. 10 is a hardware configuration diagram of the smartphone.
図10に示されているように、スマートフォン3は、CPU301、ROM302、RAM303、EEPROM304、CMOSセンサ305、撮像素子I/F306、加速度・方位センサ307、メディアI/F309、GPS受信部311を備えている。 As shown in FIG. 10, the smartphone 3 includes a CPU 301, a ROM 302, a RAM 303, an EEPROM 304, a CMOS sensor 305, an image sensor I/F 306, an acceleration/direction sensor 307, a media I/F 309, and a GPS receiver 311. There is.
これらのうち、CPU301は、スマートフォン3全体の動作を制御する。ROM302は、CPU301やIPL等のCPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。EEPROM304は、CPU301の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ305は、CPU301の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等の撮像手段であってもよい。撮像素子I/F306は、CMOSセンサ305の駆動を制御する回路である。加速度・方位センサ307は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F309は、フラッシュメモリ等の記録メディア308に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部311は、GPS衛星からGPS信号を受信する。 Among these, the CPU 301 controls the entire operation of the smartphone 3. The ROM 302 stores the CPU 301 and programs used to drive the CPU 301 such as IPL. RAM 303 is used as a work area for CPU 301. The EEPROM 304 reads or writes various data such as smartphone programs under the control of the CPU 301. A CMOS (Complementary Metal Oxide Semiconductor) sensor 305 is a type of built-in imaging means that images a subject (mainly a self-portrait) and obtains image data under the control of the CPU 301. Note that instead of a CMOS sensor, an imaging means such as a CCD (Charge Coupled Device) sensor may be used. The image sensor I/F 306 is a circuit that controls driving of the CMOS sensor 305. The acceleration/direction sensor 307 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect geomagnetism. A media I/F 309 controls reading or writing (storage) of data to a recording medium 308 such as a flash memory. The GPS receiving unit 311 receives GPS signals from GPS satellites.
また、スマートフォン3は、遠距離通信回路312、CMOSセンサ313、撮像素子I/F314、マイク315、スピーカ316、音入出力I/F317、ディスプレイ318、外部機器接続I/F(Interface)319、近距離通信回路320、近距離通信回路320のアンテナ320a、及びタッチパネル321を備えている。 The smartphone 3 also includes a long-distance communication circuit 312, a CMOS sensor 313, an image sensor I/F 314, a microphone 315, a speaker 316, a sound input/output I/F 317, a display 318, an external device connection I/F (Interface) 319, and a nearby It includes a long-distance communication circuit 320, an antenna 320a of a short-distance communication circuit 320, and a touch panel 321.
これらのうち、遠距離通信回路312は、通信ネットワーク100を介して、他の機器と通信する回路である。CMOSセンサ313は、CPU301の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F314は、CMOSセンサ313の駆動を制御する回路である。マイク315は、音を電気信号に変える内蔵型の回路である。スピーカ316は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F317は、CPU301の制御に従ってマイク315及びスピーカ316との間で音信号の入出力を処理する回路である。ディスプレイ318は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。外部機器接続I/F319は、各種の外部機器を接続するためのインターフェースである。近距離通信回路320は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル321は、利用者がディスプレイ318を押下することで、スマートフォン3を操作する入力手段の一種である。 Among these, the long distance communication circuit 312 is a circuit that communicates with other devices via the communication network 100. The CMOS sensor 313 is a type of built-in imaging means that images a subject and obtains image data under the control of the CPU 301. The image sensor I/F 314 is a circuit that controls driving of the CMOS sensor 313. Microphone 315 is a built-in circuit that converts sound into electrical signals. The speaker 316 is a built-in circuit that converts electrical signals into physical vibrations to produce sounds such as music and voice. The sound input/output I/F 317 is a circuit that processes input/output of sound signals between the microphone 315 and the speaker 316 under the control of the CPU 301 . The display 318 is a type of display means such as a liquid crystal or organic EL (Electro Luminescence) that displays an image of a subject, various icons, and the like. The external device connection I/F 319 is an interface for connecting various external devices. The near field communication circuit 320 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The touch panel 321 is a type of input means by which the user operates the smartphone 3 by pressing the display 318.
また、スマートフォン3は、バスライン310を備えている。バスライン310は、図10に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The smartphone 3 also includes a bus line 310. The bus line 310 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 301 shown in FIG. 10.
〔実施形態の機能構成〕
次に、図9乃至図11を用いて、本実施形態の機能構成について説明する。図11は、第1の実施形態に係る画像通信システムの機能ブロック図である。
[Functional configuration of embodiment]
Next, the functional configuration of this embodiment will be described using FIGS. 9 to 11. FIG. 11 is a functional block diagram of the image communication system according to the first embodiment.
<撮影装置の機能構成>
図11に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、判断部15、画像・音処理部16、通信部18、及び記憶・読出処理部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of imaging device>
As shown in FIG. 11, the photographing device 1 includes a receiving section 12, an imaging section 13, a sound collecting section 14, a determining section 15, an image/sound processing section 16, a communication section 18, and a storage/reading processing section 19. have. Each of these units is a function or means that is realized when any of the components shown in FIG. It is.
また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。 Further, the photographing device 1 has a storage unit 1000 constructed by a ROM 112, an SRAM 113, and a DRAM 114 shown in FIG.
(撮影装置1の各機能構成)
次に、図9及び図11を用いて、撮影装置1の各機能構成について更に詳細に説明する。
(Functional configuration of photographing device 1)
Next, each functional configuration of the photographing device 1 will be described in more detail using FIGS. 9 and 11.
撮影装置1の受付部12は、主に、図9に示されている操作部115に対するCPU111の処理によって実現され、利用者からの操作入力を受け付ける。 The reception unit 12 of the photographing device 1 is mainly realized by the processing of the CPU 111 on the operation unit 115 shown in FIG. 9, and receives operation input from the user.
撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105に対するCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。 The imaging unit 13 is mainly realized by the processing of the CPU 111 for the imaging unit 101, the image processing unit 104, and the imaging control unit 105 shown in FIG. 9, and images a landscape or the like to obtain captured image data.
集音部14は、主に、図9に示されている108及び音処理ユニット109に対するCPU111の処理によって実現され、撮影装置1の周囲の音を収音する。 The sound collecting unit 14 is mainly realized by the processing of the CPU 111 for the sound processing unit 108 and the sound processing unit 109 shown in FIG. 9, and collects sounds around the photographing device 1.
判断部15は、CPU111の処理によって実現され、各種判断を行う。 The determination unit 15 is realized by the processing of the CPU 111 and performs various determinations.
画像・音処理部16は、画像処理ユニット104に対するCPU111の処理によって実現され、図3(a)、(b)に示されているような2つの半球画像から、図3(c)に示されているような全天球画像としての正距円筒射影画像ECを作成する。また、画像・音処理部16は、音処理ユニット109に対するCPU111の処理によって実現され、集音により得られた音信号から音データを作成する。 The image/sound processing section 16 is realized by the processing of the CPU 111 for the image processing unit 104, and is capable of processing the image shown in FIG. 3(c) from the two hemispherical images shown in FIGS. 3(a) and 3(b). An equirectangular cylindrical projection image EC as a spherical image is created. Further, the image/sound processing unit 16 is realized by the processing of the CPU 111 for the sound processing unit 109, and creates sound data from the sound signal obtained by collecting sound.
通信部18は、主に、通信部117、アンテナ117a、及び、CPU111の処理によって実現され、近距離無線通信によって、後述のスマートフォン3の通信部38とデータ通信を行う。なお、有線通信の場合には、通信部18は、電気接点、及びCPU111の処理によって実現され、スマートフォン3からの電源供給を受けると共に、データ通信を行う。 The communication unit 18 is mainly realized by the communication unit 117, the antenna 117a, and the processing of the CPU 111, and performs data communication with the communication unit 38 of the smartphone 3, which will be described later, by short-range wireless communication. In the case of wired communication, the communication unit 18 is realized by electrical contacts and processing by the CPU 111, receives power supply from the smartphone 3, and performs data communication.
記憶・読出処理部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。 The storage/read processing unit 19 is mainly realized by the processing of the CPU 111 shown in FIG. read out.
<スマートフォンの機能構成>
次に、図10及び図11を用いて、スマートフォン3の機能構成について詳細に説明する。図11に示されているように、スマートフォン3は、送受信部31、受付部32、表示制御部34、判断部35、通信部38、及び記憶・読出処理部39を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開されたスマートフォン3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of smartphone>
Next, the functional configuration of the smartphone 3 will be described in detail using FIGS. 10 and 11. As shown in FIG. 11, the smartphone 3 includes a transmitting/receiving section 31, a receiving section 32, a display control section 34, a determining section 35, a communication section 38, and a storage/reading processing section 39. Each of these parts is a function or means that is realized when any of the components shown in FIG. be.
また、スマートフォン3は、図10に示されているRAM303及びEEPROM304によって構築される記憶部3000を有している。 Furthermore, the smartphone 3 has a storage unit 3000 constructed from a RAM 303 and an EEPROM 304 shown in FIG.
(スマートフォンの各機能構成)
スマートフォン3の送受信部31は、主に、遠距離通信回路312に対するCPU301の処理によって実現され、インターネット等の通信ネットワーク100を介して、他の装置(例えば、撮影装置1)との間で各種データ(または情報)の送受信を行う。
(Each function configuration of smartphone)
The transmitting/receiving unit 31 of the smartphone 3 is mainly realized by the processing of the CPU 301 for the long-distance communication circuit 312, and exchanges various data with other devices (for example, the photographing device 1) via the communication network 100 such as the Internet. (or information).
受付部32は、主に、タッチパネル321に対するCPU301の処理によって実現され、利用者から各種の選択又は入力を受け付ける。 The reception unit 32 is mainly realized by the processing of the CPU 301 on the touch panel 321, and receives various selections or inputs from the user.
表示制御部34は、主に、CPU301の処理によって実現され、ディスプレイ318に、各種画像を表示させる。 The display control unit 34 is mainly realized by the processing of the CPU 301, and causes the display 318 to display various images.
判断部35は、主に、CPU301の処理によって実現され、各種判断を行なう。判断内容は後述する。 The determining unit 35 is mainly realized by the processing of the CPU 301, and performs various determinations. The details of the judgment will be described later.
通信部38は、主に、近距離通信回路320に対するCPU301の処理によって実現され、撮影装置1の通信部18とデータ通信を行う。なお、有線通信の場合には、撮影装置1と通信ケーブルを接続することで、画像データ等の通信を行う。 The communication unit 38 is mainly realized by the processing of the CPU 301 for the short-range communication circuit 320, and performs data communication with the communication unit 18 of the photographing device 1. In the case of wired communication, image data and the like are communicated by connecting the photographing device 1 with a communication cable.
記憶・読出処理部39は、主に、CPU301の処理によって実現され、記憶部3000に、各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。 The storage/read processing unit 39 is mainly realized by the processing of the CPU 301, and stores various data (or information) in the storage unit 3000 and reads various data (or information) from the storage unit 3000.
〔実施形態の処理又は動作〕
<広角画像の管理>
まずは、図12を用いて、スマートフォン3が撮影装置1から取得した正距円筒射影画像のデータを管理する処理について説明する。図12は、第1の実施形態に係る正距円筒射影画像データの通信処理を示したシーケンス図である。
[Processing or operation of embodiment]
<Management of wide-angle images>
First, with reference to FIG. 12, a process for managing the data of the equirectangular projection image acquired by the smartphone 3 from the photographing device 1 will be described. FIG. 12 is a sequence diagram showing communication processing of equirectangular projection image data according to the first embodiment.
まず、利用者Aは撮影装置1を利用して被写体や風景等を撮影(図2参照)する(S11)。 First, user A uses the photographing device 1 to photograph a subject, scenery, etc. (see FIG. 2) (S11).
次に、撮影装置1の画像・音処理部16は、ステップS11で撮影されることで得られた2つの半球画像(図3(a)、(b)参照)に基づいて正距円筒射影画像(図3(c)参照)のデータを作成する(S12)。そして、撮影装置1の通信部18は、スマートフォン3の通信部38に対してステップS12で作成された正距円筒射影画像のデータを送信する(S13)。そして、記憶・読出処理部39は、記憶部3000にステップS13で受信された正距円筒射影画像データを記憶する(S14)。 Next, the image/sound processing unit 16 of the photographing device 1 generates an equirectangular projection image based on the two hemispherical images obtained by photographing in step S11 (see FIGS. 3(a) and 3(b)). (See FIG. 3(c)) is created (S12). Then, the communication unit 18 of the photographing device 1 transmits the data of the equirectangular projection image created in step S12 to the communication unit 38 of the smartphone 3 (S13). Then, the storage/read processing unit 39 stores the equirectangular projection image data received in step S13 in the storage unit 3000 (S14).
次に、スマートフォン3は、ディスプレイ318に対する表示の処理を行う(S15)。ここで、図13乃至図17を用いて、ステップS15の処理を詳細に説明する。図13は、第1の実施形態に係る所定領域画像の表示処理を示したフローチャートである。図14乃至図17は、第1の実施形態に係り、(a)は複数の正距円筒射影画像における所定領域画像を示した図、(b)はスマートフォンの操作前に対応する所定領域画像を示した図、(c)はスマートフォンの操作後に対応する所定領域画像を示した図である。 Next, the smartphone 3 performs display processing on the display 318 (S15). Here, the process of step S15 will be explained in detail using FIGS. 13 to 17. FIG. 13 is a flowchart showing a process for displaying a predetermined area image according to the first embodiment. 14 to 17 relate to the first embodiment, in which (a) is a diagram showing a predetermined area image in a plurality of equirectangular projection images, and (b) is a diagram showing a corresponding predetermined area image before operating the smartphone. The illustrated figure (c) is a diagram showing a corresponding predetermined area image after the smartphone is operated.
まず、図13に示されているように、記憶・読出処理部39は、記憶・読出処理部39は、記憶部3000から最初に全天球画像として表示するための正距円筒射影画像のデータを読み出す(S31)。例えば、記憶・読出処理部39は、図14に示されている正距円筒射影画像EC1のデータを読み出す。 First, as shown in FIG. 13, the storage/readout processing unit 39 first retrieves data of an equirectangular projection image from the storage unit 3000 to be displayed as a spherical image. is read out (S31). For example, the storage/read processing unit 39 reads data of the equirectangular projection image EC1 shown in FIG. 14.
次に、表示制御部34は、上記(式1)によって予め定められた正距円筒射影画像における初期表示領域(始端接触領域)を所定領域画像としてディスプレイ318上に表示する(S32)。例えば、表示制御部34は、図14(a)に示されているような正距円筒射影画像EC1における初期表示領域(始端BE1の接触領域)を、所定領域画像pa11として図14(b)に示されているようにディスプレイ318上に表示する。 Next, the display control unit 34 displays the initial display area (starting end contact area) in the equirectangular projection image predetermined by the above (Formula 1) as a predetermined area image on the display 318 (S32). For example, the display control unit 34 converts the initial display area (contact area of the starting edge BE1) in the equirectangular projection image EC1 as shown in FIG. 14(a) into the predetermined area image pa11 in FIG. 14(b). Display on display 318 as shown.
そして、利用者Aが、表示されている所定領域画像に対してスワイプ操作を行うと、受付部32がスワイプの受け付けを行う(S33)。例えば、図14(b)に示されているように、利用者Aが所定領域画像pa11に対して指で矢印方向(左方向)にスワイプ操作を行う。 Then, when the user A performs a swipe operation on the displayed predetermined area image, the reception unit 32 accepts the swipe (S33). For example, as shown in FIG. 14(b), user A performs a swipe operation in the direction of the arrow (leftward) with a finger on the predetermined area image pa11.
次に、判断部35は、所定領域画像におけるスワイプ操作(左方向)による画像の移動方向(右方向)の「先端」が、正距円筒射影画像の表示における「端」に移動(到達)したかを判断する(S34-1)。例えば、判断部35は、所定領域画像pa11における先端a11がスワイプ操作による移動により、正距円筒射影画像の端(始端BE1又は終端TE1)に移動したかを判断する。 Next, the determination unit 35 determines whether the "tip" in the image movement direction (rightward) due to the swipe operation (leftward) in the predetermined area image has moved (reached) the "edge" in the display of the equirectangular projection image. (S34-1). For example, the determination unit 35 determines whether the tip a11 in the predetermined area image pa11 has moved to the end (starting end BE1 or ending end TE1) of the equirectangular projection image due to movement by a swipe operation.
次に、判断部35によって移動していないと判断された場合(S34-1;NO)、表示制御部34は、ディスプレイ318上に変更後の所定領域画像を表示する(S35)。例えば、図14(a)のように、所定領域画像pa12の先端a12が、正距円筒射影画像EC1の端(始端BE1又は終端TE1)に移動していない場合には、、図14(c)に示されているように、表示制御部34は、ディスプレイ318上に同じ正距円筒射影画像EC1内の変更後の所定領域画像pa12を表示する。 Next, if the determination unit 35 determines that the image has not moved (S34-1; NO), the display control unit 34 displays the changed predetermined area image on the display 318 (S35). For example, as shown in FIG. 14(a), if the tip a12 of the predetermined area image pa12 has not moved to the end (starting end BE1 or ending end TE1) of the equirectangular projection image EC1, as shown in FIG. 14(c). As shown in , the display control unit 34 displays the changed predetermined area image pa12 within the same equirectangular projection image EC1 on the display 318.
次に、受付部32が所定領域画像の表示の終了の受け付けを行った場合には(S36;YES)、所定領域画像の表示が終了する。一方、受付部32が所定領域画像の表示の終了の受け付けを行っていない場合には(S36;NO)、所定領域画像の表示が続行され、ステップS33の処理に戻る。 Next, when the accepting unit 32 accepts the request to end the display of the predetermined area image (S36; YES), the display of the predetermined area image ends. On the other hand, if the reception unit 32 has not accepted the end of the display of the predetermined area image (S36; NO), the display of the predetermined area image is continued, and the process returns to step S33.
また、ステップS34-1で、判断部35が移動したと判断した場合(S34-1;YES)、更に判断部35は、「端」が正距円筒射影画像の「始端」であるか「終端」であるかを判断する(S37)。そして、判断部35が「終端」であると判断した場合(S37;終端)、更に判断部35は、記憶部3000に次の正距円筒射影画像のデータが記憶されているかを判断する(S38)。そして、判断部35が、次の正距円筒射影画像が記憶されていると判断した場合には(S38;YES)、記憶・読出処理部39は、記憶部3000から次の正距円筒射影画像のデータを読み出す(S39)。そして、ステップS32の処理に戻る。 Further, when the determining unit 35 determines that the movement has occurred in step S34-1 (S34-1; YES), the determining unit 35 further determines whether the “end” is the “starting end” of the equirectangular projection image or the “terminating end” of the equirectangular projection image. ” (S37). If the determining unit 35 determines that it is the “terminus” (S37; terminating), the determining unit 35 further determines whether data of the next equirectangular projection image is stored in the storage unit 3000 (S38 ). If the determining unit 35 determines that the next equirectangular projected image is stored (S38; YES), the storage/reading processing unit 39 stores the next equirectangular projected image from the storage unit 3000. The data is read out (S39). Then, the process returns to step S32.
即ち、受付部32によって、正距円筒射影画像EC1における第1の所定領域画像が、正距円筒射影画像EC1において一定領域に渡る所定の移動方向への移動を受け付けられ、同じ移動方向への移動を受け付けられた場合には、表示制御部34は、次の正距円筒射影画像EC2における所定領域である第2の所定領域をディスプレイ318に表示させる。より詳細に説明すると、本実施形態では、受付部32によって、第1の所定領域画像が、正距円筒射影画像EC1において一定領域に渡る所定の移動方向への移動を受け付けられることは、受付部32によって、第1の所定領域画像が、正距円筒射影画像EC1の全領域に渡る所定の移動方向への移動を受け付けられることである。 That is, the receiving unit 32 accepts movement of the first predetermined area image in the equirectangular projection image EC1 in a predetermined movement direction over a certain area in the equirectangular projection image EC1, and the movement in the same movement direction is accepted. If it is accepted, the display control unit 34 causes the display 318 to display a second predetermined area that is a predetermined area in the next equirectangular projection image EC2. To explain in more detail, in this embodiment, the receiving unit 32 accepts movement of the first predetermined area image in a predetermined moving direction over a certain area in the equirectangular projection image EC1. 32, the first predetermined area image can be moved in a predetermined movement direction over the entire area of the equirectangular projection image EC1.
例えば、図15(b)に示されているように、利用者Aが所定領域画像pa12に対して指で矢印方向(左方向)にスワイプ操作を行う。これにより、図15(a)に示されているように、所定領域画像が、定領域画像pa12から所定領域画像pa13に移動することで、表示制御部34は、ディスプレイ318上に同じ正距円筒射影画像EC1内の変更後の所定領域画像pa13を表示する。更に、図16(b)に示されているように、矢印方向(左側)へスワイプ操作が続くことで、所定領域画像pa13の先端13aが正距円筒射影画像EC1の終端TE1に移動(到達)した場合、図16(a)に示されているように、所定領域画像は、所定領域画像pa13から次の正距円筒射影画像EC2における所定領域画像pa21に移動する。これにより、表示制御部34は、ディスプレイ318上に次の正距円筒射影画像EC2内の初期表示領域(始端EB2の接触領域)である所定領域画像pa21を表示する。この場合、所定領域画像pa21の後端r21は、正距円筒射影画像EC2の始端BE2に接した状態である。 For example, as shown in FIG. 15(b), the user A performs a swipe operation on the predetermined area image pa12 in the arrow direction (left direction) with a finger. As a result, as shown in FIG. 15(a), by moving the predetermined area image from the predetermined area image pa12 to the predetermined area image pa13, the display control unit 34 displays the same equirectangular cylinder on the display 318. The changed predetermined area image pa13 in the projected image EC1 is displayed. Furthermore, as shown in FIG. 16(b), by continuing the swipe operation in the direction of the arrow (to the left), the tip 13a of the predetermined area image pa13 moves (reaches) the terminal end TE1 of the equirectangular projection image EC1. In this case, as shown in FIG. 16A, the predetermined area image moves from the predetermined area image pa13 to the predetermined area image pa21 in the next equirectangular projection image EC2. Thereby, the display control unit 34 displays the predetermined area image pa21, which is the initial display area (the contact area of the starting end EB2) in the next equirectangular projection image EC2, on the display 318. In this case, the rear end r21 of the predetermined area image pa21 is in contact with the starting end BE2 of the equirectangular projection image EC2.
一方、上記ステップS38で、判断部35が、次の正距円筒射影画像が記憶されていないと判断した場合には(S38;NO)、上記ステップS33の処理に戻る。 On the other hand, if the determining unit 35 determines in step S38 that the next equirectangular projection image is not stored (S38; NO), the process returns to step S33.
また、上記ステップ37において、判断部35が「始端」であると判断した場合(S37;始端)、更に判断部35は、記憶部3000に前の正距円筒射影画像のデータが記憶されているかを判断する(S40)。そして、判断部35が、前の正距円筒射影画像のデータが記憶されていると判断した場合には(S40;YES)、記憶・読出処理部39は、記憶部3000から前の正距円筒射影画像のデータを読み出す(S41)。そして、表示制御部34が、前の正距円筒射影画像における初期表示領域(終端接触領域)を所定領域画像として表示する(S42)。その後、ステップS33の処理に戻る。 Further, in step 37 above, when the determining unit 35 determines that it is the “starting end” (S37; starting end), the determining unit 35 further determines whether the data of the previous equirectangular projection image is stored in the storage unit 3000. (S40). If the determining unit 35 determines that the data of the previous equirectangular projection image is stored (S40; YES), the storage/reading processing unit 39 stores the data of the previous equirectangular projection image from the storage unit 3000. Data of the projected image is read (S41). Then, the display control unit 34 displays the initial display area (terminal contact area) in the previous equirectangular projection image as a predetermined area image (S42). Thereafter, the process returns to step S33.
即ち、受付部32によって、正距円筒射影画像EC2における第2の所定領域画像が、正距円筒射影画像EC2において所定の移動方向とは逆方向へ一定領域に渡る移動を受け付けられ、更に同じ逆方向への移動を受け付けられた場合には、表示制御部34は、正距円筒射影画像EC1における第1の所定領域をディスプレイ318に表示する。より詳細に説明すると、本実施形態では、受付部32によって、正距円筒射影画像EC2の所定領域画像が、正距円筒射影画像EC2において所定の移動方向とは逆方向へ一定領域に渡る移動を受け付けられることは、受付部32によって、第2の所定領域画像が、正距円筒射影画像EC2において第2の所定領域画像が最初に表示された時の領域への移動を受け付けられることである。 That is, the reception unit 32 accepts movement of the second predetermined area image in the equirectangular projection image EC2 over a certain area in the opposite direction to the predetermined movement direction in the equirectangular projection image EC2, and furthermore, If the movement in the direction is accepted, the display control unit 34 displays the first predetermined area in the equirectangular projection image EC1 on the display 318. To explain in more detail, in this embodiment, the reception unit 32 causes the predetermined area image of the equirectangular projection image EC2 to move over a certain area in the opposite direction to the predetermined movement direction in the equirectangular projection image EC2. What is accepted means that the reception unit 32 accepts the movement of the second predetermined area image to the area in which the second predetermined area image is first displayed in the equirectangular projection image EC2.
例えば、図17(b)に示されているように、利用者Aが、これまでの方向とは逆の矢印方向(右方向)へスワイプ操作を行うと、図17(a)に示されているように、所定領域画像は、所定領域画像pa21から前の正距円筒射影画像EC1における初期表示位置(終端BE1の接触領域)である所定領域画像pa13に戻る。この場合、戻った後の所定領域画像pa13における移動方向(左方向)の後端r’13は、正距円筒射影画像EC1の終端BE1に接した状態になる。このように、スワイプ操作だけで、前の正距円筒射影画像の表示に戻ることができる。 For example, as shown in FIG. 17(b), when user A performs a swipe operation in the direction of the arrow opposite to the previous direction (to the right), the screen shown in FIG. 17(a) As shown, the predetermined area image returns from the predetermined area image pa21 to the predetermined area image pa13, which is the initial display position (the contact area of the terminal end BE1) in the previous equirectangular projection image EC1. In this case, the rear end r'13 in the moving direction (left direction) of the predetermined area image pa13 after returning is in contact with the terminal end BE1 of the equirectangular projection image EC1. In this way, it is possible to return to displaying the previous equirectangular projection image simply by a swipe operation.
一方、上記ステップS40で、判断部35が、前の正距円筒射影画像のデータが記憶されていないと判断した場合には(S40;NO)、上記ステップS33の処理に戻る。 On the other hand, if the determining unit 35 determines in step S40 that the data of the previous equirectangular projection image is not stored (S40; NO), the process returns to step S33.
以上より、図13に示されている処理の説明は終了する。 This concludes the description of the process shown in FIG. 13.
〔本実施形態の主な効果〕
以上説明したように本実施形態によれば、利用者Aによるスワイプ操作によって所定領域画像(第1の所定領域画像の一例)を所定の移動方向に移動させ、更に同じ移動方向へスワイプ操作により移動させることで、利用者にとっては同じ操作の繰り返しによって、次の正距円筒射影画像の所定領域画像(第2の所定領域画像の一例)を表示することができる。具体的には、利用者は、スワイプ操作のように、利用者が指を移動させる勢いで所定領域画像を移動させるような場合、図29(b)に示されているように、一旦、スワイプ操作中の指を止めて別の操作である「次へ」ボタンn1の押下を行う必要がない。そのため、スワイプ操作からボタンの押下に切り替えることで、利用者に操作性の違和感が生じてしまうという課題を解決することができる。
[Main effects of this embodiment]
As described above, according to the present embodiment, the predetermined area image (an example of the first predetermined area image) is moved in a predetermined movement direction by a swipe operation by the user A, and is further moved in the same movement direction by a swipe operation. By doing so, the user can display the predetermined area image (an example of the second predetermined area image) of the next equirectangular projection image by repeating the same operation. Specifically, when the user moves a predetermined area image with the momentum of moving the user's finger, as in the case of a swipe operation, as shown in FIG. There is no need to stop the finger during operation and press the "next" button n1, which is another operation. Therefore, by switching from a swipe operation to a button press, it is possible to solve the problem that the user feels uncomfortable with the operability.
●第2の実施形態
続いて、図18乃至図20を用いて、本発明の第2の実施形態について説明する。なお、第2の実施形態と第1の実施形態は、それぞれハードウェア構成及び機能構成は基本的に同様であるため、同様の構成、機能、及び処理については、同じ符号を付して説明を省略する。第2の実施形態では、第1の実施形態における図13のステップS34-1が、図18に示されているようにS34-2に置き換えられるだけである。よって、以下では、第1の実施形態と異なる処理又は動作についてのみ説明する。
●Second Embodiment Next, a second embodiment of the present invention will be described using FIGS. 18 to 20. Note that the second embodiment and the first embodiment have basically the same hardware configuration and functional configuration, so similar configurations, functions, and processing will be described with the same reference numerals. Omitted. In the second embodiment, step S34-1 in FIG. 13 in the first embodiment is simply replaced with S34-2 as shown in FIG. 18. Therefore, only the processes or operations that are different from the first embodiment will be described below.
〔実施形態の処理又は動作〕
図18に示されているように、受付部32がスワイプ操作の受け付けを行った後(S33)、判断部35は、所定領域画像におけるスワイプ操作による画像の移動方向の「後端」が、正距円筒射影画像の表示における「端」に移動したかを判断する(S34-2)。そして、判断部35によって移動していないと判断された場合(S34-1;NO)、ステップS35の処理に進む。例えば、図19(a)に示されているように、所定領域画像pa13におけるスワイプ操作による画像の移動方向の先端a13が、正距円筒射影画像EC1の後端TE1に移動しても、第1の実施形態のようにステップS35の処理には進まない。そして、図19(b)に示されているように、利用者Aが矢印方向(左方向)に所定領域画像pa13をスワイプ操作することで、図19(c)に示されているように、表示制御部34は、図19(a)における所定領域画像pa14の左側領域画像pa14aを図19(c)に示されているようにディスプレイ318の左側に表示する。また、表示制御部34は、図19(a)における所定領域画像pa14の右側領域画像pa14bを図19(c)に示されているようにディスプレイ318の右側に表示する。このように、表示制御部34が所定領域画像pa14を表示する場合、正距円筒射影画像EC1としての正距円筒射影画像内を周回して表示することになる。
[Processing or operation of embodiment]
As shown in FIG. 18, after the receiving unit 32 accepts the swipe operation (S33), the determining unit 35 determines whether the “back end” of the image in the predetermined area image in the moving direction due to the swipe operation is correct. It is determined whether it has moved to the "end" in the display of the cyclocylindrical projection image (S34-2). If the determining unit 35 determines that the object has not moved (S34-1; NO), the process proceeds to step S35. For example, as shown in FIG. 19(a), even if the leading end a13 in the image movement direction due to the swipe operation in the predetermined area image pa13 moves to the rear end TE1 of the equirectangular projection image EC1, the first Unlike the embodiment described above, the process does not proceed to step S35. Then, as shown in FIG. 19(b), the user A swipes the predetermined area image pa13 in the direction of the arrow (leftward), and as shown in FIG. 19(c), The display control unit 34 displays the left area image pa14a of the predetermined area image pa14 in FIG. 19(a) on the left side of the display 318 as shown in FIG. 19(c). Further, the display control unit 34 displays the right area image pa14b of the predetermined area image pa14 in FIG. 19(a) on the right side of the display 318 as shown in FIG. 19(c). In this manner, when the display control unit 34 displays the predetermined area image pa14, the image is displayed while going around the equirectangular projection image as the equirectangular projection image EC1.
一方、ステップS34-2で、判断部35が移動したと判断した場合(S34-2;YES)、ステップS37の処理に進む。例えば、図19(a)から更にスワイプ操作が行われて、所定領域画像pa14の後端r14が正距円筒射影画像EC1の表示における終端TE1に移動(到達)した場合には、表示制御部34は、図20(a)に示されているように、次の正距円筒射影画像としての正距円筒射影画像EC2における初期表示領域である所定領域画像pa21を、図20(b)に示されているようにディスプレイ318上に表示する。 On the other hand, if the determining unit 35 determines in step S34-2 that the object has moved (S34-2; YES), the process proceeds to step S37. For example, if the swipe operation is further performed from FIG. As shown in FIG. 20(a), the predetermined area image pa21, which is the initial display area in the equirectangular projection image EC2 as the next equirectangular projection image, is converted into a predetermined area image pa21 as shown in FIG. 20(b). It is displayed on the display 318 as if it were.
そして、図20(b)に示されているように、利用者Aがこれまでのスワイプ方向とは反対方向(右方向)にスワイプさせた場合には、図20(a)に示されているように、表示制御部34は、図20(a)における所定領域画像pa22の左側領域画像pa22aを図20(c)に示されているようにディスプレイ318の左側に表示する。また、表示制御部34は、図20(a)における所定領域画像pa22の右側領域画像pa22bを図20(c)に示されているようにディスプレイ318の右側に表示する。このように、表示制御部34が所定領域画像pa22を表示する場合、直ぐには前の正距円筒射影画像としての正距円筒射影画像EC1に戻らずに、正距円筒射影画像EC2としての全天球画像内を周回して表示することになる。 Then, as shown in FIG. 20(b), when the user A swipes in the opposite direction (to the right) from the previous swipe direction, the swipe direction shown in FIG. 20(a) The display control unit 34 displays the left area image pa22a of the predetermined area image pa22 in FIG. 20(a) on the left side of the display 318 as shown in FIG. 20(c). Further, the display control unit 34 displays the right area image pa22b of the predetermined area image pa22 in FIG. 20(a) on the right side of the display 318 as shown in FIG. 20(c). In this way, when the display control unit 34 displays the predetermined area image pa22, it does not immediately return to the equirectangular projection image EC1 as the previous equirectangular projection image, but displays the entire sky as the equirectangular projection image EC2. The spherical image will be displayed while orbiting within the image.
即ち、受付部32によって、正距円筒射影画像EC1における第1の所定領域画像が、正距円筒射影画像EC1において一定領域に渡る所定の移動方向への移動を受け付けられ、同じ移動方向への移動を受け付けられた場合には、表示制御部34は、次の正距円筒射影画像EC2における所定領域である第2の所定領域をディスプレイ318に表示させる。より詳細に説明すると、本実施形態では、受付部32によって、第1の所定領域画像が、正距円筒射影画像EC1において一定領域に渡る所定の移動方向への移動を受け付けられることは、受付部32によって、第1の所定領域画像における移動方向の「後端」が、正距円筒射影画像EC1の全領域に渡る移動を受け付けられることである。 That is, the receiving unit 32 accepts movement of the first predetermined area image in the equirectangular projection image EC1 in a predetermined movement direction over a certain area in the equirectangular projection image EC1, and the movement in the same movement direction is accepted. If it is accepted, the display control unit 34 causes the display 318 to display a second predetermined area that is a predetermined area in the next equirectangular projection image EC2. To explain in more detail, in this embodiment, the receiving unit 32 accepts movement of the first predetermined area image in a predetermined moving direction over a certain area in the equirectangular projection image EC1. 32, the "rear end" of the first predetermined area image in the moving direction can accept movement over the entire area of the equirectangular projection image EC1.
そして、図20(c)に示されている所定領域画像から、更に、利用者Aが図20(b)の矢印の方向(右方向)にスワイプ操作することで、所定領域画像pa22の後端r’22が正距円筒射影画像EC2の始端BE2に移動(到達)した場合(図18のS37;始端,S40;YES参照)、表示制御部34は、図19(a)に示されているような初期表示領域(終端TE1の接触領域)における所定領域画像pa13を、図19(b)のように表示する(S41,S42参照)。なお、図20(a)において、当初のスワイプ操作による画像の移動方向は、所定領域画像pa22の右端が先端となるが、スワイプ方向が逆になると、所定領域画像pa21の右端が後端r’22となる。 Then, from the predetermined area image shown in FIG. 20(c), the user A further swipes in the direction of the arrow (rightward) in FIG. When r'22 moves (reaches) the starting edge BE2 of the equirectangular projection image EC2 (see S37; starting edge, S40; YES in FIG. 18), the display control unit 34 operates as shown in FIG. 19(a). A predetermined area image pa13 in such an initial display area (contact area of the terminal end TE1) is displayed as shown in FIG. 19(b) (see S41 and S42). In FIG. 20(a), the right end of the predetermined area image pa22 is the leading edge in the initial movement direction of the image by the swipe operation, but when the swipe direction is reversed, the right end of the predetermined area image pa21 is the rear end r' It becomes 22.
即ち、受付部32によって、正距円筒射影画像EC2における第2の所定領域画像が、正距円筒射影画像EC2において所定の移動方向とは逆方向へ一定領域に渡る移動を受け付けられ、更に同じ逆方向への移動を受け付けられた場合には、表示制御部34は、正距円筒射影画像EC1における第1の所定領域をディスプレイ318に表示する。より詳細に説明すると、本実施形態では、受付部32によって、第2の所定領域画像が、正距円筒射影画像EC2所定の移動方向とは逆方向へ一定領域に渡る移動を受け付けられることは、受付部32によって、第2の所定領域画像における移動方向の「後端」が、正距円筒射影画像EC2において第2の所定領域画像が最初に表示された場合の当該第2の所定領域画像における移動方向の「先端」への移動を受け付けられることである。 That is, the reception unit 32 accepts movement of the second predetermined area image in the equirectangular projection image EC2 over a certain area in the opposite direction to the predetermined movement direction in the equirectangular projection image EC2, and furthermore, If the movement in the direction is accepted, the display control unit 34 displays the first predetermined area in the equirectangular projection image EC1 on the display 318. To explain in more detail, in this embodiment, the receiving unit 32 accepts movement of the second predetermined area image over a certain area in a direction opposite to the predetermined movement direction of the equirectangular projection image EC2. The reception unit 32 determines that the "rear end" in the movement direction of the second predetermined region image is the same as that of the second predetermined region image when the second predetermined region image is first displayed in the equirectangular projection image EC2. It is possible to accept movement toward the "tip" in the direction of movement.
以上より、図18に示されている処理の説明は終了する。 This concludes the explanation of the process shown in FIG. 18.
<その他の例>
以下に、図21を用いて、第2の実施形態のその他の例を説明する。第2の実施形態では、図18のステップS34-2に示されているように、判断部35は、所定領域画像におけるスワイプ操作による画像の移動方向の後端が正距円筒射影画像の表示における端に移動したかを判断していた。即ち、判断部35は、後端であるラインが正距円筒射影画像の表示における端であるラインに移動(到達)したかを判断していた。このようなラインがラインに移動したかを判断する場合に限らず、図21のように、判断部35は、所定領域画像pa12の終端r12を含むラインと正距円筒射影画像EC1の始端BE1との間である通過領域PA1が、正距円筒射影画像EC1の全ての領域と同じになったか否かを判断してもよい。そして、同じになった場合には、記憶・読出処理部39が記憶部3000から次の正距円筒射影画像のデータを読み出して、表示制御部34が次の正距円筒射影画像としての正距円筒射影画像EC2における初期表示領域(始端接触領域)を所定領域画像として表示する。
<Other examples>
Other examples of the second embodiment will be described below using FIG. 21. In the second embodiment, as shown in step S34-2 of FIG. 18, the determination unit 35 determines that the rear end of the image in the movement direction due to the swipe operation in the predetermined area image is in the display of the equirectangular projection image. I was deciding whether to move to the edge. That is, the determining unit 35 determines whether the line that is the rear end has moved (reached) the line that is the end in the display of the equirectangular projection image. As shown in FIG. 21, the determining unit 35 is not limited to determining whether such a line has moved to a line, and as shown in FIG. It may be determined whether the passing area PA1 between the two areas is the same as all areas of the equirectangular projection image EC1. If they are the same, the storage/reading processing section 39 reads out the data of the next equirectangular projection image from the storage section 3000, and the display control section 34 outputs the data of the next equirectangular projection image as the next equirectangular projection image. The initial display area (starting end contact area) in the cylindrical projection image EC2 is displayed as a predetermined area image.
〔本実施形態の主な効果〕
以上説明したように本実施形態によれば、第1の実施形態の効果を奏すると共に、以下のような効果を奏する。即ち、図19(c)に示されているように、正距円筒射影画像EC1の終端TE1付近の領域が、所定領域画像の左端として表示されるまで次の正距円筒射影画像EC2(の所定領域画像pa21)が表示されない。これにより、利用者Aとしては、完全に正距円筒射影画像を周回して所定領域画像を表示させたことになるため、より全天球画像を見やすくなるという効果を奏する。
[Main effects of this embodiment]
As explained above, according to this embodiment, the effects of the first embodiment are achieved, and the following effects are also achieved. That is, as shown in FIG. 19(c), the area near the end TE1 of the equirectangular projection image EC1 is displayed as the left end of the predetermined area image. Area image pa21) is not displayed. As a result, since the user A has completely gone around the equirectangular projection image to display the predetermined area image, the user A has the effect of making it easier to view the spherical image.
●第3の実施形態
続いて、図22乃至図25を用いて、本発明の第3の実施形態について説明する。なお、第1,2の実施形態では、スマートフォン3の記憶部3000に、一旦、正距円筒射影画像のデータを記憶しておき、必要に応じて読み出されていた。これに対して、第3の実施形態では、スマートフォン3の代わりに、新たに画像管理サーバ5で正距円筒射影画像のデータを記憶しておく。以下、具体的に第3の実施形態を説明する。
●Third Embodiment Next, a third embodiment of the present invention will be described using FIGS. 22 to 25. Note that in the first and second embodiments, the data of the equirectangular projection image is temporarily stored in the storage unit 3000 of the smartphone 3, and read out as needed. On the other hand, in the third embodiment, data of an equirectangular projection image is newly stored in the image management server 5 instead of the smartphone 3. The third embodiment will be specifically described below.
〔画像通信システムの構成の概略〕
まずは、図22を用いて、第3の実施形態に係る画像通信システムの構成の概略について説明する。図22は、第3の実施形態に係る画像通信システムの概略図である。第3の実施形態では、図8に示されているシステム構成に対して、更に、画像管理サーバ5が追加されている。画像管理サーバ5は、インターネット等の通信ネットワーク100を介して、スマートフォン3とデータ通信を行うことができる。画像管理サーバ5は、コンピュータによって構成されている。なお、画像管理サーバ5は、単一コンピュータによって構成されてもよいし、複数のコンピュータによって構成されてもよい。
[Outline of the configuration of the image communication system]
First, the outline of the configuration of the image communication system according to the third embodiment will be described using FIG. 22. FIG. 22 is a schematic diagram of an image communication system according to the third embodiment. In the third embodiment, an image management server 5 is further added to the system configuration shown in FIG. The image management server 5 can perform data communication with the smartphone 3 via a communication network 100 such as the Internet. The image management server 5 is configured by a computer. Note that the image management server 5 may be composed of a single computer or a plurality of computers.
〔実施形態のハードウェア構成〕
次に、図23を用いて、本実施形態の画像管理サーバ5のハードウェア構成を詳細に説明する。なお、撮影装置1とスマートフォン3のハードウェア構成は、第1の実施形態と同様であるため、これらの説明を省略する。
[Hardware configuration of embodiment]
Next, the hardware configuration of the image management server 5 of this embodiment will be described in detail using FIG. 23. Note that the hardware configurations of the photographing device 1 and the smartphone 3 are the same as those in the first embodiment, so their descriptions will be omitted.
<撮影装置のハードウェア構成>
図23は、画像管理サーバ5のハードウェア構成図である。画像管理サーバ5は、コンピュータによって構築されており、図23に示されているように、CPU501、ROM502、RAM503、HD504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、データバス510、キーボード511、ポインティングデバイス512、DVD-RW(Digital Versatile Disk Rewritable)ドライブ514、メディアI/F516を備えている。
<Hardware configuration of imaging device>
FIG. 23 is a hardware configuration diagram of the image management server 5. As shown in FIG. The image management server 5 is constructed by a computer, and as shown in FIG. interface) 508, a network I/F 509, a data bus 510, a keyboard 511, a pointing device 512, a DVD-RW (Digital Versatile Disk Rewritable) drive 514, and a media I/F 516.
これらのうち、CPU501は、画像管理サーバ5全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バスライン510は、図5に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Among these, the CPU 501 controls the overall operation of the image management server 5. The ROM 502 stores programs used to drive the CPU 501 such as IPL. RAM 503 is used as a work area for CPU 501. The HD 504 stores various data such as programs. The HDD controller 505 controls reading and writing of various data to the HD 504 under the control of the CPU 501. The display 506 displays various information such as a cursor, menu, window, characters, or images. External device connection I/F 508 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a printer, or the like. The network I/F 509 is an interface for data communication using the communication network 100. The bus line 510 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 501 shown in FIG. 5.
また、キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。DVD-RWドライブ514は、着脱可能な記録媒体の一例としてのDVD-RW513に対する各種データの読み出し又は書き込みを制御する。なお、DVD-RWに限らず、DVD-RやBlu-ray Disc(ブルーレイディスク)等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 Further, the keyboard 511 is a type of input means that includes a plurality of keys for inputting characters, numerical values, various instructions, and the like. The pointing device 512 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The DVD-RW drive 514 controls reading and writing of various data on a DVD-RW 513, which is an example of a removable recording medium. Note that the disc is not limited to DVD-RW, but may be DVD-R, Blu-ray Disc, or the like. The media I/F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.
〔実施形態の機能構成〕
次に、図24を用いて、本実施形態の機能構成について説明する。図24は、第3の実施形態に係る画像通信システムの機能ブロック図である。なお、撮影装置1とスマートフォン3の機能構成は、第1の実施形態と同様であるため、同様の機能構成には同じ符号を付して、説明を省略する。
[Functional configuration of embodiment]
Next, the functional configuration of this embodiment will be described using FIG. 24. FIG. 24 is a functional block diagram of an image communication system according to the third embodiment. Note that the functional configurations of the photographing device 1 and the smartphone 3 are the same as those in the first embodiment, so similar functional configurations are denoted by the same reference numerals and description thereof will be omitted.
<画像管理サーバの機能構成>
次に、図24を用いて、画像管理サーバ5の機能構成について詳細に説明する。図24は、第3の実施形態に係る画像通信システムの機能ブロック図である。
<Functional configuration of image management server>
Next, the functional configuration of the image management server 5 will be described in detail using FIG. 24. FIG. 24 is a functional block diagram of an image communication system according to the third embodiment.
図24に示されているように、画像管理サーバ5は、送受信部51、及び記憶・読出処理部59を有している。これら各部は、図23に示されている各構成要素のいずれかが、HD504からRAM503上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。 As shown in FIG. 24, the image management server 5 includes a transmitting/receiving section 51 and a storage/reading processing section 59. Each of these units is a function or means that is realized when any of the components shown in FIG. It is.
また、画像管理サーバ5は、図23に示されているROM502、及びHD504によって構築される記憶部5000を有している。 Further, the image management server 5 has a storage unit 5000 constructed by a ROM 502 and an HD 504 shown in FIG.
(画像管理システムの各機能構成)
次に、図23及び図24を用いて、撮影装置1の各機能構成について更に詳細に説明する。
(Functional configuration of image management system)
Next, each functional configuration of the photographing device 1 will be explained in more detail using FIGS. 23 and 24.
画像管理システム5の送受信部51は、主に、ネットワークI/F510に対するCPU501の処理によって実現され、インターネット等の通信ネットワーク100を介して、他の装置(例えば、スマートフォン3)との間で各種データ(または情報)の送受信を行う。 The transmitting/receiving unit 51 of the image management system 5 is mainly realized by the processing of the CPU 501 on the network I/F 510, and exchanges various data with other devices (for example, the smartphone 3) via the communication network 100 such as the Internet. (or information).
記憶・読出処理部59は、主に、CPU501の処理によって実現され、記憶部5000に、各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。 The storage/read processing unit 59 is mainly realized by the processing of the CPU 501, and stores various data (or information) in the storage unit 5000 and reads various data (or information) from the storage unit 5000.
〔実施形態の処理又は動作〕
図25を用いて、第3の実施形態の処理又は動作について説明する。図25は、第3の実施形態に係る正距円筒射影画像データの通信処理を示したシーケンス図である。
[Processing or operation of embodiment]
The processing or operation of the third embodiment will be described using FIG. 25. FIG. 25 is a sequence diagram showing communication processing of equirectangular projection image data according to the third embodiment.
まず、利用者Aは撮影装置1を利用して被写体や風景等を撮影(図2参照)する(S111)。 First, user A uses the photographing device 1 to photograph a subject, scenery, etc. (see FIG. 2) (S111).
次に、撮影装置1の画像・音処理部16は、ステップS111で撮影されることで得られた2つの半球画像(図3(a)、(b)参照)に基づいて正距円筒射影画像(図3(c)参照)のデータを作成する(S112)。そして、撮影装置1の通信部18は、スマートフォン3の通信部38に対してステップS112で作成された正距円筒射影画像のデータを送信する(S113)。そして、送受信部31は、通信部18によって受信された正距円筒射影画像データを、通信ネットワーク100を介して画像管理サーバ5に送信する(S114)。これにより、画像管理サーバ5の送受信部51は、正距円筒射影画像データを受信する。 Next, the image/sound processing unit 16 of the photographing device 1 generates an equirectangular projection image based on the two hemispherical images obtained by photographing in step S111 (see FIGS. 3(a) and 3(b)). (See FIG. 3(c)) is created (S112). Then, the communication unit 18 of the photographing device 1 transmits the data of the equirectangular projection image created in step S112 to the communication unit 38 of the smartphone 3 (S113). Then, the transmitting/receiving unit 31 transmits the equirectangular projection image data received by the communication unit 18 to the image management server 5 via the communication network 100 (S114). Thereby, the transmitting/receiving unit 51 of the image management server 5 receives the equirectangular projection image data.
次に、画像管理サーバ5では、記憶・読出処理部59が記憶部5000に正距円筒射影画像データを記憶する(S115)。これにより、画像管理サーバ5側で、正距円筒射影画像データを管理しておく。 Next, in the image management server 5, the storage/read processing unit 59 stores the equirectangular projection image data in the storage unit 5000 (S115). Thereby, the equirectangular projection image data is managed on the image management server 5 side.
次に、スマートフォン3は、表示の処理を行う(S116)。このステップS116の処理は、基本的に図13又は図18に示されている処理と同様であるが、ステップS31,S39,S41が異なる。即ち、ステップS31,S39,S41では、スマートフォン3の記憶・読出処理部39がスマートフォン3の記憶部3000から正距円筒射影画像データを読み出すのに対して、第3の実施形態では、図25に示されているように、スマートフォン3が通信ネットワーク100を介して画像管理サーバ5から正距円筒射影画像データを取得する点で両者が異なる。 Next, the smartphone 3 performs display processing (S116). The process in step S116 is basically the same as the process shown in FIG. 13 or 18, but steps S31, S39, and S41 are different. That is, in steps S31, S39, and S41, the storage/read processing unit 39 of the smartphone 3 reads equirectangular projection image data from the storage unit 3000 of the smartphone 3, whereas in the third embodiment, the process shown in FIG. As shown, the two differ in that the smartphone 3 acquires equirectangular projection image data from the image management server 5 via the communication network 100.
具体的には、図25に示されているように、スマートフォン3の送受信部31は画像管理サーバ5に対して正距円筒射影画像データの要求を示す要求情報を送信する。これにより、画像管理サーバ5の送受信部51は、要求情報を受信する。そして、画像管理サーバ5の記憶・読出処理部59は、記憶部5000から要求対象である正距円筒射影画像データを読み出す(S117)。そして、送受信部51は、スマートフォン3に対して要求対象である正距円筒射影画像データを送信する(S117)。これにより、スマートフォン3の送受信部31は、正距円筒射影画像データを受信する。その後は、スマートフォン3で、ステップS32又はステップS42の処理が実行される。 Specifically, as shown in FIG. 25, the transmitting/receiving unit 31 of the smartphone 3 transmits request information indicating a request for equirectangular projection image data to the image management server 5. Thereby, the transmitting/receiving unit 51 of the image management server 5 receives the request information. Then, the storage/read processing unit 59 of the image management server 5 reads the requested equirectangular projection image data from the storage unit 5000 (S117). Then, the transmitting/receiving unit 51 transmits the requested equirectangular projection image data to the smartphone 3 (S117). Thereby, the transmitting/receiving unit 31 of the smartphone 3 receives the equirectangular projection image data. After that, the smartphone 3 executes the process of step S32 or step S42.
〔本実施形態の主な効果〕
以上説明したように本実施形態によれば、第1の実施形態の効果を奏すると共に、正距円筒射影画像データが大容量であったり、多数のデータ数であったりしても、スマートフォン3の記憶部3000の空き容量を圧迫することがないという効果を奏する。
[Main effects of this embodiment]
As explained above, according to the present embodiment, the effects of the first embodiment are achieved, and even if the equirectangular projection image data has a large volume or a large number of data, the smartphone 3 can This has the effect that the free capacity of the storage unit 3000 is not compressed.
〔補足〕
上述の実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated
Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU、及び従来の回路モジュール等のデバイスを含む。
〔supplement〕
Each function in the embodiments described above can be realized by one or more processing circuits. Here, the "processing circuit" in this embodiment refers to a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or an ASIC (ASIC) designed to execute each function described above. Application Specific Integrated
circuit), DSP (digital signal processor), FPGA (field programmable gate array), SOC (system on a chip), GPU, and conventional circuit modules.
また、全天球画像は3次元画像であり、広角画像の一例である。広角画像は所定領域画像以上の大きさ(画素数)を有し、2次元画像としてのパノラマ画像及び一般の平面画像も含まれる。 Further, the omnidirectional image is a three-dimensional image and is an example of a wide-angle image. The wide-angle image has a size (number of pixels) larger than the predetermined area image, and includes a panoramic image as a two-dimensional image and a general planar image.
また、通信ネットワーク100には、ブロックチェーンによって構築されたネットワークも含まれる。 Furthermore, the communication network 100 also includes a network constructed using blockchain.
1 撮影装置
3 スマートフォン(通信端末の一例)
5 画像管理サーバ
12 受付部
13 撮影部
14 集音部
15 判断部
16 画像処理部
19 記憶・読出処理部
31 送受信部
32 受付部(受付手段の一例)
34 表示制御部(表示制御手段の一例)
35 判断部
38 通信部
39 記憶・読出処理部
51 送受信部
59 記憶・読出処理部
318 ディスプレイ(表示手段の一例)
1000 記憶部
3000 記憶部
5000 記憶部
1 Photographing device 3 Smartphone (an example of a communication terminal)
5 Image management server 12 Reception section 13 Photography section 14 Sound collection section 15 Judgment section 16 Image processing section 19 Storage/reading processing section 31 Transmission/reception section 32 Reception section (an example of reception means)
34 Display control unit (an example of display control means)
35 Judgment unit 38 Communication unit 39 Storage/reading processing unit 51 Transmission/reception unit 59 Storage/reading processing unit 318 Display (an example of display means)
1000 Storage unit 3000 Storage unit 5000 Storage unit
Claims (12)
前記表示手段に表示中の前記第1の所定領域画像の移動を受け付ける受付手段と、
前記受付手段によって、前記第1の所定領域画像が、前記任意の広角画像において一定領域に渡る所定の移動方向への移動を受け付けられ、更に前記移動方向への移動を受け付けられた場合には、次の広角画像における所定領域である第2の所定領域を前記表示手段に表示させる表示制御手段と、
を有することを特徴とする通信端末。 A communication terminal that causes a display means to display a first predetermined area image that is a predetermined area in an arbitrary wide-angle image,
reception means for accepting movement of the first predetermined area image being displayed on the display means;
When the acceptance means accepts movement of the first predetermined area image in a predetermined movement direction over a certain area in the arbitrary wide-angle image, and further accepts movement in the movement direction, Display control means for causing the display means to display a second predetermined area that is a predetermined area in the next wide-angle image;
A communication terminal comprising:
被写体を撮影して得た前記広角画像のデータを前記通信端末に送信する撮影装置と、
を有することを特徴とする画像通信システム。 A communication terminal according to any one of claims 1 to 7,
a photographing device that transmits data of the wide-angle image obtained by photographing a subject to the communication terminal;
An image communication system comprising:
前記広角画像のデータを管理する画像管理サーバを有し、
前記通信端末は、通信ネットワークを介して前記画像管理サーバから前記広角画像のデータを受信する受信手段を有することを特徴とする画像通信システム。 The image communication system according to claim 8,
an image management server that manages data of the wide-angle image;
An image communication system characterized in that the communication terminal has a receiving means for receiving data of the wide-angle image from the image management server via a communication network.
前記表示手段に表示中の前記第1の所定領域画像の移動を受け付ける受付ステップと、
前記受付ステップによって、前記第1の所定領域画像が、前記任意の広角画像において一定領域に渡る所定の移動方向への移動を受け付けられ、更に前記移動方向への移動を受け付けられた場合には、次の広角画像における所定領域である第2の所定領域を前記表示手段に表示させる表示制御ステップと、
を実行することを特徴とする表示方法。 A display method for displaying a first predetermined region image, which is a predetermined region in an arbitrary wide-angle image, on a display means,
a reception step of accepting a movement of the first predetermined area image being displayed on the display means;
In the accepting step, when the first predetermined area image is accepted for movement in a predetermined movement direction over a certain area in the arbitrary wide-angle image, and further movement in the movement direction is accepted, a display control step of causing the display means to display a second predetermined area that is a predetermined area in the next wide-angle image;
A display method characterized by performing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019212855A JP7358938B2 (en) | 2019-11-26 | 2019-11-26 | Communication terminal, image communication system, display method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019212855A JP7358938B2 (en) | 2019-11-26 | 2019-11-26 | Communication terminal, image communication system, display method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021086243A JP2021086243A (en) | 2021-06-03 |
JP7358938B2 true JP7358938B2 (en) | 2023-10-11 |
Family
ID=76087704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019212855A Active JP7358938B2 (en) | 2019-11-26 | 2019-11-26 | Communication terminal, image communication system, display method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7358938B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015007800A (en) | 2014-08-29 | 2015-01-15 | レノボ・イノベーションズ・リミテッド(香港) | Image display device, method for controlling operation, and program |
JP2016146098A (en) | 2015-02-09 | 2016-08-12 | 株式会社リコー | Video display system, information processing device, video display method, video display program, video processing device, video processing method, and video processing program |
JP2019053427A (en) | 2017-09-13 | 2019-04-04 | 富士ゼロックス株式会社 | Information processing device, data structure of image file, and program |
JP2019080252A (en) | 2017-10-26 | 2019-05-23 | 株式会社リコー | Program, image display method, image display system, and information processing device |
JP2019096305A (en) | 2017-11-21 | 2019-06-20 | キヤノン株式会社 | Electronic apparatus and control method, program, and recording medium thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5920057B2 (en) * | 2012-06-29 | 2016-05-18 | 株式会社リコー | Transmission device, image sharing system, transmission method, and program |
-
2019
- 2019-11-26 JP JP2019212855A patent/JP7358938B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015007800A (en) | 2014-08-29 | 2015-01-15 | レノボ・イノベーションズ・リミテッド(香港) | Image display device, method for controlling operation, and program |
JP2016146098A (en) | 2015-02-09 | 2016-08-12 | 株式会社リコー | Video display system, information processing device, video display method, video display program, video processing device, video processing method, and video processing program |
JP2019053427A (en) | 2017-09-13 | 2019-04-04 | 富士ゼロックス株式会社 | Information processing device, data structure of image file, and program |
JP2019080252A (en) | 2017-10-26 | 2019-05-23 | 株式会社リコー | Program, image display method, image display system, and information processing device |
JP2019096305A (en) | 2017-11-21 | 2019-06-20 | キヤノン株式会社 | Electronic apparatus and control method, program, and recording medium thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2021086243A (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022031324A (en) | Communication management system, communication system, communication management method and program | |
US10437545B2 (en) | Apparatus, system, and method for controlling display, and recording medium | |
CN111726520B (en) | Imaging device, imaging system, and image processing method | |
JP2020149635A (en) | Imaging apparatus, image communication system, image processing method, and program | |
JP2019057264A (en) | Image processing apparatus, photographing system, image processing method, and program | |
JP2019164782A (en) | Image processing apparatus, image capturing system, image processing method, and program | |
JP2019075766A (en) | Image processing apparatus, photographing system, image processing method, and program | |
JP2022130180A (en) | Image processing method, program, image processing device, and image processing system | |
US10147160B2 (en) | Image management apparatus and system, and method for controlling display of captured image | |
JP2018110384A (en) | Image processing apparatus, imaging system, image processing method and program | |
JP2018056889A (en) | Display terminal, display method, and program | |
US11533430B2 (en) | Image capturing device with display control, image communication system, and method for display control, and recording medium | |
JP2018026642A (en) | Image management system, image communication system, image management method, and program | |
JP7358938B2 (en) | Communication terminal, image communication system, display method, and program | |
JP6812643B2 (en) | Communication terminals, image communication systems, display methods, and programs | |
JP2019185757A (en) | Image processing device, imaging system, image processing method, and program | |
US11700455B2 (en) | Image capturing device, image communication system, and method for display control | |
JP7415544B2 (en) | Photography system and method | |
JP6586819B2 (en) | Image management system, image communication system, image management method, and program | |
JP2018109971A (en) | Image processing device, image processing system, photographing system, image processing method, and program | |
JP7484237B2 (en) | Photographing device, photographing system, image processing method, and program | |
JP2021097326A (en) | Communication terminal, photographing system, image processing method, and program | |
US20240323537A1 (en) | Display terminal, communication system, display method, and recording medium | |
JP2018110385A (en) | Communication terminal, imaging system, method for image processing, and program | |
US20240323538A1 (en) | Display terminal, communication system, display method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230911 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7358938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |