JP6714819B2 - Image display system, information processing device, image display method, and image display program - Google Patents

Image display system, information processing device, image display method, and image display program Download PDF

Info

Publication number
JP6714819B2
JP6714819B2 JP2016004749A JP2016004749A JP6714819B2 JP 6714819 B2 JP6714819 B2 JP 6714819B2 JP 2016004749 A JP2016004749 A JP 2016004749A JP 2016004749 A JP2016004749 A JP 2016004749A JP 6714819 B2 JP6714819 B2 JP 6714819B2
Authority
JP
Japan
Prior art keywords
image
unit
definition
display
omnidirectional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016004749A
Other languages
Japanese (ja)
Other versions
JP2017126868A (en
Inventor
石田 明雄
明雄 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016004749A priority Critical patent/JP6714819B2/en
Publication of JP2017126868A publication Critical patent/JP2017126868A/en
Application granted granted Critical
Publication of JP6714819B2 publication Critical patent/JP6714819B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像表示システム、情報処理装置、画像表示方法及び画像表示プログラムに関する。 The present invention relates to an image display system, an information processing device, an image display method, and an image display program.

全天球カメラを利用して、360度パノラマ画像を作成する技術が知られている。 There is known a technique of creating a 360-degree panoramic image using a spherical camera.

また、特許文献1には、静止画像と静止画像に貼り付けるべき動画像を記憶デバイスから読み出し、動画像を静止画像の領域に対応付けるためのコントロールポイントにもとづいて静止画像に対する動画像のアライメントを調整し、静止画像内の動画像を含む領域にズームインする指示を受け付けた場合、動画像の静止画フレームに代えて、動画像の再生を開始する画像表示方法が開示されている。 Further, in Patent Document 1, a still image and a moving image to be attached to the still image are read from a storage device, and alignment of the moving image with respect to the still image is adjusted based on a control point for associating the moving image with a region of the still image. However, there is disclosed an image display method of starting reproduction of a moving image instead of the still image frame of the moving image when an instruction to zoom in on a region including the moving image in the still image is received.

しかしながら、従来の全天球カメラは、360度全天球の画像を同じ解像度で撮影できるが、ある部分をズームしてみると画像が粗くなってしまうという問題があった。 However, the conventional omnidirectional camera can take a 360-degree omnidirectional image with the same resolution, but there is a problem that the image becomes rough when a certain part is zoomed.

本発明は、上記に鑑みてなされたものであって、全天球画像の一部に高精細な画像を容易に対応付けることができる画像表示システム、情報処理装置、画像表示方法及び画像表示プログラムを提供することを目的とする。 The present invention has been made in view of the above, and provides an image display system, an information processing device, an image display method, and an image display program capable of easily associating a high-definition image with a part of the omnidirectional image. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明は、方位情報と上下の方向を示す情報が付された全天球画像と、前記全天球画像の撮影位置において前記全天球画像よりも画質を精細に撮影されて撮影範囲を示す範囲情報が付された高精細画像とを記憶する記憶部と、前記方位情報と上下の方向を示す情報及び前記範囲情報に基づいて、前記高精細画像を前記全天球画像内で対応する対応領域に対応づける対応付け部と、前記全天球画像及び前記高精細画像の少なくともいずれかを、外部からの指示に応じた倍率で表示する表示部と、前記表示部が表示している前記対応領域の倍率が所定値以上に変えられた場合に、前記表示部が表示している前記対応領域を前記高精細画像に切替えて前記表示部に表示させる切替部とを有する。 In order to solve the above-mentioned problems and achieve the object, the present invention provides a spherical image with azimuth information and information indicating up and down directions, and the spherical image at the shooting position of the spherical image. A storage unit that stores a high-definition image that has been captured with a higher image quality than an image and that has range information indicating a shooting range, based on the azimuth information , the information indicating the vertical direction, and the range information, An associating unit that associates a high-definition image with a corresponding region in the omnidirectional image, and displays at least one of the omnidirectional image and the high-definition image at a magnification according to an instruction from the outside. When the magnification of the display unit and the corresponding region displayed by the display unit is changed to a predetermined value or more, the corresponding region displayed by the display unit is switched to the high-definition image and the display unit And a switching unit for displaying.

本発明によれば、全天球画像の一部に高精細な画像を容易に対応付けることができるという効果を奏する。 According to the present invention, it is possible to easily associate a high-definition image with a part of the omnidirectional image.

図1は、実施形態にかかる画像表示システムの概要を示す図である。FIG. 1 is a diagram showing an outline of an image display system according to an embodiment. 図2は、撮像装置のハードウェア構成を例示する図である。FIG. 2 is a diagram illustrating a hardware configuration of the imaging device. 図3は、全天球画像を例示する図である。FIG. 3 is a diagram illustrating a spherical image. 図4は、携帯端末のハードウェア構成を例示する図である。FIG. 4 is a diagram illustrating a hardware configuration of the mobile terminal. 図5は、高精細画像を例示する図である。FIG. 5 is a diagram illustrating a high definition image. 図6は、サーバのハードウェア構成を例示する図である。FIG. 6 is a diagram illustrating a hardware configuration of the server. 図7は、サーバが記憶するコンテンツを表示装置に表示させる場合に動作する画像表示システムの機能の概要を示す図である。FIG. 7 is a diagram showing an outline of the function of the image display system that operates when the content stored in the server is displayed on the display device. 図8は、対応付け部が対応付けデータを作成する動作を概念的に示す図である。FIG. 8 is a diagram conceptually showing the operation of the association unit creating association data. 図9は、全天球画像と高精細画像とを対応付けた状態を示す図である。FIG. 9 is a diagram showing a state in which a spherical image and a high-definition image are associated with each other. 図10は、全天球画像の球の半径、画角及び弦の長さを示す図である。FIG. 10 is a diagram showing the radius of the sphere, the angle of view, and the length of the chord of the spherical image. 図11は、表示装置の表示部、全天球画像及び高精細画像の関係を示す図である。FIG. 11 is a diagram showing the relationship between the display unit of the display device, the spherical image and the high-definition image. 図12は、対応付け部が対応付けデータを生成する場合に行う処理例を示すフローチャートである。FIG. 12 is a flowchart showing an example of processing performed when the association unit generates association data. 図13は、切替部が行う処理例を示すフローチャートである。FIG. 13 is a flowchart showing an example of processing performed by the switching unit.

まず、画像表示システムの実施形態の概要について説明する。図1は、本発明の実施形態にかかる画像表示システム1の概要を示す図である。画像表示システム1は、撮像装置2及び携帯端末3がネットワーク10を介してサーバ4に接続されている。また、サーバ4は、ネットワーク10及びアクセスポイント12を介して表示装置14に接続されている。 First, the outline of the embodiment of the image display system will be described. FIG. 1 is a diagram showing an outline of an image display system 1 according to an embodiment of the present invention. In the image display system 1, the imaging device 2 and the mobile terminal 3 are connected to the server 4 via the network 10. The server 4 is also connected to the display device 14 via the network 10 and the access point 12.

撮像装置2は、全天球カメラであり、全天球画像(360度パノラマ画像)を撮影可能にされている。携帯端末3は、カメラ(撮像素子)を備えた端末であり、撮像装置2の解像度よりも高い解像度の画像を撮影可能にされている。 The imaging device 2 is a omnidirectional camera and is capable of taking a omnidirectional image (360-degree panoramic image). The mobile terminal 3 is a terminal equipped with a camera (imaging element), and is capable of capturing an image with a resolution higher than that of the imaging device 2.

画像表示システム1において、撮像装置2は、例えば定期的又は一定距離ごとに周囲を撮影するように設定されており、撮影した画像(後述する全天球画像)を撮像位置及び撮影日時と対応付けてサーバ4へ送信する。また、撮影者は、撮像装置2によって撮影を行うタイミングで、位置センサ(GPSセンサ)及び方向センサを備えた携帯端末3を用いて特に興味のある方向の写真を撮影する。この時、携帯端末3が撮影した画像(写真)には、携帯端末3のGPSセンサ、方向センサなどによって撮影位置、撮影の向き及び撮影日時の情報が同時に保存される。 In the image display system 1, the imaging device 2 is set to capture an image of the surroundings, for example, periodically or at regular intervals, and associates the captured image (a celestial sphere image described below) with the imaging position and the shooting date and time. And sends it to the server 4. Further, the photographer takes a photograph in a direction of particular interest by using the mobile terminal 3 equipped with a position sensor (GPS sensor) and a direction sensor at the timing of taking an image with the imaging device 2. At this time, in the image (photograph) taken by the mobile terminal 3, information on the shooting position, the shooting direction, and the shooting date and time is simultaneously saved by the GPS sensor, the direction sensor, and the like of the mobile terminal 3.

例えば、撮影者は、撮像装置2及び携帯端末3を携帯して、A地点、B地点及びC地点を通って歩行し、A地点、B地点及びC地点で撮像装置2による撮影を行い、A地点及びC地点で携帯端末3による撮影を行う。 For example, the photographer carries the imaging device 2 and the mobile terminal 3, walks through points A, B, and C, and performs imaging with the imaging device 2 at points A, B, and C. Photographing is performed by the mobile terminal 3 at points C and C.

撮影者は、目的の場所まで歩行してルート上の撮影が終了すると、撮影した全天球画像及び携帯端末3により撮影した画像を同時にサーバ4に送信する。そして、全天球画像と同じ位置で携帯端末3により撮影された画像は、撮影日時などの情報を用いて全天球画像に対応付けられる。 When the photographer walks to the destination and finishes photographing on the route, the photographed spherical image and the image photographed by the mobile terminal 3 are simultaneously transmitted to the server 4. Then, the image captured by the mobile terminal 3 at the same position as the celestial sphere image is associated with the celestial sphere image using information such as the photographing date and time.

例えばサーバ4は、撮影日時、画像に埋め込まれた方位の情報及びGPS情報などを用いて、全天球画像と携帯端末3により撮影された画像とを対応付ける(例えば合成する)。この対応付けは、携帯端末3などが行ってもよい。 For example, the server 4 associates (combines, for example) the omnidirectional image with the image captured by the mobile terminal 3 by using the shooting date and time, the orientation information embedded in the image, the GPS information, and the like. This association may be performed by the mobile terminal 3 or the like.

表示装置14は、例えばスマートフォンやPC(Personal Computer)などであり、例えばサーバ4が対応付けた全天球画像と携帯端末3により撮影された画像とをサーバ4から受信して表示する。例えば、表示装置14は、ブラウザやアプリケーションなどによって画像を表示する。なお、表示装置14が例えばスマートフォンなどである場合、携帯して移動させることが容易であることから、表示装置14を移動体端末と記すことがある。 The display device 14 is, for example, a smartphone or a PC (Personal Computer), and receives, for example, a spherical image associated with the server 4 and an image captured by the mobile terminal 3 from the server 4 and displays the image. For example, the display device 14 displays an image using a browser, an application, or the like. When the display device 14 is, for example, a smartphone, the display device 14 may be referred to as a mobile terminal because it is easy to carry and move.

次に、画像表示システム1を構成する各部の詳細について説明する。図2は、撮像装置2のハードウェア構成を例示する図である。図2に示すように、撮像装置2は、例えば撮影ユニット20、撮影制御ユニット204、画像処理ユニット206、CPU208、ROM210、SRAM212、DRAM214、操作部216、ネットワークインターフェース(I/F)218、通信部220及び電子コンパス224を有する。 Next, the details of each unit constituting the image display system 1 will be described. FIG. 2 is a diagram illustrating a hardware configuration of the imaging device 2. As shown in FIG. 2, the imaging device 2 includes, for example, the photographing unit 20, the photographing control unit 204, the image processing unit 206, the CPU 208, the ROM 210, the SRAM 212, the DRAM 214, the operation unit 216, the network interface (I/F) 218, and the communication unit. It has 220 and an electronic compass 224.

撮影ユニット20は、例えば画角が約180度となる2つの魚眼レンズ200と、2つのCMOSセンサなどの撮像素子202とを有する。撮影制御ユニット204は、2つの撮像素子202が同時に画像を撮影するように制御する。画像処理ユニット206は、2つの撮像素子202が撮影した画像を図3に例示したような全天球画像とする処理を行う。 The imaging unit 20 includes, for example, two fisheye lenses 200 having an angle of view of about 180 degrees and two image pickup elements 202 such as CMOS sensors. The shooting control unit 204 controls the two image pickup devices 202 to shoot images at the same time. The image processing unit 206 performs a process of converting the images captured by the two image pickup elements 202 into a spherical image as illustrated in FIG.

CPU208は、撮像装置2を構成する各部を制御する。ROM210は、撮像装置2を動作させるプログラム等を記憶している。SRAM212は、プログラム実行時の処理領域などに用いられる。DRAM214は、データサイズの大きな画像データ(全天球画像)などの記憶、処理及び展開などに用いられる。操作部216は、撮像装置2に対するユーザの操作を受入れる。ネットワークI/F218は、ネットワーク10などに接続可能にされたインターフェースである。通信部220は、アンテナ222などを介してサーバ4との間で通信を可能にされている。 The CPU 208 controls each unit that constitutes the imaging device 2. The ROM 210 stores a program for operating the imaging device 2 and the like. The SRAM 212 is used as a processing area when the program is executed. The DRAM 214 is used for storing, processing, developing, and the like of image data having a large data size (all-sky image). The operation unit 216 receives a user operation on the imaging device 2. The network I/F 218 is an interface that can be connected to the network 10 or the like. The communication unit 220 is capable of communicating with the server 4 via the antenna 222 or the like.

電子コンパス224は、撮影ユニット20が撮影する方角及び向きを検出する。例えば電子コンパス224は、地球の磁気から撮像装置2の方位及び傾き(Roll回転角)を算出し、方位情報・傾き情報を出力する。この方位情報・傾き情報は、Exif(メタデータ)のフォーマットに従って、撮像素子202が撮影した画像に添付される。方位・傾き情報は、画像補正等の画像処理に利用される。なお、Exifには、画像の撮像日時、画像データのサムネイル、及び画像データのデータ容量等も含まれている。なお、撮像装置2は、電子コンパス224によってGPSによる位置(位置情報:撮影位置)も検出するようにされている。表1は、撮像装置2が撮影した全天球画像に埋め込まれる情報を例示している。 The electronic compass 224 detects the direction and the direction in which the photographing unit 20 photographs. For example, the electronic compass 224 calculates the azimuth and tilt (Roll rotation angle) of the imaging device 2 from the magnetism of the earth, and outputs azimuth information/tilt information. This azimuth information/tilt information is attached to the image captured by the image sensor 202 according to the Exif (metadata) format. The azimuth/tilt information is used for image processing such as image correction. The Exif also includes the date and time when the image was captured, the thumbnail of the image data, the data capacity of the image data, and the like. The image pickup apparatus 2 is also configured to detect the position (position information: shooting position) by GPS by the electronic compass 224. Table 1 exemplifies information embedded in the omnidirectional image captured by the imaging device 2.

Figure 0006714819
Figure 0006714819

図4は、携帯端末3のハードウェア構成を例示する図である。携帯端末3は、例えば携帯電話網を介して通信を可能にされたスマートフォンなどであり、音声入力部300、音声出力部302、通信部304、GPS受信部308、ディスプレイ310、タッチパネル312、撮像素子314、CPU316、ROM318、RAM320、EEPROM322、CMOS324、センサ326、メディアドライブ328を有し、各部がバス330を介して接続されている。 FIG. 4 is a diagram illustrating a hardware configuration of the mobile terminal 3. The mobile terminal 3 is, for example, a smart phone or the like enabled to communicate via a mobile phone network, and has a voice input unit 300, a voice output unit 302, a communication unit 304, a GPS receiving unit 308, a display 310, a touch panel 312, an image sensor. 314, CPU 316, ROM 318, RAM 320, EEPROM 322, CMOS 324, sensor 326, and media drive 328, and each unit is connected via a bus 330.

音声入力部300は、例えばマイクなどであり、ユーザの音声入力を受入れる。音声出力部302は、例えばスピーカなどであり、音声を出力する。通信部304は、アンテナ306を介して例えば携帯電話網を用いたネットワーク通信を行う。GPS受信部308は、GPSを用いて携帯端末3の位置(例えば撮影位置)を検出する位置センサ(GPSセンサ)である。ディスプレイ310は、携帯端末3の動作に関する表示を行う。タッチパネル312は、携帯端末3に対するユーザの操作入力を受入れる。撮像素子314は、例えばCMOSセンサなどであり、図5に例示したような撮像装置2よりも解像度が高い高精細な画像(高精細画像)を撮影する。 The voice input unit 300 is, for example, a microphone and receives the voice input of the user. The voice output unit 302 is, for example, a speaker and outputs voice. The communication unit 304 performs network communication using, for example, a mobile phone network via the antenna 306. The GPS receiving unit 308 is a position sensor (GPS sensor) that detects the position (for example, the shooting position) of the mobile terminal 3 using GPS. The display 310 displays the operation of the mobile terminal 3. The touch panel 312 receives a user's operation input to the mobile terminal 3. The image sensor 314 is, for example, a CMOS sensor or the like, and captures a high-definition image (high-definition image) having a higher resolution than the image pickup device 2 illustrated in FIG.

CPU316は、携帯端末3を構成する各部を制御する。ROM318は、携帯端末3を動作させるプログラムなどを記憶している。RAM320は、プログラム実行時の処理領域、及び高精細画像の記憶などに用いられる。EEPROM322は、データを書き換え可能に保持する。CMOS324は、画像処理を含むデジタル処理を行う。センサ326は、地磁気を検知する電子磁気コンパスとしての機能やジャイロセンサ・加速度センサ等の機能を備えた加速度・方位センサであり、例えば携帯端末3による撮影方向を検出する方向センサとしての機能を備える。メディアドライブ328は、メモリカードなどのメディア332との間でデータの読み書きを行う。メディア332は、例えば高精細画像を記憶する。 The CPU 316 controls each unit that makes up the mobile terminal 3. The ROM 318 stores a program for operating the mobile terminal 3 and the like. The RAM 320 is used for a processing area during program execution, storage of high-definition images, and the like. The EEPROM 322 holds data so that it can be rewritten. The CMOS 324 performs digital processing including image processing. The sensor 326 is an acceleration/direction sensor having a function as an electronic magnetic compass that detects geomagnetism and a function such as a gyro sensor/acceleration sensor. For example, the sensor 326 has a function as a direction sensor that detects a shooting direction of the mobile terminal 3. .. The media drive 328 reads/writes data from/to the medium 332 such as a memory card. The medium 332 stores, for example, a high definition image.

なお、携帯端末3が撮影した画像(高精細画像)には、GPS情報及び撮影時刻などの情報が付加されている。表2は、携帯端末3が撮影した高精細画像に埋め込まれる情報を例示している。 It should be noted that information such as GPS information and shooting time is added to the image (high-definition image) taken by the mobile terminal 3. Table 2 exemplifies information embedded in the high-definition image captured by the mobile terminal 3.

Figure 0006714819
Figure 0006714819

なお、撮像装置2及び携帯端末3の撮影位置は、例えば下式1のようなGPSの緯度、経度の情報があった場合、整数部および少数点以下4桁まで同じであれば同じ位置とみなす。 Note that the imaging positions of the imaging device 2 and the mobile terminal 3 are considered to be the same position if there is the same information up to the integer part and up to 4 digits after the decimal point, if there is GPS latitude and longitude information as shown in the following formula 1. ..

Figure 0006714819
Figure 0006714819

また、全天球画像の一部に高精細な画像を対応付ける場合、撮影時間の情報も利用される。この場合、全天球画像の撮影時間の例えば±5分程度の範囲で撮影された高精細画像は、同一の場所で撮られた写真であるとみなす。また、カメラのセンササイズ(携帯端末3のセンササイズ)とは、撮像素子314のサイズである。また、携帯端末3が撮影している方向・方位は、センサ326によって検出される。 Further, when associating a high-definition image with a part of the omnidirectional image, information on the shooting time is also used. In this case, the high-definition images taken within a range of, for example, about ±5 minutes of the omnidirectional image are considered to be photographs taken at the same place. The sensor size of the camera (sensor size of the mobile terminal 3) is the size of the image sensor 314. Further, the direction/direction in which the mobile terminal 3 is capturing an image is detected by the sensor 326.

また、高精細画像の撮影された方位情報及び水平方向からの傾き、並びに、高精細画像を撮影した携帯端末3の焦点距離及びセンササイズを含む情報は、携帯端末3が撮影した撮影範囲を算出可能であることから、範囲情報と記すことがある。 In addition, the azimuth information of the high-definition image captured and the inclination from the horizontal direction, and the information including the focal length and the sensor size of the mobile terminal 3 capturing the high-definition image are used to calculate the imaging range captured by the mobile terminal 3. Since it is possible, it may be referred to as range information.

図6は、サーバ4のハードウェア構成を例示する図である。サーバ4は、CPU400、ROM402、RAM404、HDD制御部406、HDD408、ディスプレイ410、ネットワークインターフェース(I/F)412、キーボード414、マウス416、メディアドライブ418及び光学ドライブ420を有するコンピュータ(情報処理装置)である。 FIG. 6 is a diagram illustrating a hardware configuration of the server 4. The server 4 includes a CPU 400, a ROM 402, a RAM 404, a HDD control unit 406, a HDD 408, a display 410, a network interface (I/F) 412, a keyboard 414, a mouse 416, a media drive 418, and an optical drive 420 (an information processing apparatus). Is.

CPU400は、サーバ4を構成する各部を制御する。ROM402は、サーバ4のブートプログラムなどを記憶する。RAM404は、処理領域として用いられる。HDD制御部406は、プログラム430などを記憶するHDD408を制御する。ディスプレイ410、キーボード414及びマウス416は、ユーザインターフェイスとして用いられる。ネットワークインターフェース(I/F)412は、ネットワーク10に接続される通信部である。メディアドライブ418は、メモリカード424などとの間でデータを読み書きする。光学ドライブ420は、ディスクなどのメディア426との間でデータを読み書きする。 The CPU 400 controls each unit that constitutes the server 4. The ROM 402 stores the boot program of the server 4 and the like. The RAM 404 is used as a processing area. The HDD control unit 406 controls the HDD 408 that stores the program 430 and the like. The display 410, keyboard 414 and mouse 416 are used as a user interface. The network interface (I/F) 412 is a communication unit connected to the network 10. The media drive 418 reads/writes data from/to the memory card 424 or the like. The optical drive 420 reads data from and writes data to a medium 426 such as a disk.

また、サーバ4は、画像をコンテンツとするコンテンツ作成サーバとしての機能を備える。例えば、サーバ4は、画像補正部、ルート作成部、マップ取得部、データ付き画像受信部、URI送信部、コンテンツ送信部、画像埋め込み部などを備え、撮像装置2及び携帯端末3が撮影した画像をコンテンツとして、表示装置14に画像を表示させる。 The server 4 also has a function as a content creation server having images as contents. For example, the server 4 includes an image correction unit, a route creation unit, a map acquisition unit, an image reception unit with data, a URI transmission unit, a content transmission unit, an image embedding unit, and the like, and images captured by the imaging device 2 and the mobile terminal 3 are included. The content is displayed as an image on the display device 14.

図7は、サーバ4が記憶するコンテンツを表示装置14に表示させる場合に動作する画像表示システム1の機能の概要を示す図である。サーバ4は、表示装置14に画像を表示させるための機能として、記憶部50、対応付け部52、表示画像作成部54及び切替部56を有する。また、表示装置14は、ディスプレイに相当する表示部140と、表示部140が表示する画像内の所定の領域を示す領域情報を取得する領域情報取得部142とを有する。 FIG. 7 is a diagram showing an outline of the functions of the image display system 1 that operates when the content stored in the server 4 is displayed on the display device 14. The server 4 has a storage unit 50, an associating unit 52, a display image creating unit 54, and a switching unit 56 as a function for displaying an image on the display device 14. The display device 14 also includes a display unit 140 corresponding to a display, and a region information acquisition unit 142 that acquires region information indicating a predetermined region in the image displayed by the display unit 140.

記憶部50は、全天球画像及び高精細画像それぞれの画像データを記憶する第1記憶領域500、及び後述する対応付けデータを記憶する第2記憶領域502を有する。対応付け部52は、撮像装置2が撮影した全天球画像と、携帯端末3が撮影した高精細画像とを受入れ、全天球画像と高精細画像とを対応付ける対応付けデータを生成する。具体的には、対応付け部52は、方位情報及び範囲情報を用いて、高精細画像を全天球画像内で対応する対応領域に対応づける。そして、対応付け部52は、全天球画像及び高精細画像それぞれの画像データを第1記憶領域500に記憶させ、対応付けデータを第2記憶領域502に記憶させる。 The storage unit 50 has a first storage area 500 that stores image data of each of a celestial sphere image and a high-definition image, and a second storage area 502 that stores association data described below. The associating unit 52 receives the omnidirectional image captured by the imaging device 2 and the high-definition image captured by the mobile terminal 3, and generates association data that associates the omnidirectional image with the high-definition image. Specifically, the associating unit 52 associates the high-definition image with the corresponding region in the omnidirectional image using the azimuth information and the range information. Then, the associating unit 52 stores the image data of each of the spherical image and the high-definition image in the first storage area 500, and stores the association data in the second storage area 502.

表示画像作成部54は、表示装置14からの指示に応じて、表示部140が表示する画像を、全天球画像及び高精細画像と、対応付け部52が生成した対応付けデータとを用いて作成(合成でもよい)する。表示部140は、全天球画像及び高精細画像の少なくともいずれかを、外部からの指示に応じた倍率で表示する。領域情報取得部142は、表示部140が表示する画像内の所定の領域を示す領域情報を取得し、サーバ4の切替部56に対して出力する。 The display image creation unit 54 uses the omnidirectional image and the high-definition image and the association data generated by the association unit 52 for the image displayed by the display unit 140 in accordance with the instruction from the display device 14. Create (composite may be used). The display unit 140 displays at least one of the spherical image and the high-definition image at a magnification according to an instruction from the outside. The area information acquisition unit 142 acquires area information indicating a predetermined area in the image displayed by the display unit 140, and outputs the area information to the switching unit 56 of the server 4.

切替部56は、領域情報取得部142から受入れた領域情報に応じて、表示画像作成部54が作成する全天球画像及び高精細画像を用いた画像を切替える。例えば、切替部56は、表示部140が表示している全天球画像内の対応領域の倍率が所定値(閾値)以上に変えられた場合に、表示部140が表示している対応領域を高精細画像に切替えて、表示画像作成部54を介して表示部140に表示させる。 The switching unit 56 switches the image using the omnidirectional image and the high-definition image created by the display image creating unit 54 according to the area information received from the area information acquisition unit 142. For example, the switching unit 56 changes the corresponding area displayed on the display unit 140 when the magnification of the corresponding area in the spherical image displayed on the display unit 140 is changed to a predetermined value (threshold value) or more. The high-definition image is switched to and displayed on the display unit 140 via the display image creation unit 54.

次に、対応付け部52が生成する対応付けデータについて説明する。図8〜11は、対応付け部52が対応付けデータを作成する動作を概念的に示す図である。高精細画像には、表2に示したように携帯端末3が撮影した方向(方位情報及び傾き)を示す情報が付されている。全天球画像は、真下(重力方向)及び方位情報が付されており、一意に上下の方向及び方位を決定することが可能にされている。 Next, the association data generated by the association unit 52 will be described. 8 to 11 are diagrams conceptually showing the operation of the association unit 52 to create association data. As shown in Table 2, the high-definition image is provided with information indicating the direction (azimuth information and tilt) taken by the mobile terminal 3. The celestial sphere image is provided with the information directly below (gravitational direction) and the azimuth information, so that the vertical direction and azimuth can be uniquely determined.

対応付け部52は、高精細画像の方位情報及び傾きと、全天球画像の上下の方向及び方位を示す情報を利用して、高精細画像の端点(図8、図9参照)が全天球画像のどこの座標に対応するかを計算する。 The associating unit 52 uses the azimuth information and the inclination of the high-definition image, and the information indicating the vertical direction and the azimuth of the omnidirectional image to determine that the endpoints of the high-definition image (see FIGS. 8 and 9) are omnidirectional. Calculate which coordinate in the sphere image corresponds to.

まず、対応付け部52は、下式2、3によって高精細画像の画角を算出する。 First, the associating unit 52 calculates the angle of view of the high-definition image by the following equations 2 and 3.

Figure 0006714819
Figure 0006714819
Figure 0006714819
Figure 0006714819

なお、θは携帯端末3の画角、fは携帯端末3のレンズの焦点距離、hは撮像素子314の垂直方向(高さ)のサイズ、wは撮像素子314の水平方向(幅)のサイズ、dは撮像素子314の対角線のサイズを示す。 Note that θ is the angle of view of the mobile terminal 3, f is the focal length of the lens of the mobile terminal 3, h is the size of the image sensor 314 in the vertical direction (height), and w is the size of the image sensor 314 in the horizontal direction (width). , D indicate the size of the diagonal line of the image sensor 314.

また、図10に示すように、全天球画像の球の半径をr、画角をθとした場合の弦の長さcは、下式4によって算出される。 Further, as shown in FIG. 10, the chord length c when the radius of the sphere of the spherical image is r and the angle of view is θ is calculated by the following expression 4.

Figure 0006714819
Figure 0006714819

高精細画像を撮影した携帯端末3の横方向の画角をθh、縦方向の画角をθvとしたとき、画像がx軸に対して垂直で、画像の中心をx軸が通っており、水平な状態(x−y軸で作られる平面に対して水平)の場合の画像の4隅の座標は、下式5〜8によって示される。なお、画像の左上をLT、右上をRT、右下をRB、左下をLBとする。 When the horizontal angle of view and the vertical angle of view of the mobile terminal 3 that has captured the high-definition image are θh and θv, respectively, the image is perpendicular to the x-axis and the x-axis passes through the center of the image. The coordinates of the four corners of the image in the horizontal state (horizontal with respect to the plane formed by the xy axes) are shown by the following equations 5 to 8. The upper left of the image is LT, the upper right is RT, the lower right is RB, and the lower left is LB.

Figure 0006714819
Figure 0006714819
Figure 0006714819
Figure 0006714819
Figure 0006714819
Figure 0006714819
Figure 0006714819
Figure 0006714819

また、画像の向き及び回転を考慮して座標を変換する場合には、下式9が用いられる。ここで、x軸、y軸、z軸の回転角をそれぞれα、β、γとする。 Further, when transforming the coordinates in consideration of the orientation and rotation of the image, the following equation 9 is used. Here, the rotation angles of the x axis, the y axis, and the z axis are α, β, and γ, respectively.

Figure 0006714819
Figure 0006714819

そして、表示画像作成部54は、図9に示した全天球画像内の枠内の領域を高精細画像に置き換えることが可能にされている。例えば、全天球画像内の枠内の領域が所定の閾値以上の大きさに拡大される場合に、表示画像作成部54は、当該枠内の領域を高精細画像に置き換える。 Then, the display image creation unit 54 can replace the area within the frame in the spherical image shown in FIG. 9 with a high-definition image. For example, when the area within the frame in the omnidirectional image is enlarged to a size equal to or larger than a predetermined threshold value, the display image creation unit 54 replaces the area within the frame with a high-definition image.

このとき、表示画像作成部54は、表3に示した第2記憶領域502が記憶している対応付けデータを用いて画像の置き換えを行う。 At this time, the display image creation unit 54 replaces the image using the association data stored in the second storage area 502 shown in Table 3.

Figure 0006714819
Figure 0006714819

高精細画像が対応付けられた全天球画像の各領域には、表示部140が表示を行う画像の倍率が所定の閾値以上となった場合に高精細画像に切替えられるように、それぞれ閾値情報が設定されている。この閾値情報は、全天球画像の領域が高精細画像に切替えられる対象になったときに変更されてもよい。 Each region of the omnidirectional image associated with the high-definition image has threshold information so that the image can be switched to the high-definition image when the magnification of the image displayed by the display unit 140 is equal to or higher than a predetermined threshold. Is set. This threshold information may be changed when the area of the omnidirectional image becomes a target to be switched to the high definition image.

表示装置14には、表示部140が表示可能な範囲(表示領域)がある。図11に示すように、例えば表示部140が全天球画像内の枠内の一部を表示しているときに、表示されている画像をユーザが拡大する操作を行い、領域情報取得部142が取得する領域情報によって示される倍率が閾値以上になると、切替部56は全天球画像の表示されている領域を対応する高精細画像に切替える。 The display device 14 has a range (display area) in which the display unit 140 can display. As shown in FIG. 11, for example, when the display unit 140 displays a part of the frame in the spherical image, the user performs an operation of enlarging the displayed image, and the area information acquisition unit 142. When the magnification indicated by the area information acquired by the above becomes equal to or larger than the threshold value, the switching unit 56 switches the area where the omnidirectional image is displayed to the corresponding high-definition image.

表示部140が表示する画像が拡大縮小されると、全天球画像内の表示される領域が変化する。例えば、領域情報取得部142は、表示部140が表示している全天球画像内の領域のサイズと、表示部140のサイズ(VSize_x、VSize_y)を用いて、下式10などによって現在表示部140に表示されている画像の倍率を算出する。なお、この画像の倍率の算出は、切替部56が行ってもよい。 When the image displayed by the display unit 140 is enlarged or reduced, the displayed area in the spherical image changes. For example, the area information acquisition unit 142 uses the size of the area in the omnidirectional image displayed by the display unit 140 and the size (VSize_x, VSize_y) of the display unit 140 to display the current display unit according to Expression 10 below. The magnification of the image displayed on 140 is calculated. The switching unit 56 may calculate the magnification of the image.

Figure 0006714819
Figure 0006714819

この倍率が例えば100%以上(計算結果が1.0以上)になった場合、切替部56は、全天球画像の領域を高精細画像に切替える。高精細画像の4隅の座標は全天球画像上の座標に対応付けられており、表示画像作成部54は、全天球画像の表示されている領域から高精細画像の対応する領域を算出する。そして、表示画像作成部54は、算出した高精細画像の領域を表示部140の表示領域に収まるように縮小して表示部140に表示を行わせる。 When this magnification becomes, for example, 100% or more (calculation result is 1.0 or more), the switching unit 56 switches the area of the omnidirectional image to a high-definition image. The coordinates of the four corners of the high-definition image are associated with the coordinates on the omnidirectional image, and the display image creation unit 54 calculates the corresponding region of the high-definition image from the region where the omnidirectional image is displayed. To do. Then, the display image creation unit 54 reduces the calculated area of the high-definition image so as to fit in the display area of the display unit 140 and causes the display unit 140 to display.

また、切替部56は、表示部140が全天球画像のある部分を表示しているときに、その領域のすべてに高精細画像が対応付けられていれば、表示部140が表示する画像を高精細画像に切替えるように構成されてもよい。つまり、切替部56は、表示部140が表示する画像全体を高精細画像によって表示可能となったときに、表示部140が表示している全天球画像の対応領域を高精細画像に切替えてもよい。 Further, when the display unit 140 is displaying a portion of the omnidirectional image, the switching unit 56 selects the image displayed by the display unit 140 if a high-definition image is associated with all of the region. It may be configured to switch to a high definition image. That is, the switching unit 56 switches the corresponding region of the omnidirectional image displayed by the display unit 140 to the high-definition image when the entire image displayed by the display unit 140 can be displayed as the high-definition image. Good.

なお、対応付け部52、表示画像作成部54、切替部56及び領域情報取得部142は、ハードウェアによって構成されてもよいし、ソフトウェアによって構成されてもよい。 The associating unit 52, the display image creating unit 54, the switching unit 56, and the area information acquiring unit 142 may be configured by hardware or software.

図12は、対応付け部52が対応付けデータを生成する場合に行う処理例を示すフローチャートである。対応付け部52は、まず全天球画像データを撮像装置2から取得し(S100)、全天球画像を撮影したカメラ(撮像装置2)のセンサ・画像情報を取得する(S102)。次に、対応付け部52は、高精細画像データを携帯端末3から取得し(S104)、高精細画像を撮影したカメラ(携帯端末3)のセンサ・画像情報を取得する(S106)。 FIG. 12 is a flowchart showing an example of processing performed by the associating unit 52 when generating association data. The associating unit 52 first acquires omnidirectional image data from the imaging device 2 (S100), and acquires sensor/image information of the camera (imaging device 2) that captured the omnidirectional image (S102). Next, the associating unit 52 acquires high-definition image data from the mobile terminal 3 (S104), and acquires sensor/image information of the camera (mobile terminal 3) that captured the high-definition image (S106).

そして、対応付け部52は、画像情報、センサ情報から全天球画像の対応する領域を計算する(S108)。すなわち、対応付け部52は、上式2,3を用いて高精細画像の画角を算出し、画角に対応する弦の長さを上式4により算出して、画像の4隅の座標を上式5〜8によって算出することにより、全天球画像の対応する領域を計算する。画像の向き及び回転を考慮して座標を変換する場合には、上式9が用いられる。 Then, the associating unit 52 calculates the corresponding area of the spherical image from the image information and the sensor information (S108). That is, the associating unit 52 calculates the angle of view of the high-definition image by using the above expressions 2 and 3, calculates the length of the chord corresponding to the angle of view by using the above expression 4, and calculates the coordinates of the four corners of the image. Is calculated by the above equations 5 to 8 to calculate the corresponding region of the spherical image. When transforming the coordinates in consideration of the orientation and rotation of the image, the above equation 9 is used.

次に、対応付け部52は、計算した領域に高精細画像を割り当てて対応付けデータを生成する(S110)。対応付け部52は、他にも高精細画像があるか否かを判定し(S112)、高精細画像がある場合(S112:Yes)にはS104の処理に戻り、高精細画像がない場合(S112:No)には処理を終了する。 Next, the associating unit 52 allocates the high-definition image to the calculated area and generates the association data (S110). The associating unit 52 determines whether there is another high-definition image (S112). If there is a high-definition image (S112: Yes), the process returns to S104, and if there is no high-definition image (S112). S112: No), the process ends.

このように、画像表示システム1は、対応付け部52が対応付けデータを生成するので、ユーザが高精細画像の全天球画像に対する位置の指定を行わなくても、全天球画像と高精細画像の位置の対応付けが可能となる。 In this way, in the image display system 1, since the associating unit 52 generates the associative data, the omnidirectional image and the high definition image can be obtained even if the user does not specify the position of the high definition image with respect to the omnidirectional image. It becomes possible to associate the positions of the images.

図13は、切替部56が行う処理例を示すフローチャートである。ここでは、現在、表示部140が表示している領域の全天球画像内での座標を、左上(Vx1,Vy1),右上(Vx2,Vy2),右下(Vx3,Vy3),左下(Vx4,Vy4)とする。また、高精細画像が対応付けられている領域の左上、右上、右下、左下の座標をそれぞれ(Ax1,Ay1)〜(Ax4,Ay4)とする。 FIG. 13 is a flowchart showing a processing example performed by the switching unit 56. Here, the coordinates of the area currently displayed by the display unit 140 in the spherical image are the upper left (Vx1, Vy1), upper right (Vx2, Vy2), lower right (Vx3, Vy3), lower left (Vx4). , Vy4). Further, the upper left, upper right, lower right, and lower left coordinates of the area associated with the high-definition image are (Ax1, Ay1) to (Ax4, Ay4), respectively.

まず、切替部56は、現在表示部140に表示されている領域の情報(Vx1,Vy1)〜(Vx4,Vy4)の値を領域情報取得部142から取得する(S200)。 First, the switching unit 56 acquires the values of the information (Vx1, Vy1) to (Vx4, Vy4) of the area currently displayed on the display unit 140 from the area information acquisition unit 142 (S200).

切替部56は、取得した領域に高精細画像が割り当てられた領域があるか否かを判定し(S202)、領域がある場合(S202:Yes)にはS204の処理に進み、領域がない場合(S202:No)にはS214の処理に進む。 The switching unit 56 determines whether or not there is an area to which the high-definition image is allocated in the acquired area (S202). If there is an area (S202: Yes), the process proceeds to S204, and if there is no area. If (S202: No), the process proceeds to S214.

切替部56は、高精細画像が割り当てられている領域の座標(Ax1,Ay1)〜(Ax4,Ay4)を第2記憶領域502から取得する(S204)。 The switching unit 56 acquires the coordinates (Ax1, Ay1) to (Ax4, Ay4) of the area to which the high-definition image is assigned from the second storage area 502 (S204).

そして、切替部56は、(Vx1,Vy1)〜(Vx4,Vy4)の領域が(Ax1,Ay1)〜(Ax4,Ay4)の領域の中にあるか否かを判定し(S206)、領域の中にある場合(S206:Yes)にはS208の処理に進み、領域の中にない場合(S206:No)にはS202の処理に戻る。 Then, the switching unit 56 determines whether the area of (Vx1, Vy1) to (Vx4, Vy4) is in the area of (Ax1, Ay1) to (Ax4, Ay4) (S206), and If it is inside (S206: Yes), the process proceeds to S208. If it is not inside the region (S206: No), the process returns to S202.

切替部56は、現在の表示部140の表示倍率を計算し(S208)、表示倍率が100%以上であるか否かを判定する(S210)。切替部56は、表示倍率が100%以上である場合(S210:Yes)にはS212の処理に進み、表示倍率が100%以上でない場合(S210:No)にはS214の処理に進む。 The switching unit 56 calculates the current display magnification of the display unit 140 (S208) and determines whether the display magnification is 100% or more (S210). The switching unit 56 proceeds to the processing of S212 when the display magnification is 100% or more (S210: Yes), and proceeds to the processing of S214 when the display magnification is not 100% or more (S210: No).

S212の処理において、切替部56は、表示画像作成部54及び表示部140を介して高精細画像の表示を行う。また、S214の処理において、切替部56は、表示画像作成部54及び表示部140を介して全天球画像の表示を行う。 In the process of S212, the switching unit 56 displays the high-definition image via the display image creation unit 54 and the display unit 140. Further, in the process of S214, the switching unit 56 displays the spherical image through the display image creation unit 54 and the display unit 140.

このように、実施形態にかかる画像表示システムによれば、方位情報及び範囲情報に基づいて、高精細画像を全天球画像内で対応する対応領域に対応づけるので、対応領域の倍率が所定値以上に変えられた場合に、表示部が表示している対応領域を高精細画像に切替えて表示部に表示させることが可能となっている。また、画像表示システムは、表示部が表示する画像全体を高精細画像によって表示可能となったときに、表示部が表示している対応領域を切替部が高精細画像に切替えて、全天球画像の一部に高精細な画像を容易に対応付けることができる。 As described above, according to the image display system of the embodiment, the high-definition image is associated with the corresponding area in the omnidirectional image based on the azimuth information and the range information. When changed to the above, the corresponding area displayed on the display unit can be switched to a high-definition image and displayed on the display unit. Further, the image display system, when the entire image displayed by the display unit can be displayed by the high-definition image, the switching unit switches the corresponding area displayed by the display unit to the high-definition image, and the omnidirectional image is displayed. A high-definition image can be easily associated with a part of the image.

1 画像表示システム
2 撮像装置
3 携帯端末
4 サーバ
10 ネットワーク
14 表示装置
20 撮影ユニット
50 記憶部
52 対応付け部
54 表示画像作成部
56 切替部
140 表示部
142 領域情報取得部
220 通信部
224 電子コンパス
304 通信部
308 GPS受信部
314 撮像素子
326 センサ
412 ネットワークI/F
500 第1記憶領域
502 第2記憶領域
DESCRIPTION OF SYMBOLS 1 image display system 2 imaging device 3 mobile terminal 4 server 10 network 14 display device 20 imaging unit 50 storage unit 52 association unit 54 display image creation unit 56 switching unit 140 display unit 142 area information acquisition unit 220 communication unit 224 electronic compass 304 Communication unit 308 GPS receiving unit 314 Image pickup device 326 Sensor 412 Network I/F
500 First storage area 502 Second storage area

特開2014−082764号公報JP, 2014-082764, A

Claims (8)

方位情報と上下の方向を示す情報が付された全天球画像と、前記全天球画像の撮影位置において前記全天球画像よりも画質を精細に撮影されて撮影範囲を示す範囲情報が付された高精細画像とを記憶する記憶部と、
前記方位情報と上下の方向を示す情報及び前記範囲情報に基づいて、前記高精細画像を前記全天球画像内で対応する対応領域に対応づける対応付け部と、
前記全天球画像及び前記高精細画像の少なくともいずれかを、外部からの指示に応じた倍率で表示する表示部と、
前記表示部が表示している前記対応領域の倍率が所定値以上に変えられた場合に、前記表示部が表示している前記対応領域を前記高精細画像に切替えて前記表示部に表示させる切替部と
を有することを特徴とする画像表示システム。
The omnidirectional image to which the azimuth information and the information indicating the up and down direction are attached, and the range information indicating the imaging range in which the image quality is finer than that of the omnidirectional image at the photographing position of the omnidirectional image. A storage unit that stores the high-definition image that has been created,
An associating unit that associates the high-definition image with a corresponding region in the omnidirectional image based on the azimuth information , information indicating the vertical direction, and the range information,
At least one of the spherical image and the high-definition image, a display unit that displays at a magnification according to an instruction from the outside,
When the magnification of the corresponding area displayed on the display unit is changed to a predetermined value or more, the corresponding area displayed on the display unit is switched to the high-definition image and displayed on the display unit. An image display system comprising:
記対応付け部は、前記全天球画像および前記高精細画像が有する撮影時刻を示す情報に基づいて、前記全天球画像および前記高精細画像が同一の場所で撮影された画像であると判断すること、
を特徴とする請求項1に記載の画像表示システム。
Before Symbol mapping unit, on the basis of the omnidirectional image and the information indicating the photographing time of the high-resolution image has the the omnidirectional image and the high resolution image is a captured image at the same location To judge,
The image display system according to claim 1.
前記範囲情報は、
前記高精細画像の撮影された方位及び水平方向からの傾き、並びに、前記高精細画像を撮影したカメラの焦点距離及びセンササイズを含む情報であること
を特徴とする請求項1又は2に記載の画像表示システム。
The range information is
Inclination from captured orientation and horizontal direction of the high-definition image, as well as, according to claim 1 or 2, characterized in that the information including the focal distance and the sensor size of the cameras taking the high-definition image Image display system.
前記切替部は、
前記表示部が表示する画像全体を前記高精細画像によって表示可能となったときに、前記表示部が表示している前記対応領域を前記高精細画像に切替えること
を特徴とする請求項1乃至3のいずれか1項に記載の画像表示システム。
The switching unit,
The whole image in which the display unit is displayed when enabled display by the high-definition image, according to claim 1 to 3, characterized in that switching the corresponding area in which the display unit is displaying the high-definition image The image display system according to any one of 1 .
前記表示部は、
移動体端末に設けられ、
前記記憶部、前記対応付け部及び前記切替部は、
前記移動体端末に対して前記全天球画像及び前記高精細画像を送信するサーバに設けられていること
を特徴とする請求項1乃至のいずれか1項に記載の画像表示システム。
The display unit is
Provided in the mobile terminal,
The storage unit, the associating unit, and the switching unit,
The image display system according to any one of claims 1 to 4 , wherein the image display system is provided in a server that transmits the omnidirectional image and the high-definition image to the mobile terminal.
方位情報と上下の方向を示す情報が付された全天球画像と、前記全天球画像の撮影位置において前記全天球画像よりも画質を精細に撮影されて撮影範囲を示す範囲情報が付された高精細画像とを記憶する記憶部と、
前記方位情報と上下の方向を示す情報及び前記範囲情報に基づいて、前記高精細画像を前記全天球画像内で対応する対応領域に対応づける対応付け部と、
前記全天球画像及び前記高精細画像の少なくともいずれかを外部からの指示に応じた倍率で表示する表示装置に対して送信する通信部と、
前記表示装置が表示している前記対応領域の倍率が所定値以上に変えられた場合に、前記表示装置が表示している前記対応領域を前記高精細画像に切替えて前記表示装置に表示させる切替部と
を有することを特徴とする情報処理装置。
The omnidirectional image to which the azimuth information and the information indicating the up and down direction are attached, and the range information indicating the imaging range in which the image quality is finer than that of the omnidirectional image at the photographing position of the omnidirectional image. A storage unit that stores the high-definition image that has been created,
An associating unit that associates the high-definition image with a corresponding region in the omnidirectional image based on the azimuth information , information indicating the vertical direction, and the range information,
A communication unit that transmits at least one of the spherical image and the high-definition image to a display device that displays at a magnification according to an instruction from the outside,
When the magnification of the corresponding area displayed by the display device is changed to a predetermined value or more, the corresponding area displayed by the display device is switched to the high-definition image and displayed on the display device. An information processing device comprising:
方位情報と上下の方向を示す情報が付された全天球画像と、前記全天球画像の撮影位置において前記全天球画像よりも画質を精細に撮影されて撮影範囲を示す範囲情報が付された高精細画像とを記憶する工程と、
前記方位情報と上下の方向を示す情報及び前記範囲情報に基づいて、前記高精細画像を前記全天球画像内で対応する対応領域に対応づける工程と、
前記全天球画像及び前記高精細画像の少なくともいずれかを、外部からの指示に応じた倍率で表示する表示部が表示している前記対応領域の倍率が所定値以上に変えられた場合に、前記表示部が表示している前記対応領域を前記高精細画像に切替えて前記表示部に表示させる工程と、
を含む画像表示方法。
The omnidirectional image to which the azimuth information and the information indicating the up and down direction are attached, and the range information indicating the imaging range in which the image quality is finer than that of the omnidirectional image at the photographing position of the omnidirectional image. A step of storing the high-definition image thus obtained,
A step of associating the high-definition image with a corresponding area in the omnidirectional image based on the azimuth information , the information indicating the vertical direction, and the range information;
At least one of the omnidirectional image and the high-definition image, when the magnification of the corresponding region displayed by the display unit for displaying at a magnification according to an instruction from the outside is changed to a predetermined value or more, Switching the corresponding area displayed by the display unit to the high-definition image and displaying the image on the display unit,
Image display method including.
方位情報と上下の方向を示す情報が付された全天球画像と、前記全天球画像の撮影位置において前記全天球画像よりも画質を精細に撮影されて撮影範囲を示す範囲情報が付された高精細画像とを記憶するステップと、
前記方位情報と上下の方向を示す情報及び前記範囲情報に基づいて、前記高精細画像を前記全天球画像内で対応する対応領域に対応づけるステップと、
前記全天球画像及び前記高精細画像の少なくともいずれかを外部からの指示に応じた倍率で表示する表示装置に対して送信するステップと、
前記表示装置が表示している前記対応領域の倍率が所定値以上に変えられた場合に、前記表示装置が表示している前記対応領域を前記高精細画像に切替えて前記表示装置に表示させるステップと、
をコンピュータに実行させるための画像表示プログラム。
The omnidirectional image to which the azimuth information and the information indicating the up and down direction are attached, and the range information indicating the imaging range in which the image quality is finer than that of the omnidirectional image at the photographing position of the omnidirectional image. Storing the created high-definition image,
A step of associating the high-definition image with a corresponding area in the omnidirectional image, based on the azimuth information , information indicating the vertical direction, and the range information;
A step of transmitting at least one of the spherical image and the high-definition image to a display device that displays at a magnification according to an instruction from the outside;
Switching the corresponding area displayed by the display device to the high-definition image and displaying the corresponding area on the display device when the magnification of the corresponding area displayed by the display device is changed to a predetermined value or more. When,
An image display program that causes a computer to execute.
JP2016004749A 2016-01-13 2016-01-13 Image display system, information processing device, image display method, and image display program Active JP6714819B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016004749A JP6714819B2 (en) 2016-01-13 2016-01-13 Image display system, information processing device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016004749A JP6714819B2 (en) 2016-01-13 2016-01-13 Image display system, information processing device, image display method, and image display program

Publications (2)

Publication Number Publication Date
JP2017126868A JP2017126868A (en) 2017-07-20
JP6714819B2 true JP6714819B2 (en) 2020-07-01

Family

ID=59364307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016004749A Active JP6714819B2 (en) 2016-01-13 2016-01-13 Image display system, information processing device, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP6714819B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220053179A1 (en) * 2018-09-18 2022-02-17 Sony Corporation Information processing apparatus, information processing method, and program
CN111741274B (en) * 2020-08-25 2020-12-29 北京中联合超高清协同技术中心有限公司 Ultrahigh-definition video monitoring method supporting local amplification and roaming of picture

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003224838A (en) * 2002-01-28 2003-08-08 Sony Corp Free view point type image display apparatus and method, charging apparatus and charging method, storage medium, and computer program
JP2003319351A (en) * 2002-04-23 2003-11-07 Sony Corp Service providing system, broadcast apparatus and method, receiving apparatus and method, recording medium, and program
JP2013027021A (en) * 2011-07-26 2013-02-04 Canon Inc Omnidirectional imaging device and omnidirectional imaging method
JP5917061B2 (en) * 2011-09-26 2016-05-11 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
JP6135204B2 (en) * 2013-03-11 2017-05-31 株式会社リコー Electronic device, time setting method and program

Also Published As

Publication number Publication date
JP2017126868A (en) 2017-07-20

Similar Documents

Publication Publication Date Title
US10638039B2 (en) Apparatus, system, and method of controlling image capturing, and recording medium
US10593014B2 (en) Image processing apparatus, image processing system, image capturing system, image processing method
US9159169B2 (en) Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program
JP4600515B2 (en) Information presenting apparatus, information presenting method, imaging apparatus, and computer program
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019057903A (en) Image processing apparatus, photographing system, image processing method, and program
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US20190347775A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2019164782A (en) Image processing apparatus, image capturing system, image processing method, and program
JP2017212510A (en) Image management device, program, image management system, and information terminal
JP2020153873A (en) Diagnosis processing device, diagnosis system, diagnosis processing method, and program
JP2018110384A (en) Image processing apparatus, imaging system, image processing method and program
JP6714819B2 (en) Image display system, information processing device, image display method, and image display program
JP2019075766A (en) Image processing apparatus, photographing system, image processing method, and program
JP2018036760A (en) Image management system, image management method, and program
JP6816614B2 (en) Image output program, image output method and image output device
JP2018109946A (en) Display device, program, and method for display
CN114390186A (en) Video shooting method and electronic equipment
JP2018139052A (en) Communication terminal, image communication system, display method and program
JP2018026642A (en) Image management system, image communication system, image management method, and program
JP2019185757A (en) Image processing device, imaging system, image processing method, and program
JP2019164783A (en) Image processing apparatus, image capturing system, image processing method, and program
JP2018109971A (en) Image processing device, image processing system, photographing system, image processing method, and program
JP6586819B2 (en) Image management system, image communication system, image management method, and program
JP2017162014A (en) Communication terminal, image communication system, display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200520

R151 Written notification of patent or utility model registration

Ref document number: 6714819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151