JP2020057297A - Image display apparatus, image display method, and program - Google Patents

Image display apparatus, image display method, and program Download PDF

Info

Publication number
JP2020057297A
JP2020057297A JP2018188828A JP2018188828A JP2020057297A JP 2020057297 A JP2020057297 A JP 2020057297A JP 2018188828 A JP2018188828 A JP 2018188828A JP 2018188828 A JP2018188828 A JP 2018188828A JP 2020057297 A JP2020057297 A JP 2020057297A
Authority
JP
Japan
Prior art keywords
image
display
unit
position information
peripheral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018188828A
Other languages
Japanese (ja)
Inventor
一晃 萩原
Kazuaki Hagiwara
一晃 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018188828A priority Critical patent/JP2020057297A/en
Publication of JP2020057297A publication Critical patent/JP2020057297A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To improve convenience upon browsing an image associated with positional information.SOLUTION: An image display apparatus 1 has an output unit 17, an input unit 16, an operation determining unit 112, a peripheral image acquiring unit 113, and a display control unit 115. The output unit 17 displays a captured image associated with positional information. The input unit 16 detects reception of an operation. The operation determining unit 112 determines whether or not change of a display mode of the captured image is instructed based on the operation detected by the input unit 16 when the output unit 17 displays the captured image. The peripheral image acquiring unit 113 acquires, from an outside of the image display apparatus 1, a peripheral image based on the positional image associated with the captured image. The display control unit 115, controls the peripheral image acquired by the peripheral image acquiring unit 113 to be displayed on the output unit 17 when the operation determining unit 112 determines affirmative.SELECTED DRAWING: Figure 3

Description

本発明は、画像表示装置、画像表示方法、及び、プログラムに関する。   The present invention relates to an image display device, an image display method, and a program.

従来、撮影により得られた画像の閲覧時に、この画像と関連する情報を表示する表示処理装置が知られている。例えば、画像に関連する情報として、画像に関連付けられた位置の周辺情報を表示する表示処理装置が知られている(例えば、特許文献1参照)   2. Description of the Related Art Conventionally, there has been known a display processing device that displays information related to an image obtained by photographing when the image is viewed. For example, a display processing device that displays peripheral information of a position associated with an image as information related to the image is known (for example, see Patent Document 1).

特開2010−218373号公報JP 2010-218373 A

しかしながら、特許文献1に開示された技術等の一般的な技術における周辺情報とは、もっぱら周辺の地図の画像や、その地図内に所在するスポットのテキスト情報である。そのため、一般的な技術を利用した場合は、ユーザが撮影位置の周辺の様子を理解する点で利便性に欠けているという側面があった。   However, the peripheral information in the general technology such as the technology disclosed in Patent Literature 1 is mainly an image of a map of a surrounding area or text information of a spot located in the map. For this reason, when a general technique is used, there is an aspect that the user lacks convenience in understanding the situation around the shooting position.

本願発明は、このような状況に鑑みてなされたものであり、位置情報が関連付けられた画像の閲覧時における利便性を向上させることを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to improve convenience when browsing an image associated with position information.

上記目的を達成するため、本発明の一態様の画像表示装置は、
位置情報が関連付けられた第1画像を表示する表示手段と、
操作の受け付けを検出する検出手段と、
前記表示手段による前記第1画像の表示時に、前記検出手段によって検出された操作に基づき、前記第1画像の表示態様の変更を指示されたか否かを判断する判断手段と、
前記判断手段により肯定と判断された場合に、前記第1画像に関連付けられた位置情報に対応する位置で撮影された第2画像を当該装置外部から取得する取得手段と、
前記取得手段によって取得された前記第2画像を前記表示手段に表示するよう制御する表示制御手段と、
を備えることを特徴とする。
In order to achieve the above object, an image display device of one embodiment of the present invention
Display means for displaying a first image associated with position information;
Detecting means for detecting reception of an operation;
A determination unit configured to determine whether or not an instruction to change a display mode of the first image has been given based on an operation detected by the detection unit when the first image is displayed by the display unit;
Obtaining means for obtaining, from the outside of the apparatus, a second image captured at a position corresponding to the position information associated with the first image, when the determination means determines that the determination is affirmative;
Display control means for controlling the second image acquired by the acquisition means to be displayed on the display means,
It is characterized by having.

本発明によれば、位置情報が関連付けられた画像の閲覧時における利便性を向上させることができる。   According to the present invention, it is possible to improve convenience when browsing an image associated with position information.

本発明の一実施形態に係る画像表示システムSの構成を示すシステム構成図である。1 is a system configuration diagram illustrating a configuration of an image display system S according to an embodiment of the present invention. 本発明の画像表示装置の一実施形態に係る画像表示装置1のハードウェアの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a hardware configuration of an image display device 1 according to an embodiment of the present invention. 図2の画像表示装置1の機能的構成のうち、周辺画像表示処理を実行するための機能的構成を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating a functional configuration for executing a peripheral image display process among the functional configurations of the image display device 1 of FIG. 2. 画像表示システムSにおいて、図3の機能的構成を有する図1の画像表示装置1が実行する周辺画像表示処理の流れを説明する第1のフローチャートである。4 is a first flowchart illustrating a flow of a peripheral image display process performed by the image display device 1 of FIG. 1 having the functional configuration of FIG. 3 in the image display system S. 画像表示システムSにおいて、図3の機能的構成を有する図1の画像表示装置1が実行する周辺画像表示処理の流れを説明する第2のフローチャートである。4 is a second flowchart illustrating a flow of a peripheral image display process performed by the image display device 1 of FIG. 1 having the functional configuration of FIG. 3 in the image display system S. 周辺画像表示処理における表示例を示す第1の模式図である。FIG. 9 is a first schematic diagram illustrating a display example in a peripheral image display process. 周辺画像表示処理における表示例を示す第2の模式図である。FIG. 14 is a second schematic diagram illustrating a display example in the peripheral image display processing. 周辺画像表示処理における表示例を示す第3の模式図である。FIG. 14 is a third schematic diagram illustrating a display example in the peripheral image display processing. 変形例1における周辺画像表示処理の流れを説明するフローチャートである。13 is a flowchart illustrating a flow of a peripheral image display process according to a first modification.

以下、本発明の実施形態について、図面を用いて説明する。
[システム全体構成]
図1は、本発明の一実施形態に係る画像表示システムSの構成を示すシステム構成図である。
図1に示すように、画像表示システムSは、画像表示装置1と、撮像装置2と、画像データベース3と、ネットワーク4と、を含んで構成される。画像表示装置1と、撮像装置2は、通信可能に接続される。また、画像表示装置1と、画像データベース3も、通信可能に接続される。これら通信は、任意の規格に準拠した通信であってよい。例えば、画像表示装置1と、撮像装置2との通信は、Wi−Fi(登録商標)に準拠した通信により実現される。また、例えば、画像表示装置1と、画像データベース3との通信は、インターネットであるネットワーク4を介した通信により実現される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Overall system configuration]
FIG. 1 is a system configuration diagram showing a configuration of an image display system S according to an embodiment of the present invention.
As shown in FIG. 1, the image display system S includes an image display device 1, an imaging device 2, an image database 3, and a network 4. The image display device 1 and the imaging device 2 are communicably connected. Further, the image display device 1 and the image database 3 are communicably connected. These communications may be communications conforming to any standard. For example, communication between the image display device 1 and the imaging device 2 is realized by communication conforming to Wi-Fi (registered trademark). Further, for example, communication between the image display device 1 and the image database 3 is realized by communication via a network 4 which is the Internet.

画像表示装置1は、画像表示機能や、通信機能や、位置測位機能を備えた装置である。画像表示装置1は、例えば、スマートフォンにより実現される。
撮像装置2は、撮影機能や、通信機能を備えた装置である。撮像装置2は、例えば、デジタルカメラにより実現される。
The image display device 1 is a device having an image display function, a communication function, and a position positioning function. The image display device 1 is realized by, for example, a smartphone.
The imaging device 2 is a device having a shooting function and a communication function. The imaging device 2 is realized by, for example, a digital camera.

画像データベース3は、様々な場所での撮影により得られた、広角の風景画像(例えば、撮影位置の周囲360度を撮影した全方位画像や全天周画像)が格納されたデータベースである。この広角の風景画像は、例えば、広角な魚眼レンズを使用した撮影により生成される。あるいは、この広角の風景画像は、例えば、異なる視点位置から撮影した画像を繋ぎ合わせることにより生成される。そして、例えば、所定の事業者が、このようにして生成した広角の風景画像を蓄積することによって画像データベース3は実現される。
例えば、画像データベース3は、下記の<参考文献>に記載の技術が適用されたサーバ装置を含むことで実現される。
The image database 3 is a database that stores wide-angle landscape images (for example, omnidirectional images and omnidirectional images obtained by shooting 360 degrees around the shooting position) obtained by shooting in various places. The wide-angle landscape image is generated by, for example, shooting using a wide-angle fisheye lens. Alternatively, this wide-angle landscape image is generated by, for example, joining images captured from different viewpoint positions. Then, for example, the image database 3 is realized by a predetermined business operator accumulating the wide-angle landscape images generated in this manner.
For example, the image database 3 is realized by including a server device to which the technology described in the following <Reference> is applied.

<参考文献>
特表2011−527483号公報
<References>
JP 2011-527483 A

このような構成を有する画像表示システムSにおいて、撮像装置2は、ユーザの撮影操作に応じて画像(以下、「撮影画像」と称する。)を生成する。
また、画像表示装置1は、撮像装置2から撮影画像を取得し、取得した撮影画像に位置情報を関連付ける。この位置情報は、例えば、画像表示装置1が測位したものを利用する。ここで、本実施形態では、画像表示装置1と撮像装置2は、同一のユーザが携帯して近距離にて使用することを想定する。そのため、この画像表示装置1が測位した位置情報は、実質的に、撮像装置2が撮影を行った位置を示す位置情報となる。
In the image display system S having such a configuration, the imaging device 2 generates an image (hereinafter, referred to as a “photographed image”) according to a user's photographing operation.
Further, the image display device 1 acquires a captured image from the imaging device 2 and associates the acquired captured image with position information. As the position information, for example, information measured by the image display device 1 is used. Here, in the present embodiment, it is assumed that the same user carries the image display device 1 and the imaging device 2 at a short distance. Therefore, the position information measured by the image display device 1 is substantially the position information indicating the position where the imaging device 2 has taken an image.

また、画像表示装置1は、この位置情報に対応する位置で撮影された、周辺の風景画像(以下、「周辺画像」と称する。)を画像データベース3から取得する。
そして、画像表示装置1は、撮影画像の表示時に、ユーザから所定の操作を受け付けた場合に、更に周辺画像を表示する。例えば、撮影画像と周辺画像を切り替えて表示したり、撮影画像と周辺画像を合成して表示したりする。このようにして表示される周辺画像を参照したユーザは、撮影位置の周辺の様子を、視覚によって容易に理解することができる。
つまり、画像表示システムSによれば、位置情報が関連付けられた画像の閲覧時における利便性を向上させることが可能となる。
The image display device 1 acquires from the image database 3 a surrounding landscape image (hereinafter, referred to as a “peripheral image”) captured at a position corresponding to the position information.
Then, the image display device 1 further displays a peripheral image when a predetermined operation is received from the user when the captured image is displayed. For example, the captured image and the peripheral image are switched and displayed, or the captured image and the peripheral image are combined and displayed. The user who has referred to the peripheral image displayed in this way can easily understand the situation around the shooting position visually.
That is, according to the image display system S, it is possible to improve convenience when browsing an image associated with position information.

次に、画像表示システムSにおいて主たる処理を行う画像表示装置1のハードウェア構成及び機能ブロックについて、図2及び図3を参照して説明をする。   Next, a hardware configuration and functional blocks of the image display device 1 that performs main processing in the image display system S will be described with reference to FIGS.

[ハードウェア構成]
図2は、本発明の画像表示装置の一実施形態に係る画像表示装置1のハードウェアの構成を示すブロック図である。
画像表示装置1は、図2に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、入力部16と、出力部17と、記憶部18と、通信部19と、撮像部20と、測位部21と、ドライブ22と、を備えている。
[Hardware configuration]
FIG. 2 is a block diagram showing a hardware configuration of the image display device 1 according to an embodiment of the image display device of the present invention.
As shown in FIG. 2, the image display device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, An input unit 16, an output unit 17, a storage unit 18, a communication unit 19, an imaging unit 20, a positioning unit 21, and a drive 22 are provided.

CPU11は、ROM12に記録されているプログラム、または、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。これらプログラムは、例えば、画像表示装置1の各部を動作させるためのオペレーティングシステムやファームウェア、あるいは、後述の機能ブロックを実現するためのアプリケーションソフトウェアといったプログラムである。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 18 to the RAM 13. These programs are, for example, programs such as an operating system and firmware for operating each unit of the image display device 1, or application software for realizing the function blocks described later.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 also stores data and the like necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、入力部16、出力部17、記憶部18、通信部19、撮像部20、測位部21、及びドライブ22が接続されている。   The CPU 11, the ROM 12, and the RAM 13 are mutually connected via a bus 14. The bus 14 is also connected to an input / output interface 15. The input / output interface 15 is connected to an input unit 16, an output unit 17, a storage unit 18, a communication unit 19, an imaging unit 20, a positioning unit 21, and a drive 22.

入力部16は、各種釦等で構成され、ユーザの指示操作を受け付け、受け付けた指示操作に応じて各種情報を入力する。
出力部17は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。なお、例えば、タッチパネルにより、入力部16と出力部17とを一体にして実現してもよい。
記憶部18は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部19は、他の装置との間で行う通信を制御する。例えば、図1を参照して上述した、撮像装置2との間で行う通信や、画像データベース3との間で行う通信を制御する。
The input unit 16 is configured by various buttons and the like, receives an instruction operation of the user, and inputs various information according to the received instruction operation.
The output unit 17 includes a display, a speaker, and the like, and outputs images and sounds. Note that, for example, the input unit 16 and the output unit 17 may be integrally realized by a touch panel.
The storage unit 18 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores data of various images.
The communication unit 19 controls communication performed with another device. For example, it controls communication performed with the imaging device 2 and communication performed with the image database 3 described above with reference to FIG.

撮像部20は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
Although not shown, the imaging unit 20 includes an optical lens unit and an image sensor.
The optical lens unit includes a lens that condenses light, such as a focus lens and a zoom lens, for photographing a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. A zoom lens is a lens that changes the focal length freely within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, white balance, and the like, as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮影)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部20の出力信号として出力される。
このような撮像部20の出力信号を撮影画像のデータとしてCPU11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (photographs) a subject image, accumulates image signals for a certain period of time, and sequentially supplies the accumulated image signals to the AFE as analog signals.
The AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing, and is output as an output signal of the imaging unit 20.
Such an output signal of the imaging unit 20 is appropriately supplied as data of a captured image to the CPU 11, an image processing unit (not shown), and the like.

測位部21は、画像表示装置1の現在位置を測位する。例えば、測位部21は、GPS(Global Positioning System)における衛星から発信される電波を受信して電気信号に変換する。また、測位部21は、この変換後の電気信号に基づいて、GPSによって示される画像表示装置1の現在位置(例えば、緯度、経度、及び高度により特定される現在位置)を測位する。   The positioning section 21 measures the current position of the image display device 1. For example, the positioning unit 21 receives a radio wave transmitted from a satellite in a GPS (Global Positioning System) and converts it into an electric signal. Further, the positioning unit 21 measures the current position (for example, the current position specified by latitude, longitude, and altitude) of the image display device 1 indicated by GPS based on the converted electric signal.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア31は、記憶部18に記憶されている画像のデータ等の各種データも、記憶部18と同様に記憶することができる。   In the drive 22, a removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 18 as needed. In addition, the removable medium 31 can store various data such as image data stored in the storage unit 18 in the same manner as the storage unit 18.

[機能ブロック]
図3は、図2の画像表示装置1の機能的構成のうち、周辺画像表示処理を実行するための機能的構成を示す機能ブロック図である。
ここで、周辺画像表示処理とは、上述したように、撮影画像表示時に、更に周辺画像を表示する一連の処理をいう。
[Function block]
FIG. 3 is a functional block diagram showing a functional configuration for executing a peripheral image display process among the functional configurations of the image display device 1 of FIG.
Here, as described above, the peripheral image display processing refers to a series of processing for further displaying a peripheral image when a captured image is displayed.

周辺画像表示処理を実行する場合、図3に示すように、CPU11において、撮影画像取得部111と、操作判断部112と、周辺画像取得部113と、画像処理部114と、表示制御部115と、が機能する。
また、周辺画像表示処理を実行する場合、記憶部18の一領域には、撮影画像記憶部181と、周辺画像記憶部182と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、周辺画像表示処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
When performing the peripheral image display processing, as shown in FIG. 3, in the CPU 11, the captured image acquisition unit 111, the operation determination unit 112, the peripheral image acquisition unit 113, the image processing unit 114, the display control unit 115, , Works.
When the peripheral image display process is performed, a captured image storage unit 181 and a peripheral image storage unit 182 are set in one area of the storage unit 18.
The data necessary for realizing the peripheral image display processing is appropriately transmitted and received between these functional blocks at an appropriate timing, even if not particularly mentioned below.

撮影画像記憶部181には、撮像装置2から取得した撮影画像のデータが記憶される。撮影画像は、後述の撮影画像取得部111により取得され、撮影画像記憶部181に格納される。
周辺画像記憶部182には、画像データベース3から取得した周辺画像のデータが記憶される。周辺画像は、後述の周辺画像取得部113により取得され、周辺画像記憶部182に格納される。
The captured image storage unit 181 stores data of a captured image acquired from the imaging device 2. The captured image is acquired by a captured image acquisition unit 111 described later, and stored in the captured image storage unit 181.
The peripheral image storage unit 182 stores the peripheral image data obtained from the image database 3. The peripheral image is acquired by a peripheral image acquiring unit 113 described later, and is stored in the peripheral image storage unit 182.

撮影画像取得部111は、通信部19を介した通信により、撮像装置2から撮影画像を取得する。
撮影画像は、例えば、撮像装置2が撮影を行った時点で、画像表示装置1に送信され、撮影画像取得部111により取得される。この場合、撮影画像取得部111は、撮影画像を取得すると、その時点での画像表示装置1の現在位置を示す位置情報を測位部21から取得する。
The photographed image acquisition unit 111 acquires a photographed image from the imaging device 2 by communication via the communication unit 19.
The captured image is transmitted to the image display device 1 and captured by the captured image acquisition unit 111, for example, when the image capturing device 2 captures an image. In this case, when the captured image acquisition unit 111 acquires a captured image, the captured image acquisition unit 111 acquires from the positioning unit 21 position information indicating the current position of the image display device 1 at that time.

あるいは、撮影画像は、例えば、撮像装置2が撮影を行った時刻を示す情報と共に、画像表示装置1に送信され、撮影画像取得部111により取得される。この場合、撮影画像取得部111は、撮影画像と共に送信された情報により撮影時刻を特定する。そして、撮影画像取得部111は、測位部21のログ情報から、特定した撮影時刻に対応する測位時刻に測位した、画像表示装置1の現在位置を示す位置情報を取得する。   Alternatively, the captured image is transmitted to the image display device 1 together with, for example, information indicating the time at which the imaging device 2 performed the image capturing, and is acquired by the captured image acquiring unit 111. In this case, the photographed image acquiring unit 111 specifies the photographing time based on the information transmitted together with the photographed image. Then, the captured image obtaining unit 111 obtains, from the log information of the positioning unit 21, position information indicating the current position of the image display device 1 measured at the positioning time corresponding to the specified shooting time.

そして、撮影画像取得部111は、取得した撮影画像に、取得した現在位置を示す位置情報を関連付けて撮影画像記憶部181に格納することにより、取得した撮影画像を撮影画像記憶部181に記憶させる。
なお、本実施形態では、画像表示装置1と撮像装置2は、同一のユーザが携帯して近距離にて使用することを想定ため、この測位部21が測位した位置情報は、実質的に、撮像装置2が撮影を行った位置を示す位置情報となる点については、上述した通りである。
Then, the captured image acquiring unit 111 stores the acquired captured image in the captured image storage unit 181 by storing the acquired captured image in the captured image storage unit 181 in association with position information indicating the acquired current position. .
In the present embodiment, since the image display device 1 and the imaging device 2 are assumed to be carried by the same user and used at a short distance, the position information measured by the positioning unit 21 is substantially The point that becomes the position information indicating the position where the imaging device 2 has taken the image is as described above.

操作判断部112は、ユーザが画像表示装置1に対して行った指示操作に基づいて、ユーザからの指示内容を判断する。なお、このユーザからの指示操作は、入力部16を実現する各種釦や、タッチパネルにより受け付けられる。操作判断部112が判断したユーザからの指示内容は、指示内容に関連する各機能ブロックに対して出力される。   The operation determination unit 112 determines the content of an instruction from the user based on the instruction operation performed on the image display device 1 by the user. The instruction operation from the user is received by various buttons for realizing the input unit 16 or a touch panel. The instruction content from the user determined by the operation determination unit 112 is output to each functional block related to the instruction content.

周辺画像取得部113は、周辺画像を取得する。周辺画像取得部113は、例えば、表示する撮影画像が選択された場合に、この撮影画像に関連付けられている位置情報を読み出す。また、周辺画像取得部113は、この位置情報を含んだ要求情報を、画像データベース3に対して送信する。そして、周辺画像取得部113は、この要求情報の応答として、画像データベース3から、送信した位置情報に対応する周辺画像を取得する。撮影画像取得部111は、取得した周辺画像を周辺画像記憶部182に格納することにより、取得した周辺画像を周辺画像記憶部182に記憶させる。   The peripheral image acquisition unit 113 acquires a peripheral image. For example, when a captured image to be displayed is selected, the peripheral image acquisition unit 113 reads out the position information associated with the captured image. Further, the peripheral image acquisition unit 113 transmits request information including the position information to the image database 3. Then, the peripheral image acquiring unit 113 acquires a peripheral image corresponding to the transmitted position information from the image database 3 as a response to the request information. The captured image acquisition unit 111 stores the acquired peripheral image in the peripheral image storage unit 182 by storing the acquired peripheral image in the peripheral image storage unit 182.

画像処理部114は、周辺画像を表示するための画像処理を行う。例えば、画像処理部114は、撮影画像と周辺画像に対して画像解析を行うことにより、撮影画像と周辺画像との対応関係を特定する。具体的には、画像処理部114は、周辺画像における撮影画像に対応する位置(すなわち、周辺画像における、撮影画像と同じ撮影方角の同じ撮影範囲に対応する位置)を特定する。
この場合、例えば、画像処理部114は、撮影画像及び周辺画像のそれぞれにおける被写体のエッジや特徴点を検出し、これらのマッチング処理を行うことにより、周辺画像における撮影画像に対応する位置を特定する。あるいは、画像処理部114は、撮影画像及び周辺画像に、撮影時の撮影方角を示す情報がジオタグ等として関連付けられている場合は、この撮影方角を示す情報に基づいて、周辺画像における撮影画像に対応する位置を特定する。
The image processing unit 114 performs image processing for displaying a peripheral image. For example, the image processing unit 114 specifies the correspondence between the captured image and the peripheral image by performing image analysis on the captured image and the peripheral image. Specifically, the image processing unit 114 specifies a position corresponding to the captured image in the peripheral image (that is, a position corresponding to the same capturing range in the same capturing direction as the captured image in the peripheral image).
In this case, for example, the image processing unit 114 detects an edge or a feature point of the subject in each of the captured image and the peripheral image, and specifies the position corresponding to the captured image in the peripheral image by performing the matching processing. . Alternatively, if information indicating the shooting direction at the time of shooting is associated as a geotag or the like with the shot image and the peripheral image, the image processing unit 114 may generate the shot image in the surrounding image based on the information indicating the shooting direction. Identify the corresponding location.

そして、画像処理部114は、特定した周辺画像における撮影画像に対応する位置を、表示制御部115に対して出力する。
なお、画像処理部114は、その他の画像処理を行う機能を更に有していてもよい。例えば、画像処理部114は、特定した周辺画像における撮影画像に対応する位置に基づいて、撮影画像と周辺画像とを、ユーザが観察した場合に違和感が生じないように合成する処理を行なう、といった機能を有していてもよい。なお、このようにして撮影画像と周辺画像とを適切に合成した画像を、以下では、「合成画像」と称する。
Then, the image processing unit 114 outputs a position corresponding to the captured image in the specified peripheral image to the display control unit 115.
Note that the image processing unit 114 may further have a function of performing other image processing. For example, the image processing unit 114 performs a process of combining the captured image and the peripheral image based on the position corresponding to the captured image in the specified peripheral image so that the user does not feel uncomfortable when the user observes the image. It may have a function. Note that an image obtained by appropriately combining the captured image and the peripheral image in this manner is hereinafter referred to as a “synthesized image”.

表示制御部115は、ユーザからの指示内容に応じて、出力部17に表示する画像を制御する。例えば、表示制御部115は、ユーザが選択した撮影画像を出力部17に表示するための制御をする。また、表示制御部115は、ユーザから所定の操作があった場合に、画像処理部114から出力された周辺画像における撮影画像に対応する位置に基づいて、撮影画像と周辺画像を相互に切り替えて出力部17に表示するための制御をする。あるいは、表示制御部115は、ユーザから所定の操作があった場合に、合成画像を出力部17に表示するための制御をする。   The display control unit 115 controls an image to be displayed on the output unit 17 according to an instruction from the user. For example, the display control unit 115 performs control for displaying the captured image selected by the user on the output unit 17. Further, when a predetermined operation is performed by the user, the display control unit 115 switches between the captured image and the peripheral image based on the position corresponding to the captured image in the peripheral image output from the image processing unit 114. Control for displaying on the output unit 17 is performed. Alternatively, the display control unit 115 performs control for displaying a composite image on the output unit 17 when a predetermined operation is performed by the user.

この所定の操作とは、例えば、撮影画像の表示範囲の変更を伴う処理を指示する操作である。より具体的には、例えば、縮小操作(例えば、ピンチイン)や、撮影画像の拡大操作(例えば、ピンチアウト)や、撮影画像の移動操作(例えば、スワイプ)である。   The predetermined operation is, for example, an operation for instructing a process involving a change in the display range of a captured image. More specifically, for example, a reduction operation (for example, pinch-in), an enlargement operation (for example, pinch-out) of a captured image, and a movement operation (for example, swipe) of a captured image are performed.

また、表示制御部115は、各画像を表示したり、ユーザからの操作指示を受け付けたりするためのユーザインタフェースも出力部17に表示する。
なお、表示制御部115の制御により出力部17に表示される画面の表示例については、以下説明する[表示例]の欄において、図6、図7、及び図8を参照して説明する。
The display control unit 115 also displays on the output unit 17 a user interface for displaying each image and receiving an operation instruction from a user.
A display example of a screen displayed on the output unit 17 under the control of the display control unit 115 will be described in the column of [Display Example] described below with reference to FIGS. 6, 7, and 8.

[動作]
図4及び図5は、画像表示システムSにおいて、図3の機能的構成を有する図1の画像表示装置1が実行する周辺画像表示処理の流れを説明するフローチャートである。なお、図7には、画像表示装置1による処理に対応して行われる、画像データベース3の処理も図示する。
周辺画像表示処理は、ユーザによる入力部16への操作指示により開始される。例えば、周辺画像表示処理を実現するアプリケーションソフトウェアの起動指示により開始される。
[motion]
FIGS. 4 and 5 are flowcharts illustrating the flow of the peripheral image display process performed by the image display apparatus 1 of FIG. 1 having the functional configuration of FIG. 3 in the image display system S. FIG. 7 also illustrates the processing of the image database 3 that is performed in response to the processing by the image display device 1.
The peripheral image display processing is started by a user's operation instruction to the input unit 16. For example, the processing is started by a start instruction of application software for realizing the peripheral image display processing.

先ず表示制御部115は、撮影画像記憶部181に記憶されている撮影画像の一覧を出力部17に一覧表示する(ステップS11)。   First, the display control unit 115 displays a list of captured images stored in the captured image storage unit 181 on the output unit 17 (step S11).

操作判断部112は、一覧表示されている撮影画像の何れかがユーザの操作指示において選択されたか否かを判定する(ステップS12)。一覧表示されている撮影画像の何れもユーザの操作指示において選択されない場合(ステップS12においてNo)、ステップS11の撮影画像の一覧表示に戻る。一方で、一覧表示されている撮影画像の何れかがユーザの操作指示において選択された場合(ステップS12においてYes)、処理はステップS13に進む。   The operation determination unit 112 determines whether any of the captured images displayed in the list has been selected by a user's operation instruction (step S12). If none of the photographed images displayed in the list is selected by the user's operation instruction (No in step S12), the process returns to the photographed image list display in step S11. On the other hand, if any of the captured images displayed in the list is selected by the user's operation instruction (Yes in step S12), the process proceeds to step S13.

周辺画像取得部113は、ステップS12において選択された撮影画像に関連付けられている、撮影位置を示す位置情報を読み出す(ステップS13)。   The peripheral image acquiring unit 113 reads out the position information indicating the photographing position, which is associated with the photographed image selected in step S12 (step S13).

周辺画像取得部113は、ステップS13において読み出された位置情報を含また要求情報を生成し、この生成した要求情報を画像データベース3に対して送信する(ステップS14)。   The peripheral image acquisition unit 113 generates request information including the position information read in step S13, and transmits the generated request information to the image database 3 (step S14).

他方、画像データベース3は、送信された要求情報を受信したか否かを判定する(ステップS31)。要求情報を受信していない場合(ステップS31においてNo)、画像データベース3は要求待機状態に戻る。一方で、要求情報を受信した場合(ステップS31においてYes)、処理はステップS32に進む。   On the other hand, the image database 3 determines whether or not the transmitted request information has been received (Step S31). If the request information has not been received (No in step S31), the image database 3 returns to the request waiting state. On the other hand, if the request information has been received (Yes in step S31), the process proceeds to step S32.

画像データベース3は、要求情報に含まれる位置情報に基づいて、自身が備えるデータベースのなかから周辺画像を検索する(ステップS32)。具体的には、要求情報に含まれる位置情報に対応する位置を、撮影位置としている周辺画像を検索する。   The image database 3 searches for a peripheral image from its own database based on the position information included in the request information (step S32). Specifically, a peripheral image in which a position corresponding to the position information included in the request information is set as a shooting position is searched.

画像データベース3は、ステップS32において検索にて特定された周辺画像を、ステップS14において送信された要求情報の応答として、画像表示装置1に対して送信する(ステップS33)。   The image database 3 transmits the peripheral image specified by the search in step S32 to the image display device 1 as a response to the request information transmitted in step S14 (step S33).

他方、周辺画像取得部113は、この要求情報の応答として、周辺画像を受信したか否かを判定する(ステップS15)。周辺画像を受信していない場合(ステップS15においてNo)、周辺画像を受信待機状態となる。一方で、周辺画像を受信した場合(ステップS15においてYes)、処理は図5のステップS16に進む。   On the other hand, the peripheral image acquisition unit 113 determines whether a peripheral image has been received as a response to the request information (Step S15). If the peripheral image has not been received (No in step S15), the peripheral image is in a reception standby state. On the other hand, if a peripheral image has been received (Yes in step S15), the process proceeds to step S16 in FIG.

図5に進み、表示制御部115は、ステップS12において選択された撮影画像を出力部17に表示する(ステップS16)。ユーザは、この表示された撮影画像を閲覧することができる。   Proceeding to FIG. 5, the display control unit 115 displays the captured image selected in step S12 on the output unit 17 (step S16). The user can browse the displayed captured image.

操作判断部112は、ステップS16において表示された撮影画像を閲覧したユーザからの、所定の操作指示を検出したか否かを判定する(ステップS17)。ここで所定の操作とは、上述したように、例えば、拡大操作や縮小操作、あるいは移動操作といった、撮影画像の表示範囲の変更を伴う処理を指示する操作である。所定の操作指示を検出していない場合(ステップS17においてNo)、選択された撮影画像の表示を維持する。一方で、所定の指示操作を検出した場合(ステップS17においてYes)、処理はステップS18に進む。   The operation determining unit 112 determines whether a predetermined operation instruction from a user who has viewed the captured image displayed in step S16 is detected (step S17). Here, the predetermined operation is an operation for instructing a process involving a change in the display range of a captured image, such as an enlargement operation, a reduction operation, or a movement operation, as described above. If the predetermined operation instruction has not been detected (No in step S17), the display of the selected captured image is maintained. On the other hand, when the predetermined instruction operation is detected (Yes in step S17), the process proceeds to step S18.

操作判断部112は、ステップS17において検出した、ユーザからの所定の操作指示に基づいて、撮影画像の表示範囲を変更した場合に、撮影画像の撮影範囲外を表示することになるか否かを判定する(ステップS18)。すなわち、ユーザからの所定の操作指示の内容が、撮影画像の撮影範囲外の表示指示であるか否かを判定する。撮影画像の撮影範囲外の表示指示でない場合(ステップS18においてNo)、処理はステップS21に進む。一方で、撮影画像の撮影範囲外の表示指示である場合(テップS18においてYes)、処理はステップS19に進む。   The operation determining unit 112 determines whether or not to display the outside of the photographing range of the photographed image when the display range of the photographed image is changed based on the predetermined operation instruction from the user detected in step S17. A determination is made (step S18). That is, it is determined whether or not the content of the predetermined operation instruction from the user is a display instruction outside the shooting range of the shot image. If the instruction is not a display instruction outside the shooting range of the shot image (No in step S18), the process proceeds to step S21. On the other hand, when the instruction is a display instruction outside the shooting range of the shot image (Yes in step S18), the process proceeds to step S19.

画像処理部114は、周辺画像からステップS17において検出した表示指示に対応する画像領域を抽出する(ステップS19)。例えば、ステップS17において、撮影画像に隣接する撮影範囲の表示指示がなされた場合は、この隣接する撮影範囲に対応する画像領域を周辺画像から抽出する。   The image processing unit 114 extracts an image area corresponding to the display instruction detected in step S17 from the peripheral image (step S19). For example, when the display instruction of the photographing range adjacent to the photographed image is given in step S17, the image area corresponding to the photographing range adjacent to the photographed image is extracted from the peripheral image.

表示制御部115は、ステップS19において周辺画像から抽出された画像領域を出力部17に表示する(ステップS20)。これにより、ステップS17において検出した表示指示に応じた画像を表示することができる。   The display control unit 115 displays the image area extracted from the peripheral image in step S19 on the output unit 17 (step S20). Thus, an image corresponding to the display instruction detected in step S17 can be displayed.

表示制御部115は、撮影画像における、ステップS17において検出した表示指示に対応する画像領域を出力部17に表示する(ステップS21)。これにより、ステップS19と同様に、ステップS17において検出した表示指示に応じた画像を表示することができる。   The display control unit 115 displays an image area corresponding to the display instruction detected in step S17 on the output unit 17 in the captured image (step S21). Thereby, similarly to step S19, an image corresponding to the display instruction detected in step S17 can be displayed.

操作判断部112は、ユーザからの、本処理の終了指示を検出したか否かを判定する(ステップS22)。終了指示を検出していない場合(ステップS22においてNo)、処理はステップS17に戻って繰り返される。一方で、終了指示を検出した場合(ステップS22においてYes)、本処理は終了する。   The operation determination unit 112 determines whether an end instruction of the present process from the user has been detected (step S22). If the end instruction has not been detected (No in step S22), the process returns to step S17 and is repeated. On the other hand, when an end instruction is detected (Yes in step S22), the present process ends.

以上説明したようにして周辺画像表示処理が実現し、撮影画像の表示時に、ユーザから所定の操作を受け付けた場合に、更に周辺画像を表示することが可能となる。これにより、位置情報が関連付けられた画像の閲覧時における利便性を向上させることが可能となる。   As described above, the peripheral image display processing is realized, and when a predetermined operation is received from the user at the time of displaying the captured image, the peripheral image can be further displayed. As a result, it is possible to improve the convenience when browsing the image associated with the position information.

[表示例]
周辺画像表示処理において、表示制御部115の制御により出力部17に表示される表示の画面遷移の例について、図6、図7、及び図8を参照して説明をする。ここで、図6、図7、及び図8は、それぞれ、周辺画像表示処理における表示例を示す模式図である。
なお、図6、図7、及び図8に示すように、本例では、画像表示装置1の出力部17は、スマートフォンの前面に配置されたタッチパネルとして実現される場合を想定する。また、本例では、表示制御部115は、タッチパネルを表示領域AR1と、表示領域AR2の2つの表示領域に区分して表示を行う。
[Display example]
In the peripheral image display processing, an example of screen transition of a display displayed on the output unit 17 under the control of the display control unit 115 will be described with reference to FIGS. 6, 7, and 8. FIG. Here, FIGS. 6, 7, and 8 are schematic diagrams each showing a display example in the peripheral image display processing.
As shown in FIGS. 6, 7, and 8, in this example, it is assumed that the output unit 17 of the image display device 1 is realized as a touch panel arranged on the front of a smartphone. Further, in this example, the display control unit 115 performs display by dividing the touch panel into two display areas, a display area AR1 and a display area AR2.

上述したステップS16における処理により、ユーザにより選択された撮影画像が表示される。例えば、図6(A)に示すように、表示領域AR1に撮影画像の撮影位置に対応する位置を含んだ地図が表示される。この地図では、撮影位置を示すアイコン51が表示される。また、表示領域AR2に撮影画像が表示される。この撮影画像では、被写体となった人物が被写体52として背景となる画像と共に表示される。   The captured image selected by the user is displayed by the processing in step S16 described above. For example, as shown in FIG. 6A, a map including a position corresponding to the shooting position of the shot image is displayed in the display area AR1. On this map, an icon 51 indicating the shooting position is displayed. Further, the captured image is displayed in the display area AR2. In this photographed image, the person serving as the subject is displayed as the subject 52 together with the image serving as the background.

また、他の例として、例えば、図6(B)に示すように、表示領域AR1に撮影画像を表示し、表示領域AR2に情報53として示すように、撮影画像の撮影位置に対応する情報(ここでは、撮影位置の名称を示すテキスト)を表示する。
なお、ユーザの操作指示に応じて、図6(A)に示す表示例と、図6(B)に示す表示例を切り替えて表示するようにしてもよい。
As another example, for example, as shown in FIG. 6B, a captured image is displayed in the display area AR1, and information (corresponding to the captured position of the captured image, as shown as information 53 in the display area AR2). Here, text indicating the name of the shooting position is displayed.
The display example shown in FIG. 6A and the display example shown in FIG. 6B may be switched and displayed according to a user's operation instruction.

また、図7(C)に示すように、ユーザによる所定の操作指示を受け付けるための、操作ボタン54(ここでは、「周辺」とのテキストが付された操作ボタン)を表示する。そして、この操作ボタン54の押下操作を受け付けた場合、図7(D)に示すように表示領域AR1の表示内容を遷移させる。   In addition, as shown in FIG. 7C, an operation button 54 (here, an operation button with a text “peripheral”) for receiving a predetermined operation instruction from the user is displayed. When the operation of pressing the operation button 54 is received, the display content of the display area AR1 is changed as shown in FIG. 7D.

具体的には、図7(D)に示すように、表示領域AR1に撮影画像を表示する。そして、概念領域AR3には、画像データベース3から取得した、撮影画像に対応する周辺画像を、位置関係を対応させて配置する。ここで、概念領域AR3は、実際に表示がなされる領域ではなく、本実施形態の処理を説明するために図示する概念的な領域である。   Specifically, as shown in FIG. 7D, the captured image is displayed in the display area AR1. Then, in the conceptual area AR3, peripheral images corresponding to the captured images acquired from the image database 3 are arranged in a positional relationship. Here, the conceptual area AR3 is not an area where display is actually performed, but a conceptual area illustrated for explaining the processing of the present embodiment.

この場合に、図7(E)に示すように、表示領域AR1で、ユーザの操作指示を受け付ける。例えば、ユーザから、ユーザの手60がタッチパネルに接した状態で横方向にスライドするスワイプを操作指示として受け付ける。これは、所定の操作であるので、上述のステップS17においてYesと判定される。また、撮影範囲外の表示指示であるので、上述のステップS18においてもYesと判定される。   In this case, as shown in FIG. 7E, a user's operation instruction is received in the display area AR1. For example, a swipe that slides in the horizontal direction while the user's hand 60 is in contact with the touch panel is received as an operation instruction from the user. Since this is a predetermined operation, it is determined as Yes in step S17 described above. In addition, since the display instruction is out of the photographing range, the determination in step S18 is Yes.

すると、図7(F)に示すように、撮影画像から、概念領域AR3に配置されていた周辺画像に表示が切り替えられる。例えば、撮影画像に正対して左方向に移動を指示するスワイプを受け付けた場合は、周辺画像における、撮影画像に対応する位置よりも左側の画像(周辺画像の撮影位置から正対した場合に東側の画像)が抽出され、表示領域AR1に表示される(ステップS19及びステップS20)。その後、更にユーザの操作指示に応じて周辺画像の他の位置の画像が表示される。   Then, as shown in FIG. 7F, the display is switched from the photographed image to the peripheral image arranged in the conceptual area AR3. For example, when a swipe for instructing a movement to the left with respect to the captured image is received, an image on the left side of the position corresponding to the captured image in the peripheral image (the east side when facing directly from the capturing position of the peripheral image) Are extracted and displayed in the display area AR1 (steps S19 and S20). After that, an image at another position of the peripheral image is displayed in response to a user's operation instruction.

また、例えば、図7(F)の表示において、撮影画像に正対して右方向に移動を指示するスワイプを受け付けた場合は、撮影範囲外の表示指示ではなくなるので、ステップS18においてNoと判定され、再度撮影画像が表示される(ステップS21)。   Further, for example, in the display of FIG. 7F, when a swipe for instructing a rightward movement is directly received with respect to the captured image, the display instruction is not a display outside the imaging range, and thus the determination is No in step S18. Then, the photographed image is displayed again (step S21).

このようにして、画像表示装置1は、撮影画像の表示時に、ユーザから所定の操作を受け付けた場合に、更に周辺画像を表示する。このようにして表示される周辺画像を参照したユーザは、撮影位置の周辺の様子を、視覚によって容易に理解することができる。
つまり、画像表示装置1によれば、位置情報が関連付けられた画像の閲覧時における利便性を向上させることが可能となる。
In this way, the image display device 1 further displays the peripheral image when a predetermined operation is received from the user when the captured image is displayed. The user who has referred to the peripheral image displayed in this way can easily understand the situation around the shooting position visually.
That is, according to the image display device 1, it is possible to improve convenience when browsing an image associated with position information.

[構成例]
以上のように構成される画像表示装置1は、出力部17と、入力部16と、操作判断部112と、周辺画像取得部113と、表示制御部115と、を備える。
出力部17は、位置情報が関連付けられた撮影画像を表示する。
入力部16は、操作の受け付けを検出する。
操作判断部112は、出力部17による撮影画像の表示時に、入力部16によって検出された操作に基づき、撮影画像の表示態様の変更を指示されたか否かを判断する。
周辺画像取得部113は、撮影画像に関連付けられた位置情報に基づいた周辺画像を画像表示装置1外部から取得する。
表示制御部115は、操作判断部112により肯定と判断された場合に(すなわち、操作判断部112により出力部17による撮影画像の表示時に、入力部16によって検出された操作に基づき、撮影画像の表示態様の変更を指示されたと判断された場合に)、周辺画像取得部113によって取得された周辺画像を出力部17に表示するよう制御する。
これにより、画像表示装置1は、撮影画像の表示時に、ユーザから所定の操作を受け付けた場合に、更に周辺画像を表示することができる。つまり、画像表示装置1によれば、位置情報が関連付けられた画像の閲覧時における利便性を向上させることができる。
[Configuration example]
The image display device 1 configured as described above includes an output unit 17, an input unit 16, an operation determination unit 112, a peripheral image acquisition unit 113, and a display control unit 115.
The output unit 17 displays a captured image associated with the position information.
The input unit 16 detects reception of an operation.
The operation determining unit 112 determines whether or not an instruction to change the display mode of the captured image has been given based on the operation detected by the input unit 16 when the output unit 17 displays the captured image.
The peripheral image acquisition unit 113 acquires a peripheral image based on the position information associated with the captured image from outside the image display device 1.
When the operation determination unit 112 determines that the determination is affirmative (that is, when the operation determination unit 112 displays the captured image by the output unit 17, the display control unit 115 determines the captured image based on the operation detected by the input unit 16). If it is determined that the display mode has been instructed to change), control is performed so that the peripheral image acquired by the peripheral image acquisition unit 113 is displayed on the output unit 17.
Accordingly, the image display device 1 can further display the peripheral image when a predetermined operation is received from the user when the captured image is displayed. That is, according to the image display device 1, the convenience at the time of browsing the image associated with the position information can be improved.

画像表示装置1は、通信部19を更に備える。
通信部19は、当該装置外部の画像データベース3と通信する。
周辺画像取得部113は、通信部19を介して撮影画像に関連付けられた位置情報を画像データベース3へ送信し、その応答として画像データベース3から位置情報に基づいた周辺画像を取得する。
これにより、ユーザに対して、画像データベース3に蓄積された周辺画像を閲覧させることができる。
The image display device 1 further includes a communication unit 19.
The communication unit 19 communicates with the image database 3 outside the device.
The peripheral image acquisition unit 113 transmits the position information associated with the captured image to the image database 3 via the communication unit 19, and acquires a peripheral image based on the position information from the image database 3 as a response.
This allows the user to browse the peripheral images stored in the image database 3.

撮影画像に関連付けられた位置情報とは、撮影画像が撮影された位置を示す情報であり、
周辺画像とは、撮影画像が撮影された位置を含む周辺の風景画像である。
これにより、ユーザに対して、撮影画像と、この撮影画像が撮影された位置を含む周辺の風景画像とを共に閲覧させることができる。
The position information associated with the captured image is information indicating a position where the captured image was captured,
The peripheral image is a surrounding landscape image including the position where the captured image is captured.
This allows the user to view both the captured image and the surrounding landscape image including the position where the captured image was captured.

表示制御部115は、撮影画像と風景画像である周辺画像とを、観察した場合に違和感が生じないように合成して、出力部17に表示するよう制御する。
これにより、ユーザに対して、撮影画像と、風景画像とを違和感なく合成した上で閲覧させることができる。
The display control unit 115 performs control such that the captured image and the surrounding image, which is a landscape image, are synthesized so as not to cause a sense of discomfort when observed, and displayed on the output unit 17.
This allows the user to view the synthesized image and the landscape image without any discomfort.

操作判断部112は、入力部16によって検出された操作が、表示された撮影画像の縮小操作又は表示された撮影画像の移動操作を含む場合に、肯定と判断する。
これにより、操作に応じて、撮影画像の縮小や移動を行う場合に、撮影画像の表示範囲外となったとしても、ユーザに対して、代わりに周辺画像を閲覧させることができる。
The operation determination unit 112 determines that the operation detected by the input unit 16 is affirmative when the operation includes a reduction operation of the displayed captured image or a movement operation of the displayed captured image.
Thus, when the captured image is reduced or moved in accordance with the operation, even if the captured image is out of the display range, the user can browse the peripheral image instead.

画像表示装置1は、撮像部20を更に備える。
撮像部20は、撮影により撮影画像を生成する。
撮影画像取得部111は、撮像部20が生成した撮影画像に、位置情報を関連付けするよう制御する。
これにより、位置情報が関連付けられた撮影画像を取得することができる。
The image display device 1 further includes an imaging unit 20.
The imaging unit 20 generates a photographed image by photographing.
The captured image acquisition unit 111 performs control so as to associate position information with the captured image generated by the imaging unit 20.
As a result, it is possible to obtain a captured image associated with the position information.

画像表示装置1は、画像処理部114を更に備える。
画像処理部114は、撮影画像を解析する。
周辺画像取得部113は、画像処理部114の解析結果に基づいて、周辺画像を取得する。
これにより、位置情報が関連付けられていない撮影画像に基づいて、周辺画像を取得することができる。
The image display device 1 further includes an image processing unit 114.
The image processing unit 114 analyzes the captured image.
The peripheral image acquisition unit 113 acquires a peripheral image based on the analysis result of the image processing unit 114.
This makes it possible to acquire a peripheral image based on a captured image to which no positional information is associated.

[変形例]
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。例えば、上述の実施形態を変形し、以下に例示するような変形例とすることができる。また、以下に例示するような変形例を組み合わせることもできる。
[Modification]
It should be noted that the present invention is not limited to the above-described embodiment, but includes modifications and improvements as long as the object of the present invention can be achieved. For example, the above-described embodiment may be modified to provide a modification as exemplified below. Further, modifications as exemplified below can be combined.

[変形例1]
上述した実施形態では、撮影画像における撮影範囲外の表示指示があった場合(ステップS18においてYes)、周辺画像から表示指示に対応する画像領域を抽出していた(ステップS19)。そして、周辺画像から抽出された画像領域を表示していた(ステップS20)。すなわち、撮影画像と周辺画像を切り替えて表示していた。これに限らず、ステップS18においてYesと判定された場合に、合成画像を表示するようにしてもよい。
[Modification 1]
In the above-described embodiment, when there is a display instruction outside the photographing range in the photographed image (Yes in step S18), an image area corresponding to the display instruction is extracted from the peripheral image (step S19). Then, the image area extracted from the peripheral image is displayed (Step S20). That is, the captured image and the peripheral image are switched and displayed. However, the present invention is not limited to this, and a composite image may be displayed when it is determined to be Yes in step S18.

この場合の周辺画像表示処理の流れについて、図9を参照して説明する。図9は、本変形例における周辺画像表示処理の流れを説明するフローチャートである。なお、上述の実施形態と同様の処理を行うステップについては、図中において同じ符号を付すと共に、再度の説明を省略する。   The flow of the peripheral image display processing in this case will be described with reference to FIG. FIG. 9 is a flowchart illustrating the flow of the peripheral image display process according to the present modification. Steps for performing the same processing as in the above-described embodiment are denoted by the same reference numerals in the drawings, and description thereof will not be repeated.

図4を参照して上述したステップS11からステップS15まで(併せてステップS31からステップS33まで)が終了すると、本変形例では、図9のステップS16に処理が進む。その後、ステップS18においてYesと判定されると、本変形例ではステップS41に進む。   When steps S11 to S15 (and also steps S31 to S33) described above with reference to FIG. 4 are completed, in the present modified example, the process proceeds to step S16 in FIG. Thereafter, if it is determined Yes in step S18, the process proceeds to step S41 in the present modified example.

画像処理部114は、周辺画像における撮影画像に対応する位置に基づいて、撮影画像と周辺画像とを、ユーザが観察した場合に違和感が生じないように合成することにより、合成画像を生成する(ステップS41)。   The image processing unit 114 generates a composite image by combining the captured image and the peripheral image based on the position corresponding to the captured image in the peripheral image so that the user does not feel uncomfortable when observing the image ( Step S41).

表示制御部115は、ステップS18において生成した合成画像について、ユーザからの表示指示に対応する画像領域を出力部17に表示する。
これにより、撮影画像と周辺画像を切り替えて表示するのではなく、違和感が生じないように合成された合成画像を表示することが可能となる。そのため、例えば、ユーザからスワイプ等の撮影画像の移動操作を受け付けた場合に、撮影画像と周辺画像の切り替わりをユーザに感じさせることなく、連続的に表示変化させることが可能となる。また、例えば、ユーザからピンチイン等の撮影画像の縮小操作を受け付けた場合に、撮影画像に対応する画像を中央とし、周囲を周辺画像とした合成画像を表示することができる。
The display control unit 115 displays an image area corresponding to a display instruction from the user on the output unit 17 for the composite image generated in step S18.
As a result, it is possible to display a synthesized image that is synthesized so as not to cause a sense of discomfort, instead of switching between the captured image and the peripheral image and displaying the captured image. Therefore, for example, when a moving operation of the captured image such as a swipe is received from the user, the display can be continuously changed without causing the user to feel the switching between the captured image and the peripheral image. Further, for example, when a reduction operation of a captured image such as a pinch-in is received from a user, a composite image having an image corresponding to the captured image as a center and a surrounding image as a periphery can be displayed.

[変形例2]
上述した実施形態では、撮影画像に測位部21による測位に基づいた位置情報を、撮影画像に関連付けていた。そして、この位置情報に基づいて、撮影画像に対応する周辺画像を特定していた。これに限らず、他の方法で撮影画像に対応する周辺画像を特定するようにしてもよい。例えば、画像処理部114や画像データベース3が、撮影画像と、データベースに蓄積されている複数の周辺画像との間で、テンプレートマッチング等の手法を用いた画像マッチングを行うようにしてもよい。そして、画像マッチングにより、マッチングした周辺画像を、撮影画像に対応する周辺画像として特定してもよい。
これにより、測位に基づいた位置情報が関連付けられていない撮影画像を対象とした場合も、周辺画像を特定することができる。
[Modification 2]
In the above-described embodiment, the position information based on the positioning by the positioning unit 21 is associated with the captured image. Then, a peripheral image corresponding to the captured image is specified based on the position information. The invention is not limited to this, and the peripheral image corresponding to the captured image may be specified by another method. For example, the image processing unit 114 and the image database 3 may perform image matching using a technique such as template matching between the captured image and a plurality of peripheral images stored in the database. Then, by image matching, the matched peripheral image may be specified as a peripheral image corresponding to the captured image.
This makes it possible to identify the peripheral image even when the captured image is not associated with the position information based on the positioning.

また、上述した実施形態のように、位置情報を用いる場合に、更に他の情報も利用するようにしてもよい。例えば、撮影画像に、撮影時の撮影時刻を示す情報がジオタグ等として関連付けられている場合は、位置情報が対応する周辺画像であって、更にこの時刻情報に対応する時間帯に撮影された周辺画像を特定するようにしてもよい。これにより、画像データベース3に、同じ撮影位置で異なる時間帯(例えば、昼の時間帯と、夜の時間帯)に撮影された周辺画像が存在する場合に、撮影画像とより合致する周辺画像を特定することができる。そのため、撮影画像と周辺画像を切り替えて表示する場合や、合成画像を生成する場合に、より違和感が生じない、自然な表示を実現することができる。   Further, when position information is used as in the above-described embodiment, other information may be used. For example, when information indicating the photographing time at the time of photographing is associated with the photographed image as a geotag or the like, the position information is the corresponding peripheral image, and the peripheral image photographed in the time zone corresponding to this time information is also included. An image may be specified. Thereby, when there are peripheral images captured at different time zones (for example, daytime zone and nighttime zone) at the same shooting position in the image database 3, a peripheral image that is more consistent with the shot image is determined. Can be identified. Therefore, when the captured image and the peripheral image are switched and displayed, or when a composite image is generated, a natural display that does not cause a sense of discomfort can be realized.

[変形例3]
画像表示システムSに含まれる各機器が備える機能に応じて、処理内容を変形するようにしてもよい。例えば、撮像装置2が測位機能を備える場合には、撮影画像に対して、画像表示装置1が測位した位置情報を関連付けるのではなく、撮像装置2が測位した位置情報を関連付けるようにしてもよい。
また、画像表示システムSに、例えば、GPSロガーやスマートウォッチのように、位置測位機能を備える機器が更に存在する場合には、撮影画像に対して、この位置測位機能を備える機器が測位した位置情報を関連付けるようにしてもよい。この場合、位置情報の関連付けは、撮影時に即座にリアルタイムで行われてもよいし、その後に撮影時刻と測位時刻とに基づいて対応する位置情報を特定することにより行われてもよい
更に、例えば、画像表示装置1を単独で利用する場合には、画像表示装置1が撮像部20により撮影された撮影画像を対象として、上述した実施形態の処理を行うようにしてもよい。
[Modification 3]
The processing content may be modified according to the function of each device included in the image display system S. For example, when the imaging device 2 has a positioning function, the position information measured by the imaging device 2 may be associated with the captured image instead of the position information measured by the image display device 1. .
Further, if the image display system S further includes a device having a position positioning function, such as a GPS logger or a smart watch, for example, the position at which the device having the position positioning function has positioned the captured image is determined. Information may be associated. In this case, the association of the position information may be performed immediately in real time at the time of shooting, or may be performed by specifying the corresponding position information based on the shooting time and the positioning time thereafter. In the case where the image display device 1 is used alone, the process of the above-described embodiment may be performed on the image captured by the image display device 1 using the image display device 1.

[変形例4]
上述した実施形態では、表示対象となる撮影画像が選択された時点で、ステップS13からステップS13からステップS15まで(併せてステップS31からステップS33まで)を行っていた。すなわち、撮影画像の表示に先立って周辺画像を取得していた。これに限らず、他のタイミングで周辺画像を取得するようにしてもよい。例えば、周辺画像表示処理を行う前の、撮影画像を取得した時点で周辺画像を取得するようにしてもよい。あるいは、ステップS18においてYesと判定され、周辺画像が必要となった時点で周辺画像を取得するようにしてもよい。
[Modification 4]
In the above-described embodiment, when a captured image to be displayed is selected, steps S13 to S13 to S15 (and also steps S31 to S33) are performed. That is, the peripheral image is acquired prior to the display of the captured image. However, the present invention is not limited to this, and the peripheral image may be acquired at another timing. For example, the peripheral image may be acquired at the time when the captured image is acquired before the peripheral image display processing is performed. Alternatively, the determination may be Yes in step S18, and the peripheral image may be acquired when the peripheral image becomes necessary.

[他の変形例]
また、上述の実施形態では、本発明が適用される画像表示装置1は、スマートフォンを例として説明したが、特にこれに限定されない。
本発明は、画像表示機能を有する電子機器一般に適用することができる。例えば、本発明は、パーソナルコンピュータ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
[Other Modifications]
Further, in the above-described embodiment, the image display device 1 to which the present invention is applied has been described using a smartphone as an example, but is not particularly limited thereto.
The present invention can be applied to general electronic devices having an image display function. For example, the present invention is applicable to personal computers, television receivers, video cameras, portable navigation devices, mobile phones, portable game machines, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像表示装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration in FIG. 3 is merely an example and is not particularly limited. That is, it is sufficient that the image display device 1 has a function capable of executing the above-described series of processes as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be configured by hardware alone, may be configured by software alone, or may be configured by a combination thereof.
The functional configuration according to the present embodiment is realized by a processor that executes arithmetic processing, and the processor that can be used in the present embodiment includes single processing units, multiprocessors, and various processing units such as multicore processors. In addition to the above, a combination of these various processing apparatuses and processing circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array) is included.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer that can execute various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2の記憶部18に含まれるハードディスク等で構成される。   The recording medium including such a program is constituted not only by the removable medium 31 of FIG. 2 distributed separately from the apparatus main body to provide the program to the user, but also It is composed of a recording medium and the like provided to the user. The removable medium 31 is configured by, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk includes, for example, a CD-ROM (Compact Disk-Only Memory), a DVD (Digital Versatile Disk), a Blu-ray (registered trademark) Disc (Blu-ray Disc), and the like. The magneto-optical disk is composed of an MD (Mini-Disk) or the like. The recording medium provided to the user in a state where the recording medium is incorporated in the apparatus main body in advance includes, for example, the ROM 12 in FIG. 2 in which the program is recorded, the hard disk included in the storage unit 18 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In this specification, the steps of describing a program recorded on a recording medium are not only performed in chronological order according to the order, but are not necessarily performed in chronological order. This also includes the processing to be executed.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take other various embodiments, and various changes such as omissions and substitutions can be made without departing from the gist of the present invention. These embodiments and their modifications are included in the scope and gist of the invention described in this specification and the like, and are also included in the invention described in the claims and equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像表示装置であって、
位置情報が関連付けられた第1画像を表示する表示手段と、
操作の受け付けを検出する検出手段と、
前記表示手段による前記第1画像の表示時に、前記検出手段によって検出された操作に基づき、前記第1画像の表示態様の変更を指示されたか否かを判断する判断手段と、
前記第1画像に関連付けられた位置情報に基づいた第2画像を、前記画像表示装置外部から取得する取得手段と、
前記判断手段により肯定と判断された場合に、前記取得手段によって取得された前記第2画像を前記表示手段に表示するよう制御する表示制御手段と、
を備えることを特徴とする画像表示装置。
[付記2]
当該装置外部のデータベースと通信する通信手段を更に備え、
前記取得手段は、前記通信手段を介して前記第1画像に関連付けられた位置情報を前記データベースへ送信し、その応答として前記データベースから前記位置情報に基づいた第2画像を取得することを特徴とする付記1に記載の画像表示装置。
[付記3]
前記第1画像に関連付けられた位置情報とは、前記第1画像が撮影された位置を示す情報であり、
前記第2画像とは、前記第1画像が撮影された位置周辺の画像であることを特徴とする付記1又は2に記載の画像表示装置。
[付記4]
前記表示制御手段は、前記第1画像と前記第2画像とを合成して前記表示手段に表示するよう制御することを特徴とする付記3に記載に画像表示装置。
[付記5]
前記判断手段は、前記検出手段によって検出された操作が、前記表示された第1画像の縮小操作又は前記表示された第1画像の移動操作を含む場合に、肯定と判断することを特徴とする付記1乃至4の何れか1項に記載に画像表示装置。
[付記6]
撮影により前記第1画像を生成する撮像手段と、
前記撮像手段が生成した前記第1画像に、位置情報を関連付けするよう制御する位置情報制御手段と、
を更に備えることを特徴とする付記1乃至5の何れか1項に記載に画像表示装置。
[付記7]
前記第1画像を解析する画像解析手段を更に備え、
前記取得手段は、前記画像解析手段の解析結果に基づいて、前記第2画像を取得することを特徴とする付記1乃至6の何れか1項に記載の画像表示装置。
[付記8]
コンピュータが行う画像表示方法であって、
位置情報が関連付けられた第1画像を表示手段に表示する表示ステップと、
操作の受け付けを検出する検出ステップと、
前記表示ステップによる前記第1画像の表示時に、前記検出ステップによって検出された操作に基づき、前記第1画像の表示態様の変更を指示されたか否かを判断する判断ステップと、
前記第1画像に関連付けられた位置情報に基づいた第2画像を、当該コンピュータ外部から取得する取得ステップと、
前記判断ステップにより肯定と判断された場合に、前記取得ステップによって取得された前記第2画像を前記表示手段に表示するよう制御する表示制御ステップと、
を有することを特徴とする画像表示方法。
[付記9]
コンピュータを、
位置情報が関連付けられた第1画像を表示部に表示させる表示手段、
操作の受け付けを検出する検出手段、
前記表示手段による前記第1画像の表示時に、前記検出手段によって検出された操作に基づき、前記第1画像の表示態様の変更を指示されたか否かを判断する判断手段、
前記第1画像に関連付けられた位置情報に基づいた第2画像を、当該コンピュータ外部から取得する取得手段、
前記判断手段により肯定と判断された場合に、前記取得手段によって取得された前記第2画像を前記表示部に表示するよう制御する表示制御手段、
として機能させることを特徴とするプログラム。
Hereinafter, the inventions described in the claims at the time of filing the application of the present application are additionally described.
[Appendix 1]
An image display device,
Display means for displaying a first image associated with position information;
Detecting means for detecting reception of an operation;
A determination unit configured to determine whether or not an instruction to change a display mode of the first image has been given based on an operation detected by the detection unit when the first image is displayed by the display unit;
Acquiring means for acquiring a second image based on position information associated with the first image from outside the image display device;
A display control unit configured to control the display unit to display the second image acquired by the acquisition unit when the determination unit determines affirmatively;
An image display device comprising:
[Appendix 2]
Further comprising communication means for communicating with a database outside the device,
The acquisition unit transmits position information associated with the first image to the database via the communication unit, and acquires a second image based on the position information from the database in response to the position information. The image display device according to supplementary note 1.
[Appendix 3]
The position information associated with the first image is information indicating a position where the first image was captured,
3. The image display device according to claim 1, wherein the second image is an image around a position where the first image is captured.
[Appendix 4]
4. The image display device according to claim 3, wherein the display control unit controls the first image and the second image to be combined and displayed on the display unit.
[Appendix 5]
The determination unit determines that the operation is affirmative when the operation detected by the detection unit includes a reduction operation of the displayed first image or a movement operation of the displayed first image. The image display device according to any one of supplementary notes 1 to 4.
[Appendix 6]
Imaging means for generating the first image by photographing;
Position information control means for controlling to associate position information with the first image generated by the imaging means;
The image display device according to any one of supplementary notes 1 to 5, further comprising:
[Appendix 7]
The image processing apparatus further includes image analysis means for analyzing the first image,
7. The image display device according to claim 1, wherein the acquisition unit acquires the second image based on an analysis result of the image analysis unit.
[Appendix 8]
An image display method performed by a computer,
A display step of displaying a first image associated with the position information on the display means;
A detection step of detecting acceptance of the operation;
A determining step of determining whether or not an instruction to change a display mode of the first image has been given based on the operation detected by the detecting step when the first image is displayed by the displaying step;
An obtaining step of obtaining a second image based on position information associated with the first image from outside the computer;
A display control step of controlling to display the second image acquired by the acquiring step on the display means when it is determined to be affirmative by the decision step;
An image display method comprising:
[Appendix 9]
Computer
Display means for displaying a first image associated with the position information on the display unit;
Detecting means for detecting reception of an operation,
A determining unit configured to determine whether or not an instruction to change a display mode of the first image has been given based on an operation detected by the detecting unit when the first image is displayed by the display unit;
Acquiring means for acquiring a second image based on position information associated with the first image from outside the computer;
A display control unit configured to control the display unit to display the second image acquired by the acquisition unit when the determination unit determines that the determination is affirmative;
A program characterized by functioning as a program.

1・・・画像表示装置,2・・・撮像装置,3・・・画像データベース,4・・・ネットワーク,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・入力部,17・・・出力部,18・・・記憶部,19・・・通信部,20・・・撮像部,21・・・測位部,22・・・ドライブ,31・・・リムーバブルメディア,111・・・撮影画像取得部,112・・・操作判断部,113・・・周辺画像取得部,114・・・画像処理部,115・・・表示制御部,181・・・撮影画像記憶部,182・・・周辺画像記憶部,S・・・画像表示システム   DESCRIPTION OF SYMBOLS 1 ... Image display apparatus, 2 ... Imaging apparatus, 3 ... Image database, 4 ... Network, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 input / output interface, 16 input unit, 17 output unit, 18 storage unit, 19 communication unit, 20 imaging unit, 21 positioning Unit, 22 drive, 31 removable media, 111 captured image acquisition unit, 112 operation determination unit, 113 peripheral image acquisition unit, 114 image processing unit, 115 ··· Display control unit 181 · Captured image storage unit 182 · Peripheral image storage unit · S · Image display system

Claims (9)

画像表示装置であって、
位置情報が関連付けられた第1画像を表示する表示手段と、
操作の受け付けを検出する検出手段と、
前記表示手段による前記第1画像の表示時に、前記検出手段によって検出された操作に基づき、前記第1画像の表示態様の変更を指示されたか否かを判断する判断手段と、
前記第1画像に関連付けられた位置情報に基づいた第2画像を、前記画像表示装置外部から取得する取得手段と、
前記判断手段により肯定と判断された場合に、前記取得手段によって取得された前記第2画像を前記表示手段に表示するよう制御する表示制御手段と、
を備えることを特徴とする画像表示装置。
An image display device,
Display means for displaying a first image associated with position information;
Detecting means for detecting reception of an operation;
A determination unit configured to determine whether or not an instruction to change a display mode of the first image has been given based on an operation detected by the detection unit when the first image is displayed by the display unit;
Acquiring means for acquiring a second image based on position information associated with the first image from outside the image display device;
A display control unit configured to control the display unit to display the second image acquired by the acquisition unit when the determination unit determines affirmatively;
An image display device comprising:
当該装置外部のデータベースと通信する通信手段を更に備え、
前記取得手段は、前記通信手段を介して前記第1画像に関連付けられた位置情報を前記データベースへ送信し、その応答として前記データベースから前記位置情報に基づいた第2画像を取得することを特徴とする請求項1に記載の画像表示装置。
Further comprising communication means for communicating with a database outside the device,
The acquisition unit transmits position information associated with the first image to the database via the communication unit, and acquires a second image based on the position information from the database in response to the position information. The image display device according to claim 1.
前記第1画像に関連付けられた位置情報とは、前記第1画像が撮影された位置を示す情報であり、
前記第2画像とは、前記第1画像が撮影された位置周辺の画像であることを特徴とする請求項1又は2に記載の画像表示装置。
The position information associated with the first image is information indicating a position where the first image was captured,
The image display device according to claim 1, wherein the second image is an image around a position where the first image is captured.
前記表示制御手段は、前記第1画像と前記第2画像とを合成して前記表示手段に表示するよう制御することを特徴とする請求項3に記載に画像表示装置。   The image display device according to claim 3, wherein the display control unit controls the first image and the second image to be combined and displayed on the display unit. 前記判断手段は、前記検出手段によって検出された操作が、前記表示された第1画像の縮小操作又は前記表示された第1画像の移動操作を含む場合に、肯定と判断することを特徴とする請求項1乃至4の何れか1項に記載に画像表示装置。   The determination unit determines that the operation is affirmative when the operation detected by the detection unit includes a reduction operation of the displayed first image or a movement operation of the displayed first image. The image display device according to claim 1. 撮影により前記第1画像を生成する撮像手段と、
前記撮像手段が生成した前記第1画像に、位置情報を関連付けするよう制御する位置情報制御手段と、
を更に備えることを特徴とする請求項1乃至5の何れか1項に記載に画像表示装置。
Imaging means for generating the first image by photographing;
Position information control means for controlling to associate position information with the first image generated by the imaging means;
The image display device according to any one of claims 1 to 5, further comprising:
前記第1画像を解析する画像解析手段を更に備え、
前記取得手段は、前記画像解析手段の解析結果に基づいて、前記第2画像を取得することを特徴とする請求項1乃至6の何れか1項に記載の画像表示装置。
The image processing apparatus further includes image analysis means for analyzing the first image,
The image display device according to claim 1, wherein the acquisition unit acquires the second image based on an analysis result of the image analysis unit.
コンピュータが行う画像表示方法であって、
位置情報が関連付けられた第1画像を表示手段に表示する表示ステップと、
操作の受け付けを検出する検出ステップと、
前記表示ステップによる前記第1画像の表示時に、前記検出ステップによって検出された操作に基づき、前記第1画像の表示態様の変更を指示されたか否かを判断する判断ステップと、
前記第1画像に関連付けられた位置情報に基づいた第2画像を、当該コンピュータ外部から取得する取得ステップと、
前記判断ステップにより肯定と判断された場合に、前記取得ステップによって取得された前記第2画像を前記表示手段に表示するよう制御する表示制御ステップと、
を有することを特徴とする画像表示方法。
An image display method performed by a computer,
A display step of displaying a first image associated with the position information on the display means;
A detection step of detecting acceptance of the operation;
A determining step of determining whether or not an instruction to change a display mode of the first image has been given based on the operation detected by the detecting step when the first image is displayed by the displaying step;
An obtaining step of obtaining a second image based on position information associated with the first image from outside the computer;
A display control step of controlling to display the second image acquired by the acquiring step on the display means when it is determined to be affirmative by the decision step;
An image display method comprising:
コンピュータを、
位置情報が関連付けられた第1画像を表示部に表示させる表示手段、
操作の受け付けを検出する検出手段、
前記表示手段による前記第1画像の表示時に、前記検出手段によって検出された操作に基づき、前記第1画像の表示態様の変更を指示されたか否かを判断する判断手段、
前記第1画像に関連付けられた位置情報に基づいた第2画像を、当該コンピュータ外部から取得する取得手段、
前記判断手段により肯定と判断された場合に、前記取得手段によって取得された前記第2画像を前記表示部に表示するよう制御する表示制御手段、
として機能させることを特徴とするプログラム。
Computer
Display means for displaying a first image associated with the position information on the display unit;
Detecting means for detecting reception of an operation,
A determination unit configured to determine whether or not an instruction to change a display mode of the first image has been given based on an operation detected by the detection unit when the first image is displayed by the display unit;
Acquiring means for acquiring a second image based on position information associated with the first image from outside the computer;
A display control unit configured to control the display unit to display the second image acquired by the acquisition unit when the determination unit determines that the determination is affirmative;
A program characterized by functioning as a program.
JP2018188828A 2018-10-04 2018-10-04 Image display apparatus, image display method, and program Pending JP2020057297A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018188828A JP2020057297A (en) 2018-10-04 2018-10-04 Image display apparatus, image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188828A JP2020057297A (en) 2018-10-04 2018-10-04 Image display apparatus, image display method, and program

Publications (1)

Publication Number Publication Date
JP2020057297A true JP2020057297A (en) 2020-04-09

Family

ID=70107373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188828A Pending JP2020057297A (en) 2018-10-04 2018-10-04 Image display apparatus, image display method, and program

Country Status (1)

Country Link
JP (1) JP2020057297A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017540A (en) * 2007-05-31 2009-01-22 Panasonic Corp Image capturing device, additional information providing server, and additional information filtering system
JP2010049313A (en) * 2008-08-19 2010-03-04 Sony Corp Image processor, image processing method, program
JP2015092780A (en) * 2015-02-12 2015-05-14 オリンパスイメージング株式会社 Imaging apparatus and imaging method
US20180082438A1 (en) * 2015-03-30 2018-03-22 Thales Method of determining a direction of an object on the basis of an image of the object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017540A (en) * 2007-05-31 2009-01-22 Panasonic Corp Image capturing device, additional information providing server, and additional information filtering system
JP2010049313A (en) * 2008-08-19 2010-03-04 Sony Corp Image processor, image processing method, program
JP2015092780A (en) * 2015-02-12 2015-05-14 オリンパスイメージング株式会社 Imaging apparatus and imaging method
US20180082438A1 (en) * 2015-03-30 2018-03-22 Thales Method of determining a direction of an object on the basis of an image of the object

Similar Documents

Publication Publication Date Title
KR101990073B1 (en) Method and apparatus for shooting and storing multi-focused image in electronic device
US11004167B2 (en) Image capturing apparatus having capability of recognizing a relationship among a plurality of images
US9225947B2 (en) Image pickup apparatus, method of providing composition of image pickup and computer-readable recording medium
US20180348470A1 (en) Imaging apparatus, imaging method, and computer-readable recording medium
US9742995B2 (en) Receiver-controlled panoramic view video share
US9712750B2 (en) Display control device and associated methodology of identifying a subject in an image
US20150319354A1 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium
KR20120140036A (en) Digital photographing apparatus, method for controlling the same, and computer-readable storage medium
KR20100082147A (en) Method for enlarging and changing captured image, and phographed apparatus using the same
JP2020510928A (en) Image display method and electronic device
JP2008054236A (en) Imaging apparatus
JP2013186853A (en) Image processing device, image processing method and program
JP2019176249A (en) Image processing device, image processing method, image processing program, and imaging device
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
WO2017018043A1 (en) Electronic device, electronic device operation method, and control program
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
JP2012053313A (en) Imaging apparatus, automatic zooming method, and program
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP2017005395A (en) Imaging apparatus, imaging control method, and program
JP2020057297A (en) Image display apparatus, image display method, and program
JP6545229B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
CN115552879A (en) Anchor point information processing method, device, equipment and storage medium
JP2016036081A (en) Image processing device, method and program, and recording medium
CN112291472B (en) Preview image processing method and device, storage medium and electronic equipment
US9571717B2 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307