JP6368560B2 - Display device, display system, display method, and display program - Google Patents

Display device, display system, display method, and display program Download PDF

Info

Publication number
JP6368560B2
JP6368560B2 JP2014133322A JP2014133322A JP6368560B2 JP 6368560 B2 JP6368560 B2 JP 6368560B2 JP 2014133322 A JP2014133322 A JP 2014133322A JP 2014133322 A JP2014133322 A JP 2014133322A JP 6368560 B2 JP6368560 B2 JP 6368560B2
Authority
JP
Japan
Prior art keywords
image data
unit
display
display device
related image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014133322A
Other languages
Japanese (ja)
Other versions
JP2016012814A (en
Inventor
佐藤 明伸
明伸 佐藤
佳之 福谷
佳之 福谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014133322A priority Critical patent/JP6368560B2/en
Publication of JP2016012814A publication Critical patent/JP2016012814A/en
Application granted granted Critical
Publication of JP6368560B2 publication Critical patent/JP6368560B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、表示装置、表示システム、表示方法、及び表示プログラムに関する。   The present invention relates to a display device, a display system, a display method, and a display program.

近年、デジタルカメラ等の撮像装置において、通信技術を用いて、外部のサーバから各種情報を取得する技術が知られている(例えば、特許文献1参照)。
特許文献1に記載の技術は、通信技術を利用して、外部のサーバから、現在位置付近の好適な撮影場所を取得する(撮影場所のアドバイスを受ける)技術である。
具体的に、特許文献1に記載の技術では、撮像装置は、当該撮像装置の位置に関する位置情報をサーバに送信する。サーバは、撮像装置から受信した位置情報に基づいて、データベースに保持された撮影推奨情報から、当該撮像装置の現在位置付近の好適な撮影場所を抽出し、当該撮影場所に関する情報を撮像装置に送信する。そして、撮像装置は、サーバから受信した情報に基づいて、当該撮像装置のユーザに対し、音声等により撮影場所を報知する。
2. Description of the Related Art In recent years, a technique for acquiring various types of information from an external server using a communication technique in an imaging apparatus such as a digital camera has been known (see, for example, Patent Document 1).
The technique described in Patent Document 1 is a technique for acquiring a suitable shooting location near the current position from an external server (receiving advice on shooting location) using communication technology.
Specifically, in the technique described in Patent Document 1, the imaging apparatus transmits position information regarding the position of the imaging apparatus to the server. Based on the position information received from the imaging device, the server extracts a suitable shooting location near the current position of the imaging device from the recommended shooting information stored in the database, and transmits information regarding the shooting location to the imaging device. To do. Then, based on the information received from the server, the imaging device notifies the user of the imaging device of the shooting location by voice or the like.

特開2005−45398号公報JP-A-2005-45398

しかしながら、特許文献1に記載の技術では、撮像装置のユーザに対して好適な撮影場所をアドバイスする技術に過ぎず、撮像装置のユーザは、当該アドバイスによる撮影場所での撮影により実際にどのような撮影画像を得ることができるのかを把握することができない。したがって、利便性の向上が図れない、という問題がある。   However, the technique described in Patent Document 1 is merely a technique for advising a user of an imaging device about a suitable shooting location, and the user of the imaging device can actually perform what kind of shooting by shooting at the shooting location based on the advice. It is impossible to grasp whether a photographed image can be obtained. Therefore, there is a problem that convenience cannot be improved.

本発明は、上記に鑑みてなされたものであって、利便性の向上が図れる表示装置、表示システム、表示方法、及び表示プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a display device, a display system, a display method, and a display program that can improve convenience.

上述した課題を解決し、目的を達成するために、本発明に係る表示装置は、基準画像データを取得する基準画像取得部と、前記基準画像データの撮影位置を示す基準位置に対して、所定距離の範囲内で撮影された関連画像データを取得する関連画像取得部と、画像を表示する表示部と、前記基準画像データに対応する基準画像、及び前記関連画像データに対応する関連画像を前記表示部に表示させる表示制御部とを備え、前記関連画像取得部は、複数の前記関連画像データを取得し、前記複数の関連画像データは、前記基準位置に対して第1距離未満の範囲内で撮像された第1関連画像データと、前記基準位置に対して第1距離以上、第2距離未満の範囲内で撮像された第2関連画像データとを備え、前記表示制御部は、第1領域に前記基準画像、及び前記第1関連画像データに対応する第1関連画像を配置するとともに、前記第1領域とは異なる第2領域に前記第2関連画像データに対応する第2関連画像を配置した表示画面を前記表示部に表示させることを特徴とする。 In order to solve the above-described problems and achieve the object, a display device according to the present invention is provided with a reference image acquisition unit that acquires reference image data, and a reference position that indicates a shooting position of the reference image data. A related image acquisition unit that acquires related image data captured within a distance range, a display unit that displays an image, a reference image corresponding to the reference image data, and a related image corresponding to the related image data; A display control unit to be displayed on the display unit , wherein the related image acquisition unit acquires a plurality of the related image data, and the plurality of related image data is within a range less than a first distance with respect to the reference position. And the second related image data captured within a range that is greater than or equal to the first distance and less than the second distance with respect to the reference position, and the display control unit includes: Said criteria in the area And a display screen in which a first related image corresponding to the first related image data is arranged and a second related image corresponding to the second related image data is arranged in a second area different from the first area Is displayed on the display unit .

また、本発明に係る表示システムは、上述した表示装置と、前記表示装置と通信を行うサーバとを備えた表示システムにおいて、前記サーバは、前記表示装置との間で通信を行うサーバ側通信部と、前記サーバ側通信部を介して、前記基準位置情報を前記表示装置から受信するサーバ側通信制御部と、画像データ、及び当該画像データの撮影位置を示す撮影位置情報が互いに関連付けられた参照情報を複数、記録するデータベースと、前記サーバ側通信部を介して受信した前記基準位置情報に基づく基準位置と、前記データベースに記録された前記複数の参照情報に含まれる複数の前記撮影位置情報に基づく各撮影位置との各距離を算出する距離算出部と、前記距離算出部にて算出された前記各距離に基づいて、前記データベースに記録された前記複数の参照情報から前記関連画像データを抽出する関連画像抽出部とを備え、前記サーバ側通信制御部は、前記サーバ側通信部を介して、前記関連画像抽出部にて抽出された前記関連画像データを前記表示装置に送信することを特徴とする。   The display system according to the present invention is a display system including the above-described display device and a server that communicates with the display device. The server communicates with the display device. A server-side communication control unit that receives the reference position information from the display device via the server-side communication unit, and a reference in which image data and shooting position information indicating a shooting position of the image data are associated with each other. A plurality of information recording databases, a reference position based on the reference position information received via the server-side communication unit, and a plurality of the shooting position information included in the plurality of reference information recorded in the database. A distance calculating unit that calculates each distance to each shooting position based on the distance, and the distance calculated by the distance calculating unit is recorded in the database. A related image extraction unit that extracts the related image data from the plurality of reference information, and the server-side communication control unit extracts the related image extracted by the related image extraction unit via the server-side communication unit. Image data is transmitted to the display device.

また、本発明に係る表示方法は、表示装置が行う表示方法において、基準画像データを取得する第1取得ステップと、前記基準画像データの撮影位置を示す基準位置に対して、所定距離の範囲内で撮影された関連画像データを取得する第2取得ステップと、前記基準画像データに対応する基準画像、及び前記関連画像データに対応する関連画像を表示部に表示させる表示ステップとを含み、前記第2取得ステップでは、複数の前記関連画像データを取得し、前記複数の関連画像データは、前記基準位置に対して第1距離未満の範囲内で撮像された第1関連画像データと、前記基準位置に対して第1距離以上、第2距離未満の範囲内で撮像された第2関連画像データとを備え、前記表示ステップでは、第1領域に前記基準画像、及び前記第1関連画像データに対応する第1関連画像を配置するとともに、前記第1領域とは異なる第2領域に前記第2関連画像データに対応する第2関連画像を配置した表示画面を前記表示部に表示させることを特徴とする。 The display method according to the present invention is a display method performed by a display device, wherein the first acquisition step of acquiring reference image data and a reference position indicating a shooting position of the reference image data are within a predetermined distance. in a second acquisition step of acquiring the taken-related image data, the reference image corresponding to the reference image data, and look including a display step of displaying the associated image corresponding to the associated image data in Table radical 113, In the second acquisition step, a plurality of the related image data is acquired, and the plurality of related image data are first related image data captured within a range less than a first distance with respect to the reference position; Second related image data captured within a range that is greater than or equal to the first distance and less than the second distance with respect to a reference position. In the display step, the reference image and the first relation are included in the first area. With placing the first related image corresponding to the image data, and displays the display screen which includes a second related image corresponding to the different second region second related image data from the first area on the display unit It is characterized by that.

また、本発明に係る表示プログラムは、上述した表示方法を表示装置に実行させることを特徴とする。   A display program according to the present invention causes a display device to execute the display method described above.

本発明に係る表示装置は、基準画像データ(ライブビュー表示等ではライブビュー画像データ)と、当該基準画像データの撮影位置(基準位置)に対して所定距離の範囲内で撮影された関連画像データとを取得し、当該基準画像データに対応する基準画像、及び当該関連画像データに対応する関連画像を表示する。
このため、表示装置のユーザは、関連画像を確認することにより、基準位置の周辺での撮影により実際にどのような撮影画像を得ることができるのかを明確に把握することができる。したがって、本発明に係る表示装置によれば、利便性の向上が図れる、という効果を奏する。
The display device according to the present invention includes reference image data (live view image data in a live view display or the like), and related image data captured within a predetermined distance with respect to a shooting position (reference position) of the reference image data. And a reference image corresponding to the reference image data and a related image corresponding to the related image data are displayed.
Therefore, the user of the display device can clearly grasp what kind of captured image can actually be obtained by photographing around the reference position by checking the related image. Therefore, according to the display device of the present invention, there is an effect that the convenience can be improved.

本発明に係る表示システムは、上述した表示装置を備えるため、上述した表示装置と同様の効果を奏する。
本発明に係る表示方法は、上述した表示装置が行う方法であるため、上述した表示装置と同様の効果を奏する。
本発明に係る表示プログラムは、上述した表示装置にて実行されるプログラムであるため、上述した表示装置と同様の効果を奏する。
Since the display system according to the present invention includes the above-described display device, the same effect as the above-described display device can be obtained.
Since the display method according to the present invention is a method performed by the above-described display device, the same effects as those of the above-described display device can be obtained.
Since the display program according to the present invention is a program executed by the above-described display device, the same effect as the above-described display device can be obtained.

図1は、本発明の実施の形態1に係る表示システムの構成を模式的に示す図である。FIG. 1 is a diagram schematically showing a configuration of a display system according to Embodiment 1 of the present invention. 図2は、図1に示したレンズ型カメラの構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of the lens type camera shown in FIG. 図3は、図1に示した表示装置本体の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of the display device main body illustrated in FIG. 1. 図4は、図1に示したサーバの構成を示すブロック図である。FIG. 4 is a block diagram showing a configuration of the server shown in FIG. 図5は、図1及び図2に示したレンズ型カメラの動作を示すフローチャートである。FIG. 5 is a flowchart showing the operation of the lens type camera shown in FIGS. 1 and 2. 図6は、図1及び図3に示した表示装置本体の動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the display device main body shown in FIGS. 図7は、図6に示した関連画像表示処理(ステップS209,S217,S229)を示すフローチャートである。FIG. 7 is a flowchart showing the related image display processing (steps S209, S217, and S229) shown in FIG. 図8は、図7に示した表示画面生成処理(ステップS234)を示すフローチャートである。FIG. 8 is a flowchart showing the display screen generation process (step S234) shown in FIG. 図9は、図7及び図8に示した表示画面生成処理(ステップS234)を説明するための図である。FIG. 9 is a diagram for explaining the display screen generation process (step S234) shown in FIGS. 図10は、図7及び図8に示した表示画面生成処理(ステップS234)を説明するための図である。FIG. 10 is a diagram for explaining the display screen generation processing (step S234) shown in FIGS. 図11は、図7に示したステップS235を説明するための図である。FIG. 11 is a diagram for explaining step S235 shown in FIG. 図12Aは、図7に示したステップS236,S237を説明するための図である。FIG. 12A is a diagram for explaining steps S236 and S237 shown in FIG. 図12Bは、図7に示したステップS236,S237を説明するための図である。FIG. 12B is a diagram for explaining steps S236 and S237 shown in FIG. 図13は、図1及び図4に示したサーバの動作を示すフローチャートである。FIG. 13 is a flowchart showing the operation of the server shown in FIGS. 1 and 4. 図14は、本発明の実施の形態2に係る表示装置本体の構成を示すブロック図である。FIG. 14 is a block diagram showing a configuration of a display device body according to Embodiment 2 of the present invention. 図15は、本発明の実施の形態2に係るサーバの構成を示すブロック図である。FIG. 15 is a block diagram showing a configuration of a server according to Embodiment 2 of the present invention. 図16は、本発明の実施の形態2に係る関連画像表示処理(ステップS209,S217,S229)を示すフローチャートである。FIG. 16 is a flowchart showing related image display processing (steps S209, S217, and S229) according to Embodiment 2 of the present invention. 図17は、図15に示したサーバの動作を示すフローチャートである。FIG. 17 is a flowchart showing the operation of the server shown in FIG. 図18は、図17に示したステップS318で生成される経路画像データに対応する経路画像の一例を示す図である。FIG. 18 is a diagram illustrating an example of a route image corresponding to the route image data generated in step S318 illustrated in FIG. 図19は、本発明の実施の形態3に係るレンズ型カメラの構成を示すブロック図である。FIG. 19 is a block diagram showing a configuration of a lens-type camera according to Embodiment 3 of the present invention. 図20は、本発明の実施の形態3に係る表示装置本体の構成を示すブロック図である。FIG. 20 is a block diagram showing a configuration of a display device body according to Embodiment 3 of the present invention. 図21は、図19に示したレンズ型カメラの動作を示すフローチャートである。FIG. 21 is a flowchart showing the operation of the lens type camera shown in FIG. 図22は、図20に示した表示装置本体の動作を示すフローチャートである。FIG. 22 is a flowchart showing the operation of the display device body shown in FIG. 図23は、本発明の実施の形態3に係る関連画像表示処理(ステップS209B,S217B,S229B)を示すフローチャートである。FIG. 23 is a flowchart showing related image display processing (steps S209B, S217B, and S229B) according to Embodiment 3 of the present invention. 図24は、本発明の実施の形態4に係るレンズ型カメラの構成を示すブロック図である。FIG. 24 is a block diagram showing a configuration of a lens-type camera according to Embodiment 4 of the present invention. 図25は、本発明の実施の形態4に係る表示装置本体の構成を示すブロック図である。FIG. 25 is a block diagram showing a configuration of a display device body according to Embodiment 4 of the present invention. 図26は、図24に示したレンズ型カメラの動作を示すフローチャートである。FIG. 26 is a flowchart showing the operation of the lens type camera shown in FIG. 図27は、本発明の実施の形態4に係る関連画像表示処理(ステップS209B,S217B,S229B)を示すフローチャートである。FIG. 27 is a flowchart showing related image display processing (steps S209B, S217B, and S229B) according to Embodiment 4 of the present invention.

以下に、図面を参照して、本発明を実施するための形態(以下、実施の形態と記載)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。   DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. Furthermore, the same code | symbol is attached | subjected to the same part in description of drawing.

(実施の形態1)
〔表示システムの概略構成〕
図1は、本発明の実施の形態1に係る表示システム1の構成を模式的に示す図である。
表示システム1は、カメラユーザが被写体を撮影した場合に、当該撮影による撮影画像と、当該撮影場所の近くで撮影された関連画像とを表示するシステムである。この表示システム1は、図1に示すように、表示装置2と、サーバ3とを備える。
(Embodiment 1)
[Schematic configuration of display system]
FIG. 1 is a diagram schematically showing a configuration of a display system 1 according to Embodiment 1 of the present invention.
The display system 1 is a system that, when a camera user captures a subject, displays a captured image by the capturing and a related image captured near the capturing location. As shown in FIG. 1, the display system 1 includes a display device 2 and a server 3.

〔表示装置の構成〕
表示装置2は、図1に示すように、レンズ型カメラ4と、表示装置本体5と、アタッチメント6とを備える。
アタッチメント6は、レンズ型カメラ4及び表示装置本体5を機械的に接続する部材である。
より具体的に、アタッチメント6は、図1に示すように、表示装置本体5の背面に挿着される。また、アタッチメント6には、平面視で円形状を有し、レンズ型カメラ4が嵌め込まれる取付用孔6Aが設けられている。
そして、アタッチメント6を介してレンズ型カメラ4及び表示装置5が機械的に接続された状態では、表示装置2の全体形状は、デジタルカメラをイメージする形状となる。
なお、表示装置2としては、アタッチメント6を備えた構成に限られず、アタッチメント6を省略した構成としても構わない。
[Configuration of display device]
As shown in FIG. 1, the display device 2 includes a lens type camera 4, a display device body 5, and an attachment 6.
The attachment 6 is a member that mechanically connects the lens camera 4 and the display device body 5.
More specifically, the attachment 6 is attached to the back surface of the display device body 5 as shown in FIG. The attachment 6 is provided with a mounting hole 6A that has a circular shape in plan view and into which the lens type camera 4 is fitted.
In a state where the lens-type camera 4 and the display device 5 are mechanically connected via the attachment 6, the overall shape of the display device 2 is a shape that images a digital camera.
Note that the display device 2 is not limited to the configuration including the attachment 6, and may be configured to omit the attachment 6.

〔レンズ型カメラの構成〕
以下では、レンズ型カメラ4の構成として、本発明の要部を主に説明する。
図2は、レンズ型カメラ4の構成を示すブロック図である。
レンズ型カメラ4は、本発明に係る撮像部としての機能を有する。そして、レンズ型カメラ4は、図2に示すように、光学系41と、駆動部42と、位置検出部43と、操作部44と、カメラ側時計部45と、カメラ側撮像部46と、カメラ側メモリ部47と、カメラ側記録部48と、カメラ側通信部49と、カメラ側制御部50とを備える。そして、これら各部材41〜50は、全体略円筒形状を有するレンズ鏡筒40(図1)内部に収納される。すなわち、レンズ型カメラ4の全体形状は、図1に示すように、所謂交換レンズの全体形状と略同様の形状を有する。
[Configuration of lens type camera]
In the following, the main part of the present invention will be mainly described as the configuration of the lens-type camera 4.
FIG. 2 is a block diagram showing the configuration of the lens type camera 4.
The lens-type camera 4 has a function as an imaging unit according to the present invention. As shown in FIG. 2, the lens-type camera 4 includes an optical system 41, a drive unit 42, a position detection unit 43, an operation unit 44, a camera-side clock unit 45, a camera-side imaging unit 46, The camera side memory | storage part 47, the camera side recording part 48, the camera side communication part 49, and the camera side control part 50 are provided. These members 41 to 50 are housed inside a lens barrel 40 (FIG. 1) having a generally cylindrical shape as a whole. That is, the overall shape of the lens-type camera 4 has substantially the same shape as the overall shape of a so-called interchangeable lens, as shown in FIG.

光学系41は、所定の視野領域から光を集光し、この集光した光を、カメラ側撮像部46を構成する撮像素子(図示略)の撮像面に結像する。この光学系41は、図2に示すように、ズームレンズ411と、フォーカスレンズ412とを備える。
ズームレンズ411は、一または複数のレンズを用いて構成され、図2に破線で示した光軸に沿って移動することにより、光学系41のズーム倍率を変更する。
フォーカスレンズ412は、一または複数のレンズを用いて構成され、図2に破線で示した光軸に沿って移動することにより、光学系41のピント位置及び焦点距離を変更する。
The optical system 41 collects light from a predetermined visual field and forms an image of the collected light on an imaging surface of an imaging device (not shown) that constitutes the camera-side imaging unit 46. As shown in FIG. 2, the optical system 41 includes a zoom lens 411 and a focus lens 412.
The zoom lens 411 is configured using one or a plurality of lenses, and changes the zoom magnification of the optical system 41 by moving along the optical axis indicated by the broken line in FIG.
The focus lens 412 is configured using one or a plurality of lenses, and changes the focus position and focal length of the optical system 41 by moving along the optical axis indicated by the broken line in FIG.

駆動部42は、カメラ側制御部50による制御の下、光学系41を構成する各レンズ411,412を光軸に沿って移動させる。この駆動部42は、図2に示すように、ズーム駆動部421と、フォーカス駆動部422とを備える。
ズーム駆動部421は、ステッピングモータやDCモータ等を用いて構成され、ズームレンズ411を光軸に沿って移動させる。
フォーカス駆動部422は、ステッピングモータやDCモータ等を用いて構成され、フォーカスレンズ412を光軸に沿って移動させる。
The drive unit 42 moves the lenses 411 and 412 constituting the optical system 41 along the optical axis under the control of the camera side control unit 50. As shown in FIG. 2, the drive unit 42 includes a zoom drive unit 421 and a focus drive unit 422.
The zoom drive unit 421 is configured using a stepping motor, a DC motor, or the like, and moves the zoom lens 411 along the optical axis.
The focus driving unit 422 is configured using a stepping motor, a DC motor, or the like, and moves the focus lens 412 along the optical axis.

位置検出部43は、光学系41を構成する各レンズ411,412の光軸上の位置を検出する。この位置検出部43は、図2に示すように、ズーム位置検出部431と、フォーカス位置検出部432とを備える。
ズーム位置検出部431は、フォトインタラプタ等を用いて構成され、ズーム駆動部421にて駆動されたズームレンズ411の光軸上の位置を検出する。
具体的には、ズーム位置検出部431は、ズーム駆動部421に含まれる駆動用モータの回転量をパルス数に変換し、変換したパルス数に基づいて、無限遠を基準とする基準位置からのズームレンズ411の光軸上の位置を検出する。
フォーカス位置検出部432は、フォトインタラプタ等を用いて構成され、ズーム位置検出部431と同様の方法により、フォーカス駆動部422にて駆動されたフォーカスレンズ412の光軸上の位置を検出する。
The position detection unit 43 detects the positions on the optical axis of the lenses 411 and 412 constituting the optical system 41. As shown in FIG. 2, the position detection unit 43 includes a zoom position detection unit 431 and a focus position detection unit 432.
The zoom position detection unit 431 is configured using a photo interrupter or the like, and detects the position on the optical axis of the zoom lens 411 driven by the zoom drive unit 421.
Specifically, the zoom position detection unit 431 converts the rotation amount of the drive motor included in the zoom drive unit 421 into the number of pulses, and based on the converted number of pulses, from the reference position with infinity as a reference. The position on the optical axis of the zoom lens 411 is detected.
The focus position detection unit 432 is configured using a photo interrupter or the like, and detects the position on the optical axis of the focus lens 412 driven by the focus drive unit 422 by the same method as the zoom position detection unit 431.

操作部44は、レンズ鏡筒40の周囲に設けられる操作リング、レンズ鏡筒40の外面に設けられるボタンやスイッチ等であり、光学系41内のズームレンズ411やフォーカスレンズ412の光軸上の位置の変更操作等のユーザ操作を受け付ける。そして、操作部44は、当該ユーザ操作に応じた指示信号をカメラ側制御部50に出力する。   The operation unit 44 is an operation ring provided around the lens barrel 40, buttons and switches provided on the outer surface of the lens barrel 40, and is on the optical axis of the zoom lens 411 and the focus lens 412 in the optical system 41. A user operation such as a position change operation is accepted. Then, the operation unit 44 outputs an instruction signal corresponding to the user operation to the camera side control unit 50.

カメラ側時計部45は、計時機能の他、カメラ側撮像部46にて撮像された日時に関する日時情報(以下、第1タイムスタンプと記載)を生成する機能を有する。そして、カメラ側時計部45にて生成された第1タイムスタンプは、カメラ側制御部50に出力される。
なお、タイムスタンプの生成については、機器で厳密な時刻合わせをする必要があるとは限らず、撮影時に他の機器と通信して取得するような応用が可能であることは言うまでもない。以下で記載するタイムスタンプについても同様である。
In addition to the timekeeping function, the camera-side clock unit 45 has a function of generating date / time information (hereinafter referred to as a first time stamp) related to the date / time captured by the camera-side imaging unit 46. Then, the first time stamp generated by the camera side clock unit 45 is output to the camera side control unit 50.
Needless to say, the time stamp is not necessarily required to be precisely timed by the device, and can be applied to obtain the time stamp by communicating with another device at the time of shooting. The same applies to the time stamps described below.

カメラ側撮像部46は、カメラ側制御部50による制御の下、被写体を撮像して画像データを生成する。このカメラ側撮像部46は、光学系41が結像した被写体像を受光して電気信号に変換するCCD(Charge Coupled Device)等の撮像素子、当該撮像素子からの電気信号(アナログ信号)に対して信号処理(A/D変換等)を行うことによりデジタルの画像データを生成する信号処理部等を用いて構成される。そして、カメラ側撮像部46にて順次、生成された画像データ(以下、ライブビュー画像データと記載)は、カメラ側制御部50による制御の下、当該ライブビュー画像データが生成された日時に関する第1タイムスタンプが付加されて、順次、カメラ側メモリ部47に記憶される。また、カメラユーザによる表示装置本体5への撮影操作に応じてカメラ側撮像部46にて生成された画像データ(以下、撮影画像データと記載)は、当該撮影画像データが生成された日時に関する第1タイムスタンプ、及び表示装置本体5から受信した撮影位置を示す撮影位置情報が付加されて、カメラ側記録部48に記録される。   The camera side imaging unit 46 images a subject and generates image data under the control of the camera side control unit 50. The camera side imaging unit 46 receives an object image formed by the optical system 41 and converts it into an electrical signal, such as an image sensor such as a CCD (Charge Coupled Device), and an electrical signal (analog signal) from the image sensor. And a signal processing unit that generates digital image data by performing signal processing (A / D conversion or the like). The image data sequentially generated by the camera-side imaging unit 46 (hereinafter referred to as live view image data) is controlled by the camera-side control unit 50 and is associated with the date and time when the live view image data was generated. One time stamp is added and sequentially stored in the camera-side memory unit 47. In addition, image data (hereinafter referred to as “captured image data”) generated by the camera-side imaging unit 46 in response to a shooting operation on the display device body 5 by the camera user is the first date and time related to the date and time when the captured image data was generated. One time stamp and shooting position information indicating the shooting position received from the display device body 5 are added and recorded in the camera-side recording unit 48.

カメラ側メモリ部47は、カメラ側撮像部46にて生成されたライブビュー画像データ(第1タイムスタンプを含む)を順次、記憶する。
カメラ側記録部48は、カメラ側制御部50が実行する各種プログラムや、光学系41の倍率、焦点距離、画角、収差及びF値(明るさ)等の光学系41の特性に関する特性情報等を記録する。また、カメラ側記録部48は、カメラユーザによる表示装置本体5への撮影操作に応じて、カメラ側制御部50による制御の下、カメラ側撮像部46にて生成された撮影画像データ(第1タイムスタンプ及び撮影位置情報を含む)を記録する。
The camera side memory unit 47 sequentially stores the live view image data (including the first time stamp) generated by the camera side imaging unit 46.
The camera-side recording unit 48, various programs executed by the camera-side control unit 50, characteristic information regarding the characteristics of the optical system 41 such as the magnification, focal length, angle of view, aberration, and F value (brightness) of the optical system 41, etc. Record. In addition, the camera-side recording unit 48 captures captured image data (first image) generated by the camera-side imaging unit 46 under the control of the camera-side control unit 50 in response to a shooting operation on the display device body 5 by the camera user. (Including time stamp and shooting position information).

カメラ側通信部49は、カメラ側制御部50による制御の下、表示装置本体5との間で通信に必要な信号を含む各種データの無線通信を行うための通信インターフェースである。
本実施の形態1では、当該無線通信の通信方式として、Wi−Fi(Wireless Fidelity)(登録商標)を採用している。なお、当該無線通信の通信方式としては、Wi−Fi(登録商標)の他、WiMAX(Worldwide Interoperabiity for Microwave Access)(登録商標)等、他の通信方式を採用しても構わない。
例えば、Wi−Fi(登録商標)の場合、ローカルネットワークを想定し、機器の役割として、アクセスポイント、ステーションの関係があり、概略の接続処理としては、アクセスポイントが構築している無線ネットワークに、ステーションが接続する関係となる。
大まかな接続シーケンスとしては、(Step1)アクセスポイントは、無線ネットワークを構築し、自分のネットワーク識別子(SSID)を報知する、(Step2)ステーションは、報知されているネットワーク識別子(SSID)を検索し、所望のネットワーク(アクセスポイント)に接続する、というStep1,2を踏み、多くの機器とのネットワークを想定するので、カバー範囲が広く、干渉の問題を考慮しながら厳密な識別ステップを踏むことになる。このため、接続確立に時間が掛かることがある。ただし、データ通信は、アクセスポイント、ステーションそれぞれのタイミングでデータの送受信が可能である。ここでは、レンズ型カメラ4をアクセスポイント、表示装置本体5をステーションと考えればよい。なお、この関係は逆でもよい。10メガビット/秒以上という速度で通信することができるので画像も高速で送信することができる。
The camera side communication unit 49 is a communication interface for performing wireless communication of various data including signals necessary for communication with the display device body 5 under the control of the camera side control unit 50.
In the first embodiment, Wi-Fi (Wireless Fidelity) (registered trademark) is adopted as the communication method of the wireless communication. In addition, as a communication method of the wireless communication, other communication methods such as WiMAX (Worldwide Interoperability for Microwave Access) (registered trademark) may be adopted in addition to Wi-Fi (registered trademark).
For example, in the case of Wi-Fi (registered trademark), assuming a local network, there is a relationship between an access point and a station as the role of a device. As a rough connection process, a wireless network constructed by an access point is The station is connected.
As a rough connection sequence, (Step 1) the access point constructs a wireless network and reports its own network identifier (SSID). (Step 2) The station searches for the broadcasted network identifier (SSID). Steps 1 and 2 for connecting to a desired network (access point) are assumed, and a network with many devices is assumed. Therefore, the coverage is wide and a strict identification step is taken while considering the problem of interference. . For this reason, it may take time to establish a connection. However, in data communication, data can be transmitted and received at the timing of each access point and station. Here, the lens type camera 4 may be considered as an access point, and the display device body 5 may be considered as a station. This relationship may be reversed. Since communication can be performed at a speed of 10 megabits / second or more, images can also be transmitted at high speed.

カメラ側制御部50は、CPU(Central Processing Unit)等を用いて構成され、操作部44からの指示信号や、カメラ側通信部49を介して入力される表示装置本体5からの指示信号に応じてレンズ型カメラ4全体の動作を制御する。このカメラ側制御部50は、図2に示すように、カメラ側通信制御部501と、カメラ側撮像制御部502とを備える。
カメラ側通信制御部501は、カメラ側通信部49を介して、表示装置本体5との間でWi−Fi(登録商標)等の通信方式による通信接続を確立する。
そして、カメラ側通信制御部501は、表示装置本体5から、ライブビュー画像データの送信要求、撮影指示(撮影位置を示す撮影位置情報を含む)、カメラ側記録部48に記録された複数の撮影画像データをサムネイル表示した画像一覧の送信要求、及び、画像一覧中の一の撮影画像に対応する対応画像データの送信要求を受信する。これらの受信に応じて、カメラ側通信制御部501は、カメラ側メモリ部47に記憶された最新のライブビュー画像データ(第1タイムスタンプを含む)、カメラ側記録部48に記録された最新の撮影画像データ(第1タイムスタンプ及び撮影位置情報を含む)、画像一覧、及び対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)を表示装置本体5に送信する。ここで、「最新」とは、タイムスタンプに基づく日時上、最新という意味である(以下、同様)。
また、カメラ側通信制御部501は、カメラ側記録部48に記録された特性情報、位置検出部43が検出したズームレンズ411及びフォーカスレンズ412の各位置に関するレンズ位置情報を表示装置本体5に送信する。
さらに、カメラ側通信制御部501は、表示装置本体5から、撮影パラメータの変更指示を受信する。ここで、撮影パラメータとしては、焦点距離、焦点位置、絞り値、シャッタスピード、露出値、ISO感度、彩度、及び色相等が挙げられる。
The camera side control unit 50 is configured using a CPU (Central Processing Unit) or the like, and responds to an instruction signal from the operation unit 44 or an instruction signal from the display device body 5 input via the camera side communication unit 49. The overall operation of the lens type camera 4 is controlled. As shown in FIG. 2, the camera side control unit 50 includes a camera side communication control unit 501 and a camera side imaging control unit 502.
The camera-side communication control unit 501 establishes communication connection with the display device body 5 via the camera-side communication unit 49 using a communication method such as Wi-Fi (registered trademark).
The camera-side communication control unit 501 then sends a live view image data transmission request, a shooting instruction (including shooting position information indicating the shooting position), and a plurality of shootings recorded in the camera-side recording unit 48 from the display device body 5. An image list transmission request displaying thumbnail image data and a corresponding image data transmission request corresponding to one captured image in the image list are received. In response to these receptions, the camera-side communication control unit 501 receives the latest live view image data (including the first time stamp) stored in the camera-side memory unit 47 and the latest recorded in the camera-side recording unit 48. The photographed image data (including the first time stamp and the photographing position information), the image list, and the corresponding image data (including the first time stamp and the photographing position information) are transmitted to the display device body 5. Here, “latest” means latest on the date and time based on the time stamp (hereinafter the same).
In addition, the camera-side communication control unit 501 transmits the characteristic information recorded in the camera-side recording unit 48 and the lens position information regarding the positions of the zoom lens 411 and the focus lens 412 detected by the position detection unit 43 to the display device body 5. To do.
Further, the camera side communication control unit 501 receives an instruction to change the imaging parameter from the display device body 5. Here, examples of the shooting parameters include focal length, focal position, aperture value, shutter speed, exposure value, ISO sensitivity, saturation, hue, and the like.

カメラ側撮像制御部502は、カメラ側撮像部46にて生成されたライブビュー画像データに当該ライブビュー画像データが生成された日時に関する第1タイムスタンプを付加して、順次、カメラ側メモリ部47に記憶する。また、カメラ側撮像制御部502は、カメラユーザによる表示装置本体5への撮影操作に応じて、カメラ側撮像部46に被写体を撮像させ、カメラ側撮像部46にて生成された撮影画像データに当該撮影画像データが生成された日時に関する第1タイムスタンプ、及び表示装置本体5から受信した撮影位置情報を付加して、カメラ側記録部48に記録する。さらに、カメラ側撮像制御部502は、カメラ側通信部49を介して表示装置本体5から受信した撮影パラメータの変更指示に応じて、駆動部42等の動作を制御し、撮影パラメータを変更する。   The camera side imaging control unit 502 adds a first time stamp related to the date and time when the live view image data is generated to the live view image data generated by the camera side imaging unit 46, and sequentially, the camera side memory unit 47. To remember. The camera-side imaging control unit 502 causes the camera-side imaging unit 46 to image a subject in response to a shooting operation on the display device main body 5 by the camera user, and uses the captured image data generated by the camera-side imaging unit 46. The first time stamp related to the date and time when the photographed image data was generated and the photographing position information received from the display device body 5 are added and recorded in the camera-side recording unit 48. Further, the camera-side imaging control unit 502 controls the operation of the drive unit 42 and the like to change the imaging parameters in accordance with the imaging parameter change instruction received from the display device body 5 via the camera-side communication unit 49.

〔表示装置の構成〕
以下では、表示装置本体5の構成として、本発明の要部を主に説明する。
図3は、表示装置本体5の構成を示すブロック図である。
表示装置本体5は、例えば、デジタルカメラ、デジタルビデオカメラ、または携帯電話やタブレット型携帯機器等として構成される。この表示装置本体5は、図3に示すように、入力部51と、表示部52と、本体側時計部53と、本体側撮像部54と、位置取得部55と、本体側メモリ部56と、本体側記録部57と、本体側通信部58と、本体側制御部59とを備える。
[Configuration of display device]
In the following, the main part of the present invention will be mainly described as the configuration of the display device body 5.
FIG. 3 is a block diagram showing a configuration of the display device body 5.
The display device body 5 is configured as, for example, a digital camera, a digital video camera, a mobile phone, a tablet-type mobile device, or the like. As shown in FIG. 3, the display device main body 5 includes an input unit 51, a display unit 52, a main body side clock unit 53, a main body side imaging unit 54, a position acquisition unit 55, and a main body side memory unit 56. A main body side recording unit 57, a main body side communication unit 58, and a main body side control unit 59.

入力部51は、ユーザ操作を受け付けるボタン、スイッチ、タッチパネル等を用いて構成され、当該ユーザ操作に応じた指示信号を本体側制御部59に出力する。
そして、入力部51は、本発明に係る操作受付部としての機能を有する。
表示部52は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成され、表示装置本体5の前面(図11参照)に設けられる。そして、表示部52は、本体側制御部59による制御の下、所定の画像を表示する。
The input unit 51 is configured using a button, a switch, a touch panel, or the like that receives a user operation, and outputs an instruction signal corresponding to the user operation to the main body side control unit 59.
And the input part 51 has a function as an operation reception part which concerns on this invention.
The display unit 52 is configured using a display panel made of liquid crystal, organic EL (Electro Luminescence), or the like, and is provided on the front surface of the display device body 5 (see FIG. 11). The display unit 52 displays a predetermined image under the control of the main body side control unit 59.

本体側時計部53は、計時機能の他、本体側撮像部54にて撮像された日時に関する日時情報(以下、第2タイムスタンプと記載)を生成する機能を有する。そして、本体側時計部53にて生成された第2タイムスタンプは、本体側制御部59に出力される。
本体側撮像部54は、本体側制御部59による制御の下、被写体を撮像して画像データ(以下、インカメラ画像データと記載)を生成する。この本体側撮像部54は、被写体像を結像する光学系(図示略)、当該光学系が結像した被写体像を受光して電気信号に変換するCCD等の撮像素子(図示略)、当該撮像素子からの電気信号(アナログ信号)に対して信号処理(A/D変換等)を行うことによりデジタルの画像データを生成する信号処理部等を用いて構成される。そして、本体側撮像部54にて生成されたインカメラ画像データは、本体側制御部59による制御の下、当該インカメラ画像データが生成された日時に関する第2タイムスタンプが付加されて、本体側記録部57に記録される。
The main body side clock unit 53 has a function of generating date and time information (hereinafter referred to as a second time stamp) related to the date and time captured by the main body side imaging unit 54, in addition to a time measuring function. Then, the second time stamp generated by the main body side clock unit 53 is output to the main body side control unit 59.
The main body side imaging unit 54 images a subject under the control of the main body side control unit 59 and generates image data (hereinafter referred to as in-camera image data). The main body side imaging unit 54 includes an optical system (not shown) that forms a subject image, an image sensor (not shown) such as a CCD that receives the subject image formed by the optical system and converts it into an electrical signal, It is configured using a signal processing unit that generates digital image data by performing signal processing (A / D conversion or the like) on an electrical signal (analog signal) from the image sensor. Then, the in-camera image data generated by the main body side imaging unit 54 is added with a second time stamp related to the date and time when the in-camera image data is generated under the control of the main body side control unit 59, and the main body side Recorded in the recording unit 57.

位置取得部55は、地上の物体の位置を測定する測定手段であるGPS(Global Positioning System)を構成する複数のGPS衛星から送信されてくる衛星の軌道情報を受信し、この受信した軌道情報に基づいて、表示装置本体5の現在位置(撮影位置)に関する撮影位置情報(経度や緯度に関する情報)を取得する。勿論、この技術に限定されるものではなく、各種衛星を使った位置測定方法や、無線基地局等からの情報や、無線基地局を判定しての位置測定方法等を使った技術を利用してもよい。また、加速度センサや地磁気センサや地図情報から、特定の位置からの移動を検出して得られる相対的な位置情報であってもよい。民生用のカメラ以外に応用する場合には、例えば、顕微鏡等ではステージの移動を検出して得られた値でもよく、医療用の装置では、磁界を発生させてそれを検出するような専用の位置検出方法を利用してもよい。臓器内の移動距離等を使ってもよい。いずれの方式であっても、関連した画像が近くで得られたかどうかが分かればよい。
本体側メモリ部56は、本体側通信部58を介してレンズ型カメラ4やサーバ3から受信した情報や、本体側制御部59による制御の下、本体側記録部57に記録された第1〜第3抽出範囲情報のうち、本体側制御部59にて読み出された一の抽出範囲情報を記憶する。
The position acquisition unit 55 receives satellite orbit information transmitted from a plurality of GPS satellites constituting a GPS (Global Positioning System), which is a measuring means for measuring the position of an object on the ground, and receives the received orbit information. Based on this, shooting position information (information on longitude and latitude) regarding the current position (shooting position) of the display device body 5 is acquired. Of course, the present invention is not limited to this technique, and a technique using a position measurement method using various satellites, information from a radio base station, or a position measurement method by determining a radio base station is used. May be. Alternatively, relative position information obtained by detecting movement from a specific position from an acceleration sensor, a geomagnetic sensor, or map information may be used. For applications other than consumer cameras, for example, the value obtained by detecting the movement of the stage may be used in a microscope or the like. In a medical device, a dedicated magnetic field is generated and detected. A position detection method may be used. The movement distance in the organ may be used. Whichever method is used, it is only necessary to know whether or not a related image is obtained nearby.
The main body side memory unit 56 stores information received from the lens-type camera 4 and the server 3 via the main body side communication unit 58 and the first to first recorded in the main body side recording unit 57 under the control of the main body side control unit 59. Among the third extraction range information, one extraction range information read by the main body side control unit 59 is stored.

本体側記録部57は、図3に示すように、プログラム記録部571と、画像データ記録部572とを備える。
プログラム記録部571は、本体側制御部59が実行する各種プログラム(表示プログラムを含む)、及びプログラムの実行中に使用される各種データ等を記録する。
画像データ記録部572は、レンズ型カメラ4にて生成された撮影画像データ(第1タイムスタンプ及び撮影位置情報を含む)、及び本体側撮像部54にて生成されたインカメラ画像データ(第2タイムスタンプを含む)を記録する。
As shown in FIG. 3, the main body recording unit 57 includes a program recording unit 571 and an image data recording unit 572.
The program recording unit 571 records various programs (including display programs) executed by the main body side control unit 59, various data used during the execution of the programs, and the like.
The image data recording unit 572 includes captured image data (including the first time stamp and shooting position information) generated by the lens-type camera 4 and in-camera image data (second storage) generated by the main body side imaging unit 54. (Including time stamp).

また、本体側記録部57には、レンズ型カメラ4と通信を行うために必要なレンズ型カメラ4の通信仕様情報や、サーバ3におけるインターネット網N上の所在位置を示す所在位置情報(URL(Uniform Resource Locator))が記録されている。   Further, the main body side recording unit 57 stores the communication specification information of the lens type camera 4 necessary for communicating with the lens type camera 4 and the location information (URL () indicating the location on the Internet 3 in the server 3. (Uniform Resource Locator)) is recorded.

さらに、本体側記録部57には、サーバ3にて関連画像データを抽出する際に用いられる第1〜第3抽出範囲情報が記録されている。
ここで、各抽出範囲情報は、第1〜第3距離(第1距離が最も小さく、第3距離が最も大きい)を示す各情報をそれぞれ有する。
例えば、第1抽出範囲情報は、第1距離が「125m」、第2距離が「250m」、第3距離が「500m」に設定されている。第2抽出範囲情報は、第1距離が「250m」、第2距離が「500m」、第3距離が「1km」に設定されている。第3抽出範囲情報は、第1距離が「500m」、第2距離が「1km」、第3距離が「2km」に設定されている。
Further, the main body side recording unit 57 records first to third extraction range information used when the server 3 extracts related image data.
Here, each extraction range information has each information which shows the 1st-3rd distance (1st distance is the smallest and 3rd distance is the largest), respectively.
For example, in the first extraction range information, the first distance is set to “125 m”, the second distance is “250 m”, and the third distance is “500 m”. In the second extraction range information, the first distance is set to “250 m”, the second distance is set to “500 m”, and the third distance is set to “1 km”. In the third extraction range information, the first distance is set to “500 m”, the second distance is set to “1 km”, and the third distance is set to “2 km”.

本体側通信部58は、本発明に係る表示側通信部としての機能を有する。そして、本体側通信部58は、本体側制御部59による制御の下、レンズ型カメラ4やサーバ3との間で通信に必要な信号を含む各種データの無線通信をWi−Fi(登録商標)等の通信方式により行うための通信インターフェースである。   The main body side communication unit 58 has a function as a display side communication unit according to the present invention. The main body side communication unit 58 performs Wi-Fi (registered trademark) wireless communication of various data including signals necessary for communication with the lens type camera 4 and the server 3 under the control of the main body side control unit 59. It is a communication interface for performing by a communication method such as.

本体側制御部59は、CPU等を用いて構成され、入力部51からの指示信号等に応じて表示装置本体5を構成する各部に対応する指示やデータの転送等を行って表示装置本体5の動作を統括的に制御する。この本体側制御部59は、図3に示すように、本体側通信制御部591と、本体側撮像制御部592と、本体側表示制御部593とを備える。   The main body side control unit 59 is configured by using a CPU or the like, and performs an instruction, data transfer, or the like corresponding to each unit constituting the display device main body 5 in accordance with an instruction signal from the input unit 51 or the like. Overall control of the operation. As shown in FIG. 3, the main body side control unit 59 includes a main body side communication control unit 591, a main body side imaging control unit 592, and a main body side display control unit 593.

本体側通信制御部591は、表示装置本体5がカメラ通信モード(レンズ型カメラ4を利用して被写体を撮影するモード)に設定されている場合に、以下の処理を実行する。
具体的に、本体側通信制御部591は、本体側記録部57に記録されたレンズ型カメラ4の通信仕様情報に基づいて、本体側通信部58を介して、表示装置本体5との間でWi−Fi(登録商標)等の通信方式による通信接続を確立する。そして、本体側通信制御部591は、レンズ型カメラ4に対し、ライブビュー画像データ、画像一覧、及び対応画像データの各送信要求を行い、当該ライブビュー画像データ、画像一覧、及び対応画像データをそれぞれ受信する。また、本体側通信制御部591は、レンズ型カメラ4から、特性情報及びレンズ位置情報等を受信する。
なお、対応画像データの送信要求については、本体側通信制御部591は、カメラユーザによる入力部51へのユーザ操作(画像一覧中の一画像を選択する選択操作)に応じて実行するものである。
The main body side communication control unit 591 executes the following processing when the display device main body 5 is set to the camera communication mode (a mode for photographing a subject using the lens type camera 4).
Specifically, the main body side communication control unit 591 communicates with the display device main body 5 via the main body side communication unit 58 based on the communication specification information of the lens type camera 4 recorded in the main body side recording unit 57. A communication connection by a communication method such as Wi-Fi (registered trademark) is established. Then, the main body side communication control unit 591 makes a transmission request for the live view image data, the image list, and the corresponding image data to the lens-type camera 4, and sends the live view image data, the image list, and the corresponding image data. Receive each one. Further, the main body side communication control unit 591 receives characteristic information, lens position information, and the like from the lens camera 4.
The main body side communication control unit 591 executes the transmission request for the corresponding image data in response to a user operation on the input unit 51 by the camera user (a selection operation for selecting one image in the image list). .

また、本体側通信制御部591は、本体側記録部57に記録されたサーバ3の所在位置情報(URL)に基づいて、本体側通信部58を介して、インターネット網Nに接続されたサーバ3にアクセス信号(対応画像データの記録要求や関連画像データの送信要求(自身の表示装置本体5を識別する識別情報を含む))を送信し、サーバ3との間で通信接続を確立する。そして、本体側通信制御部591は、サーバ3に記録させるための対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)やサーバ3にて関連画像データを抽出させるための撮影位置情報(基準位置情報)及び抽出範囲情報(第1〜第3抽出範囲情報のいずれか)をサーバ3に送信するとともに、関連画像データをサーバ3から受信する。
すなわち、本体側通信制御部591は、本発明に係る関連画像取得部としての機能を有する。
なお、対応画像データの記録要求については、本体側通信制御部591は、カメラユーザによる入力部51へのユーザ操作(対応画像データをサーバ3に記録させるためのアップ操作)に応じて実行するものである。また、関連画像データの送信要求については、本体側通信制御部591は、関連画像の表示フラグがオン状態である場合に実行するものである。この表示フラグは、カメラユーザによる入力部51へのユーザ操作に応じて、オン状態あるいはオフ状態になるフラグであり、本体側メモリ部56に記憶されている。
Further, the main body side communication control unit 591 is based on the location information (URL) of the server 3 recorded in the main body side recording unit 57, and the server 3 connected to the Internet network N through the main body side communication unit 58. An access signal (a request for recording corresponding image data or a request for transmitting related image data (including identification information for identifying its own display device body 5)) is transmitted to establish a communication connection with the server 3. Then, the main body side communication control unit 591 corresponds image data (including the first time stamp and shooting position information) to be recorded in the server 3 and shooting position information (reference) for causing the server 3 to extract related image data. (Position information) and extraction range information (any of the first to third extraction range information) are transmitted to the server 3 and related image data is received from the server 3.
That is, the main body side communication control unit 591 has a function as a related image acquisition unit according to the present invention.
The main body side communication control unit 591 executes a request for recording the corresponding image data in response to a user operation on the input unit 51 by the camera user (up operation for causing the server 3 to record the corresponding image data). It is. Further, the related image data transmission request is executed by the main body side communication control unit 591 when the display flag of the related image is on. This display flag is a flag that is turned on or off in response to a user operation on the input unit 51 by the camera user, and is stored in the main body side memory unit 56.

本体側撮像制御部592は、表示装置本体5がカメラ通信モードに設定されている場合には、以下の処理を実行する。
具体的に、本体側撮像制御部592は、カメラユーザによる入力部51への撮影操作に応じて、本体側通信部58を介して、撮影を行う旨の撮影指示(当該撮影操作が行われた際に位置取得部55にて取得された撮影位置情報を含む)をレンズ型カメラ4に送信する。そして、本体側撮像制御部592は、レンズ型カメラ4から撮影画像データ(第1タイムスタンプ及び撮影位置情報を含む)が転送された場合に、当該撮影画像データを画像データ記録部572に記録する。また、本体側撮像制御部592は、カメラユーザによる入力部51への変更操作(レンズ型カメラ4における撮影パラメータを変更するユーザ操作)に応じて、本体側通信部58を介して、撮影パラメータの変更指示をレンズ型カメラ4に送信する。
The main body side imaging control unit 592 executes the following processing when the display device main body 5 is set to the camera communication mode.
Specifically, the body-side imaging control unit 592 responds to a shooting operation on the input unit 51 by the camera user, and the shooting instruction to the effect that shooting is to be performed via the body-side communication unit 58 (the shooting operation has been performed). (Including the shooting position information acquired by the position acquisition unit 55 at this time) is transmitted to the lens-type camera 4. When the captured image data (including the first time stamp and the captured position information) is transferred from the lens type camera 4, the main body side imaging control unit 592 records the captured image data in the image data recording unit 572. . Further, the main body side imaging control unit 592 changes the shooting parameter via the main body side communication unit 58 in accordance with a change operation to the input unit 51 by the camera user (a user operation to change the shooting parameter in the lens type camera 4). A change instruction is transmitted to the lens-type camera 4.

一方、本体側撮像制御部592は、表示装置本体5が通常撮影モード(本体側撮像部54を利用して被写体を撮影するモード)に設定されている場合には、以下の処理を実行する。
具体的に、本体側撮像制御部592は、表示装置本体5のユーザによる入力部51への撮影操作に応じて、本体側撮像部54に被写体を撮像させ、本体側撮像部54にて生成されたインカメラ画像データ(第2タイムスタンプを含む)を画像データ記録部572に記録する。
On the other hand, the main body side imaging control unit 592 executes the following processing when the display device main body 5 is set to the normal photographing mode (a mode for photographing a subject using the main body side imaging unit 54).
Specifically, the main body side imaging control unit 592 causes the main body side imaging unit 54 to image a subject in response to a photographing operation on the input unit 51 by the user of the display device main body 5, and the main body side imaging unit 54 generates The in-camera image data (including the second time stamp) is recorded in the image data recording unit 572.

本体側表示制御部593は、本発明に係る表示制御部としての機能を有する。そして、本体側表示制御部593は、本体側メモリ部56に記憶されたライブビュー画像データに対応するライブビュー画像、画像データ記録部572に記録された撮影画像データに対応する撮影画像、本体側通信部58を介してレンズ型カメラ4から受信した対応画像データに対応する対応画像等を表示部52に表示させる。
また、本体側表示制御部593は、関連画像の表示フラグがオン状態である場合に、ライブビュー画像、撮影画像、あるいは、対応画像とともに、関連画像を表示する表示画面を生成し、当該表示画面を表示部52に表示させる。
The main body side display control unit 593 has a function as a display control unit according to the present invention. The main body side display control unit 593 then displays the live view image corresponding to the live view image data stored in the main body side memory unit 56, the captured image corresponding to the captured image data recorded in the image data recording unit 572, and the main body side. Corresponding images corresponding to the corresponding image data received from the lens-type camera 4 via the communication unit 58 are displayed on the display unit 52.
Further, when the display flag of the related image is on, the main body side display control unit 593 generates a display screen that displays the related image together with the live view image, the captured image, or the corresponding image, and the display screen Is displayed on the display unit 52.

〔サーバの構成〕
サーバ3は、表示装置本体5からの対応画像データの記録要求に応じて、当該対応画像データをデータベースにて管理する。また、サーバ3は、表示装置本体5からの関連画像データの送信要求に応じて、当該データベースから関連画像データを抽出し、当該関連画像データを表示装置本体5に送信する。
以下では、サーバ3の構成として、本発明の要部を主に説明する。
図4は、サーバ3の構成を示すブロック図である。
サーバ3は、図4に示すように、サーバ側通信部31と、データベース32と、サーバ側制御部33とを備える。
[Server configuration]
The server 3 manages the corresponding image data in a database in response to a recording request for the corresponding image data from the display device body 5. Further, the server 3 extracts the related image data from the database in response to a transmission request for the related image data from the display device body 5, and transmits the related image data to the display device body 5.
In the following, the main part of the present invention will be mainly described as the configuration of the server 3.
FIG. 4 is a block diagram showing the configuration of the server 3.
As illustrated in FIG. 4, the server 3 includes a server-side communication unit 31, a database 32, and a server-side control unit 33.

サーバ側通信部31は、サーバ側制御部33による制御の下、表示装置本体5との間で通信に必要な信号を含む各種データの無線通信をWi−Fi(登録商標)等の通信方式により行うための通信インターフェースである。
データベース32は、サーバ側制御部33による制御の下、サーバ側通信部31を介して表示装置本体5から受信した対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)を記録する。
The server-side communication unit 31 performs wireless communication of various data including signals necessary for communication with the display device body 5 under the control of the server-side control unit 33 using a communication method such as Wi-Fi (registered trademark). It is a communication interface for performing.
The database 32 records corresponding image data (including the first time stamp and shooting position information) received from the display device body 5 via the server side communication unit 31 under the control of the server side control unit 33.

サーバ側制御部33は、CPU等を用いて構成され、サーバ3の動作を統括的に制御する。このサーバ側制御部33は、図4に示すように、サーバ側通信制御部331と、端末判定部332と、データベース管理部333と、距離算出部334と、関連画像抽出部335とを備える。
サーバ側通信制御部331は、サーバ側通信部31及びインターネット網Nを介して表示装置本体5から送信されるアクセス信号(対応画像データの記録要求や関連画像データの送信要求(当該表示装置本体5の識別情報を含む))に応じて、サーバ側通信部31の動作を制御し、表示装置本体5との間で通信接続を確立する。そして、サーバ側通信制御部331は、表示装置本体5から、データベース32に記録させる対応画像データ、距離算出部334及び関連画像抽出部335の処理に用いられる撮影位置情報及び抽出範囲情報(第1〜第3抽出範囲情報のいずれか)を受信するとともに、関連画像抽出部335にて抽出された関連画像データを当該表示装置本体5に送信する。
The server-side control unit 33 is configured using a CPU or the like, and comprehensively controls the operation of the server 3. As shown in FIG. 4, the server-side control unit 33 includes a server-side communication control unit 331, a terminal determination unit 332, a database management unit 333, a distance calculation unit 334, and a related image extraction unit 335.
The server-side communication control unit 331 receives an access signal transmitted from the display device body 5 via the server-side communication unit 31 and the Internet network N (corresponding image data recording request or related image data transmission request (the display device body 5). ), The operation of the server-side communication unit 31 is controlled to establish a communication connection with the display device body 5. Then, the server-side communication control unit 331 sends the corresponding image data to be recorded in the database 32 from the display device body 5, shooting position information and extraction range information (first range) used for processing of the distance calculation unit 334 and the related image extraction unit 335. To any one of the third extraction range information) and transmits the related image data extracted by the related image extraction unit 335 to the display device body 5.

端末判定部332は、インターネット網Nを介して表示装置本体5から送信されるアクセス信号に基づいて、アクセスしてきた送信元の表示装置本体5を判定(特定)する。
データベース管理部333は、サーバ側通信部31を介して表示装置本体5から受信した対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)を順次、データベース32に記録する。
Based on an access signal transmitted from the display device body 5 via the Internet network N, the terminal determination unit 332 determines (identifies) the transmission source display device body 5 that has accessed.
The database management unit 333 sequentially records the corresponding image data (including the first time stamp and the shooting position information) received from the display device body 5 via the server side communication unit 31 in the database 32.

距離算出部334は、サーバ側通信部31を介して表示装置本体5から関連画像データの送信要求とともに受信した撮影位置情報(基準位置情報)と、データベース32に記録された複数の対応画像データに含まれる各撮影位置情報とに基づいて、撮影位置間の距離を算出する。
具体的に、距離算出部334は、表示装置本体5から受信した撮影位置情報(基準位置情報)に基づく撮影位置を基準位置とする。そして、距離算出部334は、当該基準位置と、データベース32に記録された複数の対応画像データに含まれる各撮影位置情報に基づく各撮影位置との間の各距離を算出する。
The distance calculation unit 334 adds the shooting position information (reference position information) received together with the transmission request for the related image data from the display device body 5 via the server-side communication unit 31 and a plurality of corresponding image data recorded in the database 32. The distance between the shooting positions is calculated based on the included shooting position information.
Specifically, the distance calculation unit 334 sets the shooting position based on the shooting position information (reference position information) received from the display device body 5 as the reference position. Then, the distance calculation unit 334 calculates each distance between the reference position and each shooting position based on each shooting position information included in the plurality of corresponding image data recorded in the database 32.

関連画像抽出部335は、サーバ側通信部31を介して表示装置本体5から関連画像データの送信要求とともに受信した抽出範囲情報(第1〜第3抽出範囲情報のいずれか)と、距離算出部334にて算出された各距離とに基づいて、データベース32に記録された複数の対応画像データから関連画像データを抽出する。
具体的に、関連画像抽出部335は、基準位置からの距離が表示装置本体5から受信した抽出範囲情報(第1〜第3抽出範囲情報のいずれか)に基づく第1距離未満の範囲内となる撮影位置で撮影された対応画像データを第1関連画像データとして抽出する。また、関連画像抽出部335は、基準位置からの距離が第1距離以上、当該抽出範囲情報に基づく第2距離未満の範囲内となる撮影位置で撮影された対応画像データを第2関連画像データとして抽出する。さらに、関連画像抽出部335は、基準位置からの距離が第2距離以上、当該抽出範囲情報に基づく第3距離未満の範囲内となる撮影位置で撮影された対応画像データを第3関連画像データとして抽出する。
The related image extraction unit 335 includes the extraction range information (any of the first to third extraction range information) received together with the transmission request for the related image data from the display device body 5 via the server side communication unit 31, and the distance calculation unit. Based on each distance calculated at 334, related image data is extracted from a plurality of corresponding image data recorded in the database 32.
Specifically, the related image extraction unit 335 has a distance that is less than the first distance based on the extraction range information (any one of the first to third extraction range information) received from the display device body 5 by the distance from the reference position. Corresponding image data photographed at the photographing position is extracted as first related image data. In addition, the related image extraction unit 335 outputs the corresponding image data captured at the imaging position where the distance from the reference position is equal to or more than the first distance and less than the second distance based on the extraction range information to the second related image data. Extract as Furthermore, the related image extraction unit 335 outputs third image data corresponding to the corresponding image data shot at a shooting position where the distance from the reference position is the second distance or more and less than the third distance based on the extraction range information. Extract as

〔表示システムの動作〕
次に、上述した表示システム1の動作について説明する。
以下、表示システム1の動作として、レンズ型カメラ4の動作、表示装置本体5の動作、及びサーバ3の動作の順に説明する。
[Operation of display system]
Next, the operation of the display system 1 described above will be described.
Hereinafter, as operations of the display system 1, operations of the lens type camera 4, operations of the display device body 5, and operations of the server 3 will be described in this order.

〔レンズ型カメラの動作〕
図5は、レンズ型カメラ4の動作を示すフローチャートである。
カメラユーザによる操作部44への操作によってレンズ型カメラ4の電源がオンになる(ステップS101:Yes)と、カメラ側通信制御部501は、カメラ側通信部49を介して、表示装置本体5からライブビュー画像データの送信要求を受信したか否かを判断する(ステップS102)。
ライブビュー画像データの送信要求を受信していないと判断された場合(ステップS102:No)には、レンズ型カメラ4は、ステップS111に移行する。
[Operation of lens-type camera]
FIG. 5 is a flowchart showing the operation of the lens type camera 4.
When the power of the lens-type camera 4 is turned on by the operation of the operation unit 44 by the camera user (step S101: Yes), the camera side communication control unit 501 starts from the display device body 5 via the camera side communication unit 49. It is determined whether or not a live view image data transmission request has been received (step S102).
When it is determined that the live view image data transmission request has not been received (step S102: No), the lens type camera 4 proceeds to step S111.

一方、ライブビュー画像データの送信要求を受信したと判断された場合(ステップS102:Yes)には、カメラ側撮像制御部502は、カメラ側撮像部46に撮像を開始させる(ステップS103)。カメラ側撮像部46にて生成されたライブビュー画像データ(第1タイムスタンプを含む)は、順次、カメラ側メモリ部47に記憶される。
続いて、カメラ側通信制御部501は、カメラ側通信部49を介して、カメラ側メモリ部47に記憶された最新のライブビュー画像データ(第1タイムスタンプを含む)を表示装置本体5に送信する(ステップS104)。
On the other hand, when it is determined that a transmission request for live view image data has been received (step S102: Yes), the camera side imaging control unit 502 causes the camera side imaging unit 46 to start imaging (step S103). Live view image data (including the first time stamp) generated by the camera side imaging unit 46 is sequentially stored in the camera side memory unit 47.
Subsequently, the camera side communication control unit 501 transmits the latest live view image data (including the first time stamp) stored in the camera side memory unit 47 to the display device body 5 via the camera side communication unit 49. (Step S104).

続いて、カメラ側通信制御部501は、カメラ側通信部49を介して、表示装置本体5から撮影パラメータの変更指示を受信したか否かを判断する(ステップS105)。
撮影パラメータの変更指示を受信していないと判断された場合(ステップS105:No)には、レンズ型カメラ4は、ステップS107に移行する。
一方、撮影パラメータの変更指示を受信したと判断された場合(ステップS105:Yes)には、カメラ側撮像制御部502は、駆動部42等の動作を制御し、撮影パラメータを変更する(ステップS106)。
Subsequently, the camera side communication control unit 501 determines whether or not an imaging parameter change instruction has been received from the display device body 5 via the camera side communication unit 49 (step S105).
If it is determined that the imaging parameter change instruction has not been received (step S105: No), the lens-type camera 4 proceeds to step S107.
On the other hand, when it is determined that the imaging parameter change instruction has been received (step S105: Yes), the camera-side imaging control unit 502 controls the operation of the drive unit 42 and the like to change the imaging parameter (step S106). ).

ステップS106の後、または、ステップS105で撮影パラメータの変更指示を受信していないと判断された場合(ステップS105:No)には、カメラ側通信制御部501は、カメラ側通信部49を介して、表示装置本体5から撮影指示(撮影位置情報を含む)を受信したか否かを判断する(ステップS107)。
撮影指示を受信していないと判断された場合(ステップS107:No)には、レンズ型カメラ4は、ステップS101に戻る。
After step S106 or when it is determined in step S105 that an instruction to change the shooting parameter has not been received (step S105: No), the camera side communication control unit 501 passes through the camera side communication unit 49. Then, it is determined whether or not a shooting instruction (including shooting position information) has been received from the display device body 5 (step S107).
If it is determined that the shooting instruction has not been received (step S107: No), the lens-type camera 4 returns to step S101.

一方、撮影指示を受信したと判断された場合(ステップS107:Yes)には、カメラ側撮像制御部502は、カメラ側撮像部46に撮像を行わせる(ステップS108)。
続いて、カメラ側撮像制御部502は、ステップS108での撮像により生成された撮影画像データに対して、第1タイムスタンプ及びステップS107で受信した撮影位置情報を付加して、カメラ側記録部48に記録する(ステップS109)。
続いて、カメラ側通信制御部501は、カメラ側通信部49を介して、カメラ側記録部48に記録された最新の撮影画像データ(第1タイムスタンプ及び撮影位置情報を含む)を表示装置本体5に送信する(ステップS110)。この後、レンズ型カメラ4は、ステップS101に戻る。
On the other hand, when it is determined that the imaging instruction has been received (step S107: Yes), the camera side imaging control unit 502 causes the camera side imaging unit 46 to perform imaging (step S108).
Subsequently, the camera side imaging control unit 502 adds the first time stamp and the imaging position information received in step S107 to the imaging image data generated by imaging in step S108, and the camera side recording unit 48. (Step S109).
Subsequently, the camera side communication control unit 501 displays the latest photographed image data (including the first time stamp and the photographing position information) recorded in the camera side recording unit 48 via the camera side communication unit 49. 5 (step S110). Thereafter, the lens type camera 4 returns to Step S101.

ステップS102でライブビュー画像データの送信要求を受信していないと判断した場合(ステップS102:No)には、カメラ側通信制御部501は、カメラ側通信部49を介して、表示装置本体5から画像一覧の送信要求を受信したか否かを判断する(ステップS111)。
画像一覧の送信要求を受信していないと判断された場合(ステップS111:No)には、レンズ型カメラ4は、ステップS115に移行する。
一方、画像一覧の送信要求を受信したと判断した場合(ステップS111:Yes)には、カメラ側通信制御部501は、カメラ側通信部49を介して、カメラ側記録部48に記録された複数の撮影画像データをサムネイル表示した画像一覧を表示装置本体5に送信する(ステップS112)。
If it is determined in step S <b> 102 that a transmission request for live view image data has not been received (step S <b> 102: No), the camera-side communication control unit 501 transmits from the display device body 5 via the camera-side communication unit 49. It is determined whether an image list transmission request has been received (step S111).
If it is determined that an image list transmission request has not been received (step S111: No), the lens-type camera 4 proceeds to step S115.
On the other hand, when it is determined that the image list transmission request has been received (step S111: Yes), the camera-side communication control unit 501 receives a plurality of information recorded in the camera-side recording unit 48 via the camera-side communication unit 49. A list of images in which the captured image data is displayed as thumbnails is transmitted to the display device body 5 (step S112).

続いて、カメラ側通信制御部501は、カメラ側通信部49を介して、画像一覧中の一画像に対応する対応画像データの送信要求を受信したか否かを判断する(ステップS113)。
対応画像データの送信要求を受信していないと判断された場合(ステップS113:No)には、レンズ型カメラ4は、ステップS101に戻る。
一方、対応画像データの送信要求を受信したと判断した場合(ステップS113:Yes)には、カメラ側通信制御部501は、カメラ側通信部49を介して、カメラ側記録部48に記録された対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)を表示装置本体5に送信する(ステップS114)。この後、レンズ型カメラ4は、ステップS101に戻る。
Subsequently, the camera-side communication control unit 501 determines whether a request for transmitting corresponding image data corresponding to one image in the image list has been received via the camera-side communication unit 49 (step S113).
If it is determined that the corresponding image data transmission request has not been received (step S113: No), the lens-type camera 4 returns to step S101.
On the other hand, when it is determined that the corresponding image data transmission request has been received (step S113: Yes), the camera side communication control unit 501 is recorded in the camera side recording unit 48 via the camera side communication unit 49. Corresponding image data (including the first time stamp and shooting position information) is transmitted to the display device body 5 (step S114). Thereafter, the lens type camera 4 returns to Step S101.

ステップS111で画像一覧の送信要求を受信していないと判断された場合(ステップS111:No)には、レンズ型カメラ4は、上述した処理とは異なる他の処理を実行する(ステップS115)。この後、レンズ型カメラ4は、ステップS101に戻る。
例えば、レンズ型カメラ4は、ステップS115において、カメラユーザによる操作部44へのユーザ操作や、カメラ側通信部49を介して外部機器から受信した情報等に基づいて、通信を行う相手方を設定する処理等を実行する。
If it is determined in step S111 that an image list transmission request has not been received (step S111: No), the lens-type camera 4 executes another process different from the process described above (step S115). Thereafter, the lens type camera 4 returns to Step S101.
For example, in step S115, the lens-type camera 4 sets a communication partner based on a user operation on the operation unit 44 by the camera user, information received from an external device via the camera-side communication unit 49, or the like. Execute processing etc.

〔表示装置本体の動作〕
図6は、表示装置本体5の動作を示すフローチャートである。
なお、以下では、表示装置本体5は、「カメラ通信モード」に設定されているものとする。
カメラユーザによる入力部51への操作によって表示装置本体5の電源がオンになる(ステップS201:Yes)と、本体側制御部59は、表示装置本体5が撮影モード(静止画等を撮影するモード)に設定されているか否かを判断する(ステップS202)。
撮影モードに設定されていないと判断された場合(ステップS202:No)には、表示装置本体5は、ステップS219に移行する。
[Operation of display unit]
FIG. 6 is a flowchart showing the operation of the display device body 5.
In the following, it is assumed that the display device body 5 is set to the “camera communication mode”.
When the power of the display device main body 5 is turned on by the operation of the input unit 51 by the camera user (step S201: Yes), the main body side control unit 59 causes the display device main body 5 to be in a shooting mode (a mode for taking a still image or the like). ) Is set (step S202).
When it is determined that the shooting mode is not set (step S202: No), the display device body 5 proceeds to step S219.

一方、撮影モードに設定されていると判断された場合(ステップS202:Yes)には、本体側通信制御部591は、本体側通信部58を介して、レンズ型カメラ4に対してライブビュー画像データの送信要求を行うとともに、レンズ型カメラ4からライブビュー画像データ(第1タイムスタンプを含む)を受信する(ステップS203)。そして、本体側通信制御部591は、当該受信したライブビュー画像データを本体側メモリ部56に記憶する。
なお、ライブビュー画像データは、本発明に係る基準画像データに相当する。すなわち、本体側通信制御部591は、本発明に係る基準画像取得部としての機能を有する。そして、ステップS203は、本発明に係る第1取得ステップに相当する。
続いて、本体側表示制御部593は、本体側メモリ部56に記憶された最新のライブビュー画像データに対応するライブビュー画像を表示部52に表示(ライブビュー表示)させる(ステップS204)。
On the other hand, when it is determined that the shooting mode is set (step S202: Yes), the main body side communication control unit 591 performs a live view image on the lens camera 4 via the main body side communication unit 58. A request for data transmission is made and live view image data (including the first time stamp) is received from the lens-type camera 4 (step S203). Then, the main body side communication control unit 591 stores the received live view image data in the main body side memory unit 56.
The live view image data corresponds to the reference image data according to the present invention. That is, the main body side communication control unit 591 has a function as a reference image acquisition unit according to the present invention. Step S203 corresponds to the first acquisition step according to the present invention.
Subsequently, the main body side display control unit 593 displays a live view image corresponding to the latest live view image data stored in the main body side memory unit 56 on the display unit 52 (live view display) (step S204).

続いて、本体側制御部59は、カメラユーザによる入力部51への撮影パラメータの変更操作があったか否かを判断する(ステップS205)。
撮影パラメータの変更操作がないと判断された場合(ステップS205:No)には、表示装置本体5は、ステップS207に移行する。
一方、撮影パラメータの変更操作があったと判断された場合(ステップS205:Yes)には、本体側撮像制御部592は、本体側通信部58を介して、撮影パラメータの変更指示をレンズ型カメラ4に送信する(ステップS206)。
Subsequently, the main body side control unit 59 determines whether or not the camera user has performed an operation for changing the shooting parameter to the input unit 51 (step S205).
When it is determined that there is no operation for changing the shooting parameter (step S205: No), the display device body 5 proceeds to step S207.
On the other hand, if it is determined that there has been an operation for changing the shooting parameter (step S205: Yes), the main body side imaging control unit 592 issues an instruction to change the shooting parameter via the main body side communication unit 58. (Step S206).

ステップS206の後、または、ステップS205で撮影パラメータの変更操作がないと判断した場合(ステップS205:No)には、本体側制御部59は、本体側メモリ部56に記憶された関連画像の表示フラグがオン状態であるか否かを判断する(ステップS207)。
関連画像の表示フラグがオフ状態であると判断された場合(ステップS207:No)には、表示装置本体5は、ステップS210に移行する。
After step S206 or when it is determined in step S205 that there is no shooting parameter change operation (step S205: No), the main body side control unit 59 displays the related image stored in the main body side memory unit 56. It is determined whether or not the flag is on (step S207).
When it is determined that the related image display flag is off (step S207: No), the display device body 5 proceeds to step S210.

一方、関連画像の表示フラグがオン状態であると判断した場合(ステップS207:Yes)には、本体側制御部59は、位置取得部55にて取得された撮影位置情報を本体側メモリ部56に記憶する(ステップS208)。
続いて、本体側制御部59は、サーバ3から関連画像データを受信し、ライブビュー画像とともに当該関連画像データに対応する関連画像を表示する関連画像表示処理を実行する(ステップS209)。
なお、関連画像表示処理(ステップS209)の詳細については、後述する。
On the other hand, when it is determined that the display flag of the related image is on (step S207: Yes), the main body side control unit 59 uses the shooting position information acquired by the position acquisition unit 55 as the main body side memory unit 56. (Step S208).
Subsequently, the main body control unit 59 receives the related image data from the server 3 and executes a related image display process for displaying the related image corresponding to the related image data together with the live view image (step S209).
The details of the related image display process (step S209) will be described later.

ステップS209の後、または、ステップS207で関連画像の表示フラグがオフ状態であると判断した場合(ステップS207:No)には、本体側制御部59は、カメラユーザによる入力部51への撮影操作があったか否かを判断する(ステップS210)。
撮影操作がないと判断された場合(ステップS210:No)には、表示装置本体5は、ステップS218に移行する。
一方、撮影操作があったと判断された場合(ステップS210:Yes)には、本体側撮像制御部592は、位置取得部55にて取得された撮影位置情報を本体側メモリ部56に記憶する(ステップS211)。
続いて、本体側撮像制御部592は、本体側通信部58を介して、撮影指示(ステップS211で本体側メモリ部56に記憶された撮影位置情報を含む)をレンズ型カメラ4に送信する(ステップS212)。そして、本体側撮像制御部592は、レンズ型カメラ4から転送された撮影画像データ(第1タイムスタンプ及び撮影位置情報を含む)を画像データ記録部572に記録する(ステップS213)。
なお、撮影画像データは、本発明に係る基準画像データに相当する。すなわち、本体側撮像制御部592は、本発明に係る基準画像取得部としての機能を有する。また、ステップS213は、本発明に係る第1取得ステップに相当する。
After step S209 or when it is determined in step S207 that the related image display flag is off (step S207: No), the main body side control unit 59 performs a photographing operation on the input unit 51 by the camera user. It is determined whether or not there is (step S210).
When it is determined that there is no shooting operation (step S210: No), the display device body 5 proceeds to step S218.
On the other hand, when it is determined that there has been a shooting operation (step S210: Yes), the main body side imaging control unit 592 stores the shooting position information acquired by the position acquisition unit 55 in the main body side memory unit 56 ( Step S211).
Subsequently, the main body side imaging control unit 592 transmits a photographing instruction (including the photographing position information stored in the main body side memory unit 56 in step S211) to the lens type camera 4 via the main body side communication unit 58 ( Step S212). Then, the main body side imaging control unit 592 records the captured image data (including the first time stamp and the imaging position information) transferred from the lens type camera 4 in the image data recording unit 572 (step S213).
The photographed image data corresponds to the reference image data according to the present invention. That is, the main body side imaging control unit 592 has a function as a reference image acquisition unit according to the present invention. Step S213 corresponds to the first acquisition step according to the present invention.

続いて、本体側制御部59は、本体側メモリ部56に記憶された関連画像の表示フラグがオン状態であるか否かを判断する(ステップS214)。
関連画像の表示フラグがオフ状態であると判断された場合(ステップS214:No)には、本体側表示制御部593は、画像データ記録部572に記録された最新の撮影画像データに対応する撮影画像を表示部52に表示させる(ステップS215)。
続いて、本体側制御部59は、カメラユーザによる入力部51への表示終了操作(撮影画像の表示を終了するユーザ操作)があったか否かを判断する(ステップS216)。
表示終了操作があったと判断された場合(ステップS216:Yes)には、表示装置本体5は、ステップS218に移行する。
一方、表示終了操作がないと判断された場合(ステップS216:No)には、本体側表示制御部593は、ステップS215に戻り、撮影画像の表示を継続する。
Subsequently, the main body side control unit 59 determines whether or not the display flag of the related image stored in the main body side memory unit 56 is on (step S214).
When it is determined that the related image display flag is off (step S214: No), the main body side display control unit 593 performs shooting corresponding to the latest captured image data recorded in the image data recording unit 572. The image is displayed on the display unit 52 (step S215).
Subsequently, the main body side control unit 59 determines whether or not there has been a display end operation (user operation to end display of the captured image) on the input unit 51 by the camera user (step S216).
When it is determined that the display end operation has been performed (step S216: Yes), the display device body 5 proceeds to step S218.
On the other hand, when it is determined that there is no display end operation (step S216: No), the main body side display control unit 593 returns to step S215 and continues displaying the captured image.

ステップS214で関連画像の表示フラグがオン状態であると判断した場合(ステップS214:Yes)には、本体側制御部59は、サーバ3から関連画像データを受信し、撮影画像とともに当該関連画像データに対応する関連画像を表示する関連画像表示処理を実行する(ステップS217)。
なお、関連画像表示処理(ステップS217)の詳細については、後述する。
If it is determined in step S214 that the related image display flag is on (step S214: Yes), the main body side control unit 59 receives the related image data from the server 3, and the related image data together with the captured image. The related image display processing for displaying the related image corresponding to is executed (step S217).
Details of the related image display process (step S217) will be described later.

ステップS210で撮影操作がないと判断した場合(ステップS210:No)、ステップS216で表示終了操作があったと判断した場合(ステップS216:Yes)、または、ステップS217の後、本体側制御部59は、カメラユーザによる入力部51へのモード変更操作(表示装置本体5のモード(撮影モードや再生モード等)を変更するユーザ操作)があったか否かを判断する(ステップS218)。
モード変更操作があったと判断された場合(ステップS218:Yes)には、表示装置本体5は、ステップS201に移行する。
一方、モード変更操作がないと判断された場合(ステップS218:No)には、表示装置本体5は、ステップS203に戻り、撮影モードを継続する。
If it is determined in step S210 that there is no shooting operation (step S210: No), if it is determined in step S216 that there is a display end operation (step S216: Yes), or after step S217, the main body side control unit 59 Then, it is determined whether or not there has been a mode change operation (a user operation for changing the mode of the display device body 5 (such as a shooting mode or a playback mode)) on the input unit 51 by the camera user (step S218).
When it is determined that the mode change operation has been performed (step S218: Yes), the display device body 5 proceeds to step S201.
On the other hand, when it is determined that there is no mode change operation (step S218: No), the display device body 5 returns to step S203 and continues the photographing mode.

ステップS202で撮影モードに設定されていないと判断した場合(ステップS202:No)には、本体側制御部59は、表示装置本体5が再生モード(レンズ型カメラ4(カメラ側記録部48)に記録された撮影画像データに対応する撮影画像を表示するモード)に設定されているか否かを判断する(ステップS219)。
再生モードに設定されていないと判断された場合(ステップS219:No)には、表示装置本体5は、ステップS231に移行する。
一方、再生モードに設定されていると判断された場合(ステップS219:Yes)には、本体側通信制御部591は、本体側通信部58を介して、画像一覧の送信要求をレンズ型カメラ4に送信するとともに、当該画像一覧をレンズ型カメラ4から受信する(ステップS220)。
When it is determined in step S202 that the shooting mode is not set (step S202: No), the main body side control unit 59 causes the display device main body 5 to switch to the playback mode (lens type camera 4 (camera side recording unit 48)). It is determined whether or not it is set to a mode for displaying a captured image corresponding to the recorded captured image data (step S219).
If it is determined that the playback mode is not set (step S219: No), the display device body 5 proceeds to step S231.
On the other hand, when it is determined that the playback mode is set (step S219: Yes), the main body side communication control unit 591 sends an image list transmission request to the lens camera 4 via the main body side communication unit 58. And the image list is received from the lens-type camera 4 (step S220).

続いて、本体側表示制御部593は、ステップS220で受信した画像一覧を表示部52に表示させ(ステップS221)、カメラユーザに対して画像一覧中の一画像の選択を促す。
続いて、本体側制御部59は、カメラユーザによる入力部51への選択操作(画像一覧中の一画像を選択するユーザ操作)があったか否かを判断する(ステップS222)。
画像の選択操作がないと判断された場合(ステップS222:No)には、表示装置本体5は、ステップS221に戻り、画像一覧の表示を継続する。
一方、画像の選択操作があったと判断された場合(ステップS222:Yes)には、本体側通信制御部591は、本体側通信部58を介して、当該選択操作により選択された画像に対応する対応画像データの送信要求をレンズ型カメラ4に送信するとともに、当該対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)をレンズ型カメラ4から受信する(ステップS223)。そして、本体側通信制御部591は、当該受信した対応画像データを本体側メモリ部56に記憶する。
なお、対応画像データは、本発明に係る基準画像データに相当する。すなわち、ステップS223は、本発明に係る第1取得ステップに相当する。
Subsequently, the main body side display control unit 593 displays the image list received in step S220 on the display unit 52 (step S221), and prompts the camera user to select one image in the image list.
Subsequently, the main body side control unit 59 determines whether or not there has been a selection operation (a user operation for selecting one image in the image list) on the input unit 51 by the camera user (step S222).
If it is determined that there is no image selection operation (step S222: No), the display device body 5 returns to step S221 and continues displaying the image list.
On the other hand, when it is determined that there has been an image selection operation (step S222: Yes), the main body side communication control unit 591 corresponds to the image selected by the selection operation via the main body side communication unit 58. The corresponding image data transmission request is transmitted to the lens-type camera 4, and the corresponding image data (including the first time stamp and the photographing position information) is received from the lens-type camera 4 (step S223). Then, the main body side communication control unit 591 stores the received corresponding image data in the main body side memory unit 56.
Note that the corresponding image data corresponds to the reference image data according to the present invention. That is, step S223 corresponds to the first acquisition step according to the present invention.

続いて、本体側制御部59は、本体側メモリ部56に記憶された関連画像の表示フラグがオン状態であるか否かを判断する(ステップS224)。
関連画像の表示フラグがオフ状態であると判断された場合(ステップS224:No)には、本体側表示制御部593は、本体側メモリ部56に記憶された最新の対応画像データに対応する対応画像を表示部52に表示させる(ステップS225)。
Subsequently, the main body side control unit 59 determines whether or not the display flag of the related image stored in the main body side memory unit 56 is on (step S224).
When it is determined that the related image display flag is off (step S224: No), the main body side display control unit 593 corresponds to the latest corresponding image data stored in the main body side memory unit 56. The image is displayed on the display unit 52 (step S225).

続いて、本体側制御部59は、カメラユーザによる入力部51への対応画像データのアップ操作があったか否かを判断する(ステップS226)。
アップ操作がないと判断された場合(ステップS226:No)には、表示装置本体5は、ステップS228に移行する。
一方、アップ操作があったと判断された場合(ステップS226:Yes)には、本体側通信制御部591は、以下の処理を実行する(ステップS227)。
すなわち、本体側通信制御部591は、本体側通信部58を介して、インターネット網Nに接続されたサーバ3にアクセス信号(対応画像データの記録要求(自身の表示装置本体5の識別情報を含む))を送信し、サーバ3との間で通信接続を確立する。そして、本体側通信制御部591は、本体側メモリ部56に記憶された最新の対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)をサーバ3に送信する。
Subsequently, the main body control unit 59 determines whether or not the camera user has performed an operation for uploading the corresponding image data to the input unit 51 (step S226).
When it is determined that there is no up operation (step S226: No), the display device body 5 proceeds to step S228.
On the other hand, when it is determined that the up operation has been performed (step S226: Yes), the main body side communication control unit 591 executes the following processing (step S227).
That is, the main body side communication control unit 591 sends an access signal (corresponding image data recording request (identification information of its own display device main body 5) to the server 3 connected to the Internet N via the main body side communication unit 58. )) To establish a communication connection with the server 3. Then, the main body side communication control unit 591 transmits the latest corresponding image data (including the first time stamp and shooting position information) stored in the main body side memory unit 56 to the server 3.

ステップS227の後、または、ステップS226で対応画像データのアップ操作がないと判断した場合(ステップS226:No)には、本体側制御部59は、カメラユーザによる入力部51への表示終了操作(対応画像の表示を終了するユーザ操作)があったか否かを判断する(ステップS228)。
表示終了操作があったと判断された場合(ステップS228:Yes)には、表示装置本体5は、ステップS230に移行する。
一方、表示終了操作がないと判断された場合(ステップS228:No)には、本体側表示制御部593は、ステップS225に戻り、対応画像の表示を継続する。
After step S227 or when it is determined in step S226 that there is no corresponding image data up operation (step S226: No), the main body side control unit 59 performs a display end operation on the input unit 51 by the camera user ( It is determined whether or not there has been a user operation to end the display of the corresponding image (step S228).
If it is determined that the display end operation has been performed (step S228: Yes), the display device body 5 proceeds to step S230.
On the other hand, when it is determined that there is no display end operation (step S228: No), the main body side display control unit 593 returns to step S225 and continues displaying the corresponding image.

ステップS224で関連画像の表示フラグがオン状態であると判断した場合(ステップS224:Yes)には、本体側制御部59は、サーバ3から関連画像データを受信し、対応画像とともに当該関連画像データに対応する関連画像を表示する関連画像表示処理を実行する(ステップS229)。
なお、関連画像表示処理(ステップS229)の詳細については、後述する。
If it is determined in step S224 that the related image display flag is on (step S224: Yes), the main body control unit 59 receives the related image data from the server 3, and the related image data together with the corresponding image. The related image display processing for displaying the related image corresponding to is executed (step S229).
Details of the related image display process (step S229) will be described later.

ステップS228で表示終了操作があったと判断した場合(ステップS228:Yes)、または、ステップS229の後、本体側制御部59は、カメラユーザによる入力部51へのモード変更操作があったか否かを判断する(ステップS230)。
モード変更操作があったと判断された場合(ステップS230:Yes)には、表示装置本体5は、ステップS201に移行する。
一方、モード変更操作がないと判断された場合(ステップS230:No)には、表示装置本体5は、ステップS220に戻り、再生モードを継続する。
When it is determined in step S228 that a display end operation has been performed (step S228: Yes), or after step S229, the main body control unit 59 determines whether or not a mode change operation has been performed on the input unit 51 by the camera user. (Step S230).
If it is determined that there has been a mode change operation (step S230: Yes), the display device body 5 proceeds to step S201.
On the other hand, when it is determined that there is no mode change operation (step S230: No), the display device body 5 returns to step S220 and continues the reproduction mode.

ステップS219で再生モードに設定されていないと判断された場合(ステップS219:No)には、表示装置本体5は、上述した処理とは異なる他の処理を実行する(ステップS231)。この後、表示装置本体5は、ステップS201に戻る。
例えば、表示装置本体5は、ステップS231において、カメラユーザによる入力部51へのユーザ操作や、本体側通信部58を介して外部機器から受信した情報等に基づいて、通信を行う相手方を設定する処理等を実行する。
If it is determined in step S219 that the playback mode has not been set (step S219: No), the display device body 5 executes another process different from the process described above (step S231). Thereafter, the display device body 5 returns to Step S201.
For example, in step S231, the display device main body 5 sets a counterpart to perform communication based on a user operation on the input unit 51 by a camera user, information received from an external device via the main body side communication unit 58, or the like. Execute processing etc.

〔関連画像表示処理〕
次に、上述した関連画像表示処理(ステップS209,S217,S229)について説明する。
なお、ステップS209,S217,S229における各関連画像表示処理は、関連画像とともに表示する対象がそれぞれライブビュー画像、撮影画像、及び対応画像である点が異なるのみである。このため、以下では、当該表示する対象であるライブビュー画像、撮影画像、及び対応画像を基準画像(ライブビュー画像データ、撮影画像データ、及び対応画像データを基準画像データ)と記載し、ステップS209,S217,S229における各関連画像表示処理を纏めて説明する。
[Related image display processing]
Next, the related image display process (steps S209, S217, S229) described above will be described.
Each related image display process in steps S209, S217, and S229 is different in that the objects to be displayed together with the related image are a live view image, a captured image, and a corresponding image, respectively. Therefore, hereinafter, the live view image, the captured image, and the corresponding image, which are the objects to be displayed, are referred to as a reference image (the live view image data, the captured image data, and the corresponding image data are referred to as reference image data), and step S209. , S217, and S229 will be described together.

図7は、関連画像表示処理(ステップS209,S217,S229)を示すフローチャートである。
先ず、本体側通信制御部591は、以下の処理を実行する(ステップS232)。
すなわち、本体側通信制御部591は、本体側通信部58を介して、インターネット網Nに接続されたサーバ3にアクセス信号(関連画像データの送信要求(自身の表示装置本体5の識別情報を含む))を送信し、サーバ3との間で通信接続を確立する。そして、本体側通信制御部591は、撮影位置情報及び抽出範囲情報をサーバ3に送信する。
FIG. 7 is a flowchart showing related image display processing (steps S209, S217, and S229).
First, the main body side communication control unit 591 executes the following processing (step S232).
That is, the main body side communication control unit 591 sends an access signal (related image data transmission request (identification information of its own display device main body 5) to the server 3 connected to the Internet network N via the main body side communication unit 58. )) To establish a communication connection with the server 3. Then, the main body side communication control unit 591 transmits the shooting position information and the extraction range information to the server 3.

ここで、サーバ3に送信する撮影位置情報は、ステップS209での関連画像表示処理(基準画像がライブビュー画像)の場合には、ステップS208で本体側メモリ部56に記憶された撮影位置情報である。また、ステップS217での関連画像表示処理(基準画像が撮影画像)の場合には、当該撮影位置情報は、ステップS213で画像データ記録部572に記録された最新の撮影画像データに含まれる撮影位置情報である。さらに、ステップS229での関連画像表示処理(基準画像が対応画像)の場合には、当該撮影位置情報は、ステップS223で本体側メモリ部56に記憶された最新の対応画像データに含まれる撮影位置情報である。
また、サーバ3に送信する抽出範囲情報は、第1〜第3抽出範囲情報のうち、本体側記録部57から読み出され、本体側メモリ部56に記憶された一の抽出範囲情報である。
Here, the shooting position information transmitted to the server 3 is the shooting position information stored in the main body memory unit 56 in step S208 in the case of the related image display processing in step S209 (the reference image is a live view image). is there. Further, in the case of related image display processing in step S217 (the reference image is a captured image), the shooting position information includes the shooting position included in the latest captured image data recorded in the image data recording unit 572 in step S213. Information. Further, in the case of the related image display process (the reference image is the corresponding image) in step S229, the shooting position information is the shooting position included in the latest corresponding image data stored in the main body memory unit 56 in step S223. Information.
The extraction range information transmitted to the server 3 is one extraction range information read from the main body side recording unit 57 and stored in the main body side memory unit 56 among the first to third extraction range information.

ステップS232の後、本体側通信制御部591は、本体側通信部58を介して、サーバ3から第1〜第3関連画像データを受信し、本体側メモリ部56に記憶する(ステップS233:第2取得ステップ)。   After step S232, the main body side communication control unit 591 receives the first to third related image data from the server 3 via the main body side communication unit 58, and stores them in the main body side memory unit 56 (step S233: second). 2 acquisition step).

続いて、本体側表示制御部593は、以下に示すように、表示部52に表示させる表示画面を生成する表示画面生成処理を実行する(ステップS234)。
図8は、表示画面生成処理(ステップS234)を示すフローチャートである。図9及び図10は、表示画面生成処理(ステップS234)を説明するための図である。
具体的に、図9は、ステップS232でサーバ3に送信した撮影位置情報に基づく撮影位置PS(以下、基準位置PSと記載)周辺の地図上に当該基準位置PS周辺で撮影された各画像データ(サーバ3のデータベース32に記録された各対応画像データ)にそれぞれ対応する各撮影画像F101〜F105を当該撮影画像F101〜F105の各撮影位置P101〜P105にそれぞれ配置した状態を示した図である。図10は、表示画面生成処理(ステップS234)にて生成された表示画面W100を示している。
Subsequently, the main body side display control unit 593 executes display screen generation processing for generating a display screen to be displayed on the display unit 52 as described below (step S234).
FIG. 8 is a flowchart showing the display screen generation process (step S234). 9 and 10 are diagrams for explaining the display screen generation process (step S234).
Specifically, FIG. 9 shows image data photographed around the reference position PS on a map around the photographing position PS (hereinafter referred to as the reference position PS) based on the photographing position information transmitted to the server 3 in step S232. It is the figure which showed the state which each arrange | positioned each imaging | photography image F101-F105 each corresponding to (each corresponding | compatible image data recorded on the database 32 of the server 3) to each imaging | photography position P101-P105 of the said imaging | photography image F101-F105, respectively. . FIG. 10 shows the display screen W100 generated in the display screen generation process (step S234).

ここで、各撮影位置P101,P102は、基準位置PSに対して第1距離D1(サーバ3に送信した抽出範囲情報(第1〜第3抽出範囲情報のいずれか)に基づく第1距離D1)未満の範囲内に位置するものとする。すなわち、撮影画像F101,F102は、第1関連画像データに相当する。また、各撮影位置P103〜P105は、基準位置PSに対して第1距離D1以上、第2距離D2(当該抽出範囲情報に基づく第2距離D2)未満の範囲内に位置するものとする。すなわち、撮影画像F103〜F105は、第2関連画像データに相当する。図9では、説明の便宜上、第3関連画像データに相当する撮影画像の図示は省略したが、図10に示す撮影画像F106〜F110の各撮影位置は、基準位置PSに対して第2距離D2以上、第3距離(当該抽出範囲情報に基づく第3距離)未満の範囲内に位置するものであり、当該撮影画像F106〜F110が第3関連画像データに相当する画像である。   Here, each imaging position P101, P102 is the first distance D1 (first distance D1 based on the extraction range information (any of the first to third extraction range information) transmitted to the server 3) with respect to the reference position PS. It shall be located within the range of less than. That is, the captured images F101 and F102 correspond to the first related image data. In addition, each of the photographing positions P103 to P105 is located within a range that is greater than or equal to the first distance D1 and less than the second distance D2 (second distance D2 based on the extraction range information) with respect to the reference position PS. That is, the captured images F103 to F105 correspond to second related image data. In FIG. 9, for convenience of explanation, the captured image corresponding to the third related image data is not shown, but the captured positions of the captured images F106 to F110 illustrated in FIG. 10 are the second distance D2 with respect to the reference position PS. As described above, the captured image F106 to F110 is an image corresponding to the third related image data, which is located within the range of the third distance (the third distance based on the extraction range information).

そして、図10に示すように、表示画面W100中、当該表示画面W100の下方に位置し、当該表示画面W100の横方向(第1方向)に沿って延びる領域を第1領域Ar1とする。この第1領域Ar1の幅(縦方向の長さ)は、表示画面W100の縦方向の長さの1/2の大きさである。また、表示画面W100中、第1領域Ar1の直上に位置し、当該表示画面W100の横方向に延びる領域を第2領域Ar2とする。この第2領域Ar2の幅は、表示画面W100の縦方向の長さの1/3の大きさである。さらに、表示画面W100中、第2領域Ar2の直上に位置し(当該表示画面W100の上方に位置し)、当該表示画面W100の横方向に沿って延びる領域を第3領域Ar3とする。この第3領域Ar3の幅(縦方向の長さ)は、表示画面W100の縦方向の長さの1/5の大きさである。   Then, as shown in FIG. 10, a region located below the display screen W100 in the display screen W100 and extending along the horizontal direction (first direction) of the display screen W100 is defined as a first region Ar1. The width (length in the vertical direction) of the first region Ar1 is ½ the length in the vertical direction of the display screen W100. In addition, a region that is located immediately above the first region Ar1 in the display screen W100 and extends in the horizontal direction of the display screen W100 is referred to as a second region Ar2. The width of the second region Ar2 is 1/3 of the vertical length of the display screen W100. Further, in the display screen W100, a region that is located immediately above the second region Ar2 (located above the display screen W100) and extends along the horizontal direction of the display screen W100 is referred to as a third region Ar3. The width (length in the vertical direction) of the third region Ar3 is 1/5 of the length in the vertical direction of the display screen W100.

先ず、本体側表示制御部593は、本体側メモリ部56または画像データ記録部572に記憶された最新の基準画像データに対応する基準画像(図10の例では、基準画像FS)、及びステップS233で本体側メモリ部56に記録された第1関連画像データに対応する第1関連画像(図9及び図10の例では、撮影画像F101,F102)を横方向に並べて、第1領域Ar1に配置する(ステップS2341)。
この際、本体側表示制御部593は、第1領域Ar1において、基準画像を横方向の中央部分に配置し、その左右に基準画像と同一の大きさで第1関連画像を配置する。なお、図10の例では、撮影画像F101,F102が表示画面W100内に入りきらないため、当該撮影画像F101,F102の半分のみを配置している。また、本体側表示制御部593は、基準画像を他の関連画像に対して識別可能とするために、基準画像の外縁を太枠とする。
First, the main body side display control unit 593 generates a reference image (reference image FS in the example of FIG. 10) corresponding to the latest reference image data stored in the main body side memory unit 56 or the image data recording unit 572, and step S233. The first related images corresponding to the first related image data recorded in the main body memory unit 56 (in the examples of FIGS. 9 and 10, the captured images F101 and F102) are arranged in the horizontal direction and arranged in the first area Ar1. (Step S2341).
At this time, the main body side display control unit 593 arranges the reference image in the central portion in the horizontal direction in the first region Ar1, and arranges the first related images with the same size as the reference image on the left and right. In the example of FIG. 10, since the captured images F101 and F102 do not fully fit within the display screen W100, only half of the captured images F101 and F102 are arranged. In addition, the main body side display control unit 593 sets the outer edge of the reference image as a thick frame so that the reference image can be distinguished from other related images.

続いて、本体側表示制御部593は、ステップS233で本体側メモリ部56に記憶された第2関連画像データに対応する第2関連画像(図9及び図10の例では、撮影画像F103〜F105)を横方向に並べて、第2領域Ar2に配置する(ステップS2342)。
この際、本体側表示制御部593は、基準画像の2/3の大きさで第2関連画像を第2領域Ar2に配置する。
Subsequently, the main body side display control unit 593 displays the second related image corresponding to the second related image data stored in the main body side memory unit 56 in step S233 (in the example of FIGS. 9 and 10, the captured images F103 to F105). ) Are arranged in the second region Ar2 in the horizontal direction (step S2342).
At this time, the main body side display control unit 593 arranges the second related image in the second area Ar2 with a size 2/3 of the reference image.

続いて、本体側表示制御部593は、ステップS233で本体側メモリ部56に記憶された第3関連画像データに対応する第3関連画像(図10の例では、撮影画像F106〜F110)を横方向に並べて、第3領域Ar3に配置する(ステップS2343)。
この際、本体側表示制御部593は、基準画像の2/5の大きさで第3関連画像を第3領域Ar3に配置する。
Subsequently, the main body side display control unit 593 laterally displays the third related images (in the example of FIG. 10, the captured images F106 to F110) corresponding to the third related image data stored in the main body side memory unit 56 in step S233. Arranged in the direction and arranged in the third region Ar3 (step S2343).
At this time, the main body side display control unit 593 arranges the third related image in the third area Ar3 with a size 2/5 of the reference image.

続いて、本体側表示制御部593は、第1領域Ar1に、抽出範囲情報の変更を促す操作アイコンを配置する(ステップS2344)。
図10の例では、本体側表示制御部593は、第1領域Ar1の左下に、3つの操作アイコンA1〜A3を配置している。
具体的に、操作アイコンA1は、カメラユーザにより操作(入力部(タッチパネル)51へのタッチ操作)されることで、本体側メモリ部56に記憶された抽出範囲情報を第1抽出範囲情報(第1距離が「125m」、第2距離が「250m」、第3距離が「500m」)に更新するためのアイコンである。操作アイコンA2は、カメラユーザにより操作されることで、本体側メモリ部56に記憶された抽出範囲情報を第2抽出範囲情報(第1距離が「250m」、第2距離が「500m」、第3距離が「1km」)に更新するためのアイコンである。操作アイコンA3は、カメラユーザにより操作されることで、本体側メモリ部56に記憶された抽出範囲情報を第3抽出範囲情報(第1距離が「500m」、第2距離が「1km」、第3距離が「2km」)に更新するためのアイコンである。
Subsequently, the main body side display control unit 593 arranges an operation icon for urging the change of the extraction range information in the first area Ar1 (step S2344).
In the example of FIG. 10, the main body side display control unit 593 arranges three operation icons A1 to A3 at the lower left of the first area Ar1.
Specifically, the operation icon A1 is operated by the camera user (touch operation on the input unit (touch panel) 51), and the extraction range information stored in the main body side memory unit 56 is changed to the first extraction range information (first operation). This is an icon for updating the first distance to “125 m”, the second distance to “250 m”, and the third distance to “500 m”. When the operation icon A2 is operated by the camera user, the extraction range information stored in the main body side memory unit 56 is converted into the second extraction range information (the first distance is “250 m”, the second distance is “500 m”, the first This is an icon for updating 3 distances to “1 km”). When the operation icon A3 is operated by the camera user, the extraction range information stored in the main body side memory unit 56 is converted into the third extraction range information (the first distance is “500 m”, the second distance is “1 km”, the first This is an icon for updating 3 distances to “2 km”).

なお、図10の例では、操作アイコンA3が操作され、本体側メモリ部56に記憶された抽出範囲情報が第3抽出範囲情報に更新された状態(操作された操作アイコンA3を黒表示、その他の操作アイコンA1,A2を白表示)を示している。
また、図10の例では、操作アイコンA1〜A3の上方には、操作された操作アイコンA3に対応する第3抽出範囲情報に基づく文字情報が配置されている。
ここで、文字情報は、操作された操作アイコンA1〜A3に対応する抽出範囲情報に基づく第3距離の数値(図10の例では、「2km」)とともに、吹き出し内に第1〜第3距離の全ての数値(図10の例では、「500m」、「1km」、「2km」)を含む情報である。
以上のステップS2341〜S2344により、表示画面(図10の例では、表示画面W100)が生成される。この後、表示装置本体5は、図7に示したルーチンに戻る。
In the example of FIG. 10, the operation icon A3 is operated, and the extraction range information stored in the main body side memory unit 56 is updated to the third extraction range information (the operated operation icon A3 is displayed in black, etc. Operation icons A1 and A2 are displayed in white).
In the example of FIG. 10, character information based on the third extraction range information corresponding to the operated operation icon A3 is arranged above the operation icons A1 to A3.
Here, the character information includes the first distance to the third distance in the balloon together with the numerical value of the third distance (“2 km” in the example of FIG. 10) based on the extraction range information corresponding to the operated operation icons A1 to A3. Are all information (in the example of FIG. 10, “500 m”, “1 km”, “2 km”).
Through the above steps S2341 to S2344, the display screen (display screen W100 in the example of FIG. 10) is generated. Thereafter, the display device body 5 returns to the routine shown in FIG.

ステップS234の後、本体側表示制御部593は、表示部52における画面の一方側から徐々に基準画像、及び第1〜第3関連画像が現れる態様で表示部52に表示させた後、ステップS234で生成した表示画面を表示部52に表示させる(ステップS235:表示ステップ)。   After step S234, the main body side display control unit 593 causes the display unit 52 to gradually display the reference image and the first to third related images from one side of the screen of the display unit 52, and then performs step S234. The display screen generated in the above is displayed on the display unit 52 (step S235: display step).

図11は、ステップS235を説明するための図である。具体的に、図11は、図9及び図10に対応した図である。
例えば、本体側表示制御部593は、ステップS235において、図11(a)〜図11(d)に示すように、表示部52における画面の右側から徐々に、第1〜第3領域Ar1〜Ar2に配置した各画像FS,F101〜F110が現れる態様で表示部52に表示させる。そして、本体側表示制御部593は、図11(d)に示すように、最終的に、ステップS234で生成した表示画面W100を表示部52に表示させる。
FIG. 11 is a diagram for explaining step S235. Specifically, FIG. 11 corresponds to FIGS. 9 and 10.
For example, in step S235, the main body side display control unit 593 gradually starts with the first to third regions Ar1 to Ar2 from the right side of the screen in the display unit 52 as shown in FIGS. 11 (a) to 11 (d). Are displayed on the display unit 52 in such a manner that the respective images FS, F101 to F110 arranged in FIG. Then, the main body side display control unit 593 finally causes the display unit 52 to display the display screen W100 generated in step S234, as shown in FIG.

ステップS235の後、本体側制御部59は、カメラユーザによる入力部51への変更操作(表示画面を変更するユーザ操作)があったか否かを判断する(ステップS236)。
表示画面の変更操作がないと判断された場合(ステップS236:No)には、表示装置本体5は、ステップS238に移行する。
一方、表示画面の変更操作があったと判断された場合(ステップS236:Yes)には、本体側表示制御部593は、表示部52に表示させた表示画面において、第1〜第3領域Ar1〜Ar3のうち当該変更操作に対応する領域に配置された画像をスクロール(表示画面を変更)させる(ステップS237)。
After step S235, the main body control unit 59 determines whether or not there has been a change operation (user operation to change the display screen) on the input unit 51 by the camera user (step S236).
When it is determined that there is no display screen change operation (step S236: No), the display device body 5 proceeds to step S238.
On the other hand, when it is determined that the display screen has been changed (step S236: Yes), the main body side display control unit 593 displays the first to third regions Ar1 to Ar3 on the display screen displayed on the display unit 52. The image arranged in the area corresponding to the change operation in Ar3 is scrolled (display screen is changed) (step S237).

図12A及び図12Bは、ステップS236,S237を説明するための図である。具体的に、図12A及び図12Bは、図9〜図11に対応した図であり、カメラユーザにより表示画面の変更操作がなされた場合における表示画面の画面遷移を示している。
例えば、本体側表示制御部593は、図12A及び図12Bに示すように、カメラユーザが入力部(タッチパネル)51の第1領域Ar1を右方向にスワイプした場合には、第2,第3領域Ar2,Ar2に配置した各撮影画像F103〜F110については移動させずに、第1領域Ar1に配置した各画像FS,F101,F102を右方向に移動させる。この結果、半分のみが表示されていた撮影画像F101(図12A)は、その全体を表示するようになる(図12B)。
なお、カメラユーザが第1領域Ar1を左方向にスワイプした場合には、半分のみが表示されていた撮影画像F102は、その全体を表示するようになる。
12A and 12B are diagrams for explaining steps S236 and S237. Specifically, FIGS. 12A and 12B are diagrams corresponding to FIGS. 9 to 11, and illustrate screen transitions of the display screen when the display user changes the display screen.
For example, when the camera user swipes the first area Ar1 of the input unit (touch panel) 51 to the right as shown in FIGS. 12A and 12B, the main body side display control unit 593 displays the second and third areas. The captured images F103 to F110 arranged in Ar2 and Ar2 are not moved, and the images FS, F101, and F102 arranged in the first area Ar1 are moved in the right direction. As a result, the entire captured image F101 (FIG. 12A) in which only half is displayed is displayed (FIG. 12B).
When the camera user swipes the first area Ar1 leftward, the entire captured image F102 on which only half is displayed is displayed.

また、具体的な図示は省略したが、第2関連画像データが4つ以上あった場合(第2領域Ar2に配置しきれていない(表示画面W100に表示しきれていない)撮影画像があった場合)であって、カメラユーザが第2領域Ar2を左右にスワイプした場合には、第2領域Ar2に配置した撮影画像のみが左右に移動し、第2領域Ar2に配置しきれていなかった撮影画像が表示されることになる。
さらに、具体的な図示は省略したが、第3関連画像データが6つ以上あった場合(第3領域Ar3に配置しきれていない(表示画面W100に表示しきれていない)撮影画像があった場合)であって、カメラユーザが第3領域Ar3を左右にスワイプした場合には、第3領域Ar3に配置した撮影画像のみが左右に移動し、第3領域Ar3に配置しきれていなかった撮影画像が表示されることになる。
In addition, although not shown in detail, when there are four or more second related image data (there is a captured image that is not arranged in the second area Ar2 (not displayed on the display screen W100)). When the camera user swipes the second area Ar2 to the left and right, only the captured image arranged in the second area Ar2 moves to the left and right, and the image has not been arranged in the second area Ar2. An image will be displayed.
Further, although not specifically shown, when there are six or more third related image data (there is a captured image that is not completely arranged in the third area Ar3 (not fully displayed on the display screen W100)). When the camera user swipes the third area Ar3 to the left and right, only the captured image arranged in the third area Ar3 moves to the left and right, and the image has not been arranged in the third area Ar3. An image will be displayed.

ステップS237の後、または、ステップS236で表示画面の変更操作がないと判断した場合(ステップS236:No)には、本体側制御部59は、カメラユーザによる入力部51への表示終了操作(表示画面の表示を終了するユーザ操作)があったか否かを判断する(ステップS238)。
表示終了操作があったと判断された場合(ステップS238:Yes)には、表示装置本体5は、図6に示したメインルーチンに戻る。
一方、表示終了操作がないと判断した場合(ステップS238:No)には、本体側制御部59は、カメラユーザによる入力部51への変更操作(抽出範囲情報を変更するユーザ操作(図11(d)、図12A、及び図12Bの例では、操作アイコンA1〜A3への操作))があったか否かを判断する(ステップS239)。
変更操作がないと判断された場合(ステップS239:No)には、表示装置本体5は、ステップS236に移行する。
After step S237 or when it is determined in step S236 that there is no display screen change operation (step S236: No), the main body side control unit 59 performs a display end operation (display on the input unit 51 by the camera user). It is determined whether or not there has been a user operation for ending screen display (step S238).
If it is determined that a display end operation has been performed (step S238: Yes), the display device body 5 returns to the main routine shown in FIG.
On the other hand, when it is determined that there is no display end operation (step S238: No), the main body side control unit 59 performs a change operation to the input unit 51 by the camera user (a user operation (FIG. 11 (FIG. 11 d) In the example of FIGS. 12A and 12B, it is determined whether or not there has been an operation to the operation icons A1 to A3) (step S239).
When it is determined that there is no change operation (step S239: No), the display device body 5 proceeds to step S236.

一方、変更操作があったと判断した場合(ステップS239:Yes)には、本体側制御部59は、本体側メモリ部56に記憶された抽出範囲情報を、当該変更操作がなされた操作アイコン(図11(d)、図12A、及び図12Bの例では、操作アイコンA1〜A3)に対応する抽出範囲情報に更新(抽出範囲情報を変更)する(ステップS240)。
この後、表示装置本体5は、ステップS232に戻り、改めて関連画像データの送信要求(撮影位置情報及びステップS240で変更された抽出範囲情報を含む)を実行する。
On the other hand, if it is determined that there has been a change operation (step S239: Yes), the main body side control unit 59 uses the extraction range information stored in the main body side memory unit 56 as an operation icon (FIG. In the examples of FIG. 11D, FIG. 12A, and FIG. 12B, the extraction range information corresponding to the operation icons A1 to A3) is updated (extraction range information is changed) (step S240).
After that, the display device body 5 returns to step S232, and again executes a transmission request for related image data (including the shooting position information and the extraction range information changed in step S240).

〔サーバの動作〕
図13は、サーバ3の動作を示すフローチャートである。
サーバ側通信制御部331は、サーバ側通信部31及びインターネット網Nを介して、表示装置本体5からアクセス信号(対応画像データの記録要求(当該表示装置本体5の識別情報を含む))を受信したか否かを判断する(ステップS301)。
対応画像データの記録要求を受信していないと判断された場合(ステップS301:No)には、サーバ3は、ステップS305に移行する。
一方、対応画像データの記録要求を受信したと判断された場合(ステップS301:Yes)には、端末判定部332は、当該記録要求に基づいて、アクセスしてきた送信元の表示装置本体5を特定する(ステップS302)。
[Server operation]
FIG. 13 is a flowchart showing the operation of the server 3.
The server-side communication control unit 331 receives an access signal (corresponding image data recording request (including identification information of the display device body 5)) from the display device body 5 via the server-side communication unit 31 and the Internet network N. It is determined whether or not it has been done (step S301).
If it is determined that the corresponding image data recording request has not been received (step S301: No), the server 3 proceeds to step S305.
On the other hand, when it is determined that the recording request for the corresponding image data has been received (step S301: Yes), the terminal determination unit 332 identifies the display device body 5 that has been accessed based on the recording request. (Step S302).

続いて、サーバ側通信制御部331は、サーバ側通信部31及びインターネット網Nを介して、表示装置本体5から対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)を受信する(ステップS303)。
続いて、データベース管理部333は、ステップS303で受信した対応画像データをデータベース32に記録する(ステップS304)。この後、サーバ3は、ステップS301に戻る。
Subsequently, the server side communication control unit 331 receives the corresponding image data (including the first time stamp and the shooting position information) from the display device body 5 via the server side communication unit 31 and the Internet network N (step S303). ).
Subsequently, the database management unit 333 records the corresponding image data received in step S303 in the database 32 (step S304). Thereafter, the server 3 returns to step S301.

ステップS301で対応画像データの記録要求を受信していないと判断した場合(ステップS301:No)には、サーバ側通信制御部331は、サーバ側通信部31及びインターネット網Nを介して、表示装置本体5からアクセス信号(関連画像データの送信要求(当該表示装置本体5の識別情報を含む))を受信したか否かを判断する(ステップS305)。
関連画像データの送信要求を受信していないと判断された場合(ステップS305:No)には、サーバ3は、ステップS313に移行する。
一方、関連画像データの送信要求を受信したと判断された場合(ステップS305:Yes)には、端末判定部332は、当該送信要求に基づいて、アクセスしてきた送信元の表示装置本体5を特定する(ステップS306)。
続いて、サーバ側通信制御部331は、サーバ側通信部31及びインターネット網Nを介して、表示装置本体5から撮影位置情報及び抽出範囲情報を受信する(ステップS307)。
When it is determined in step S301 that the corresponding image data recording request has not been received (step S301: No), the server-side communication control unit 331 displays the display device via the server-side communication unit 31 and the Internet network N. It is determined whether or not an access signal (related image data transmission request (including identification information of the display device body 5)) has been received from the body 5 (step S305).
If it is determined that the related image data transmission request has not been received (step S305: No), the server 3 proceeds to step S313.
On the other hand, when it is determined that the transmission request for the related image data has been received (step S305: Yes), the terminal determination unit 332 specifies the display device body 5 of the transmission source that has accessed based on the transmission request. (Step S306).
Subsequently, the server side communication control unit 331 receives the shooting position information and the extraction range information from the display device body 5 via the server side communication unit 31 and the Internet network N (step S307).

続いて、距離算出部334は、ステップS307で受信した撮影位置情報に基づく基準位置(図9の例では、基準位置PS)と、データベース32に記録された複数の対応画像データに含まれる各撮影位置情報に基づく各撮影位置(図9の例では、撮影位置P101〜P105等)との間の各距離を算出する(ステップS308)。
図9の例において、基準位置PSの経度及び緯度がそれぞれ「K0」及び「I0」であり、撮影位置P101の経度及び緯度がそれぞれ「K1」及び「I1」であった場合には、距離算出部334は、以下の数式(1)により、基準位置PS及び撮影位置P101間の距離DS1を算出する。
Subsequently, the distance calculating unit 334 captures each of the shooting positions included in the reference position (the reference position PS in the example of FIG. 9) based on the shooting position information received in step S307 and the plurality of corresponding image data recorded in the database 32. Each distance between each shooting position (shooting positions P101 to P105 in the example of FIG. 9) based on the position information is calculated (step S308).
In the example of FIG. 9, when the longitude and latitude of the reference position PS are “K0” and “I0”, respectively, and the longitude and latitude of the shooting position P101 are “K1” and “I1”, respectively, distance calculation is performed. The unit 334 calculates the distance DS1 between the reference position PS and the shooting position P101 using the following formula (1).

Figure 0006368560
Figure 0006368560

続いて、関連画像抽出部335は、基準位置からの距離がステップS307で受信した抽出範囲情報に基づく第1距離未満の範囲内となる撮影位置で撮影された対応画像データを第1関連画像データ(図9及び図10の例では、撮影画像F101,F102)としてデータベース32から抽出する(ステップS309)。
続いて、関連画像抽出部335は、基準位置からの距離が第1距離以上、ステップS307で受信した抽出範囲情報に基づく第2距離未満の範囲内となる撮影位置で撮影された対応画像データを第2関連画像データ(図9及び図10の例では、撮影画像F103〜F105)としてデータベース32から抽出する(ステップS310)。
Subsequently, the related image extraction unit 335 sets the corresponding image data captured at the shooting position where the distance from the reference position is less than the first distance based on the extraction range information received in step S307 as the first related image data. (The captured images F101 and F102 in the examples of FIGS. 9 and 10) are extracted from the database 32 (step S309).
Subsequently, the related image extraction unit 335 captures corresponding image data captured at a shooting position where the distance from the reference position is greater than or equal to the first distance and less than the second distance based on the extraction range information received in step S307. It extracts from the database 32 as 2nd related image data (in the example of FIG.9 and FIG.10, the picked-up image F103-F105) (step S310).

続いて、関連画像抽出部335は、基準位置からの距離が第2距離以上、ステップS307で受信した抽出範囲情報に基づく第3距離未満の範囲内となる撮影位置で撮影された対応画像データを第3関連画像データ(図10の例では、撮影画像F106〜F110)としてデータベース32から抽出する(ステップS311)。
そして、サーバ側通信制御部331は、サーバ側通信部31及びインターネット網Nを介して、ステップS309〜S310で抽出された第1〜第3関連画像データを、ステップS306で特定された表示装置本体5に送信する(ステップS312)。この後、サーバ3は、ステップS301に戻る。
Subsequently, the related image extraction unit 335 captures corresponding image data captured at a shooting position where the distance from the reference position is greater than or equal to the second distance and less than the third distance based on the extraction range information received in step S307. It extracts from the database 32 as 3rd relevant image data (in the example of FIG. 10, taken image F106-F110) (step S311).
The server-side communication control unit 331 then displays the first to third related image data extracted in steps S309 to S310 via the server-side communication unit 31 and the Internet network N, and the display device main body specified in step S306. 5 (step S312). Thereafter, the server 3 returns to step S301.

ステップS305で関連画像データの送信要求を受信していないと判断された場合(ステップS305:No)には、サーバ3は、上述した処理とは異なる他の処理を実行する(ステップS313)。この後、サーバ3は、ステップS301に戻る。   If it is determined in step S305 that the related image data transmission request has not been received (step S305: No), the server 3 executes another process different from the process described above (step S313). Thereafter, the server 3 returns to step S301.

以上説明した本実施の形態1に係る表示装置2は、基準画像データと、当該基準画像データの撮影位置(基準位置)に対して所定距離の範囲内で撮影された関連画像データとを取得し、当該基準画像データに対応する基準画像(ライブビュー画像、撮影画像、または対応画像)、及び当該関連画像データに対応する関連画像を表示する。
このため、カメラユーザは、関連画像を確認することにより、基準位置の周辺での撮影により実際にどのような撮影画像を得ることができるのかを明確に把握することができる。したがって、本実施の形態1に係る表示装置2によれば、利便性の向上が図れる、という効果を奏する。
The display device 2 according to the first embodiment described above acquires the reference image data and the related image data captured within a predetermined distance from the shooting position (reference position) of the reference image data. The reference image (live view image, captured image, or corresponding image) corresponding to the reference image data and the related image corresponding to the related image data are displayed.
For this reason, the camera user can clearly grasp what kind of captured image can actually be obtained by photographing around the reference position by checking the related image. Therefore, according to the display device 2 according to the first embodiment, there is an effect that convenience can be improved.

また、表示装置2は、レンズ型カメラ4にて生成された画像データ(ライブビュー画像データや撮影画像データ(対応画像データを含む))を基準画像データとする。また、表示装置2は、当該基準画像データが生成された際の当該表示装置2の現在位置を基準位置として、関連画像データを取得する。
このため、カメラユーザは、自身で撮影した基準画像と他人が撮影した関連画像とを並べた状態で比較することができる。すなわち、カメラユーザに対して、撮影に対する関心度(関連画像と同じような撮影を行いたいという意志)を高めることができる。
The display device 2 uses image data (live view image data or captured image data (including corresponding image data)) generated by the lens-type camera 4 as reference image data. In addition, the display device 2 acquires related image data using the current position of the display device 2 when the reference image data is generated as a reference position.
For this reason, the camera user can compare the reference image photographed by himself and the related images photographed by others in an aligned state. That is, it is possible to increase the degree of interest in shooting (willingness to perform shooting similar to the related image) for the camera user.

また、表示装置2は、関連画像データのうち、基準位置から撮影位置までの距離が比較的に近い第1関連画像については、基準画像と同じ第1領域Ar1に配置する。そして、表示装置2は、当該距離が第1関連画像よりも遠い第2,第3関連画像については、第1領域Ar1から順に離れた第2,第3領域Ar2,Ar3にそれぞれ配置する。
特に、表示装置2は、当該距離が比較的に近い第1関連画像については、基準画像とともに大きいサイズとし、当該距離が遠くなるにしたがって第2,第3関連画像のサイズを順に小さくする。
このため、カメラユーザは、関連画像の配置位置やサイズを確認することで、一目で当該関連画像が基準位置から近い位置で撮影されたものであるか、あるいは、遠い位置で撮影されたものであるかを認識することができる。
Further, the display device 2 arranges the first related image in the related image data in the same first area Ar1 as the reference image for the first related image whose distance from the reference position to the shooting position is relatively short. Then, the display device 2 arranges the second and third related images whose distance is farther than the first related image in the second and third regions Ar2 and Ar3 that are sequentially separated from the first region Ar1.
In particular, the display device 2 sets the first related image having a relatively short distance to a large size together with the reference image, and sequentially decreases the sizes of the second and third related images as the distance increases.
For this reason, the camera user confirms the arrangement position and size of the related image, so that the related image is taken at a glance at a position close to the reference position, or is taken at a far position. Can recognize if there is.

また、表示装置2は、画面の一方側から徐々に基準画像、及び第1〜第3関連画像が現れる態様で表示した後、生成した表示画面(図10の例では、表示画面W100)を表示する。
このため、表示画面の表示前に上記態様での表示を行うことで、どの方向に変更操作(図12A及び図12Bの例では、スワイプ)を行えば、表示しきれていない関連画像を表示することができるかをカメラユーザに認識させることができる。
Further, the display device 2 displays the generated display screen (in the example of FIG. 10, the display screen W100) after displaying the reference image and the first to third related images gradually appearing from one side of the screen. To do.
For this reason, by displaying in the above-described manner before displaying the display screen, a related image that cannot be displayed is displayed in any direction (swipe in the examples of FIGS. 12A and 12B). It is possible to make the camera user recognize whether it is possible.

(実施の形態2)
次に、本発明の実施の形態2について説明する。
以下の説明では、上述した実施の形態1と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
本実施の形態2に係る表示システムでは、上述した実施の形態1で説明した表示システム1に対して、表示画面に表示された第1〜第3関連画像のいずれかがカメラユーザにて選択された場合に、基準位置から当該選択された関連画像の撮影位置までの経路をカメラユーザに案内するように構成されている。
以下、本実施の形態2に係る表示システム1A(表示装置2A及びサーバ3A)について説明する。
なお、表示装置2Aを構成するレンズ型カメラ4については、上述した実施の形態1で説明したレンズ型カメラ4(図2)と同様の構成である。このため、以下では、表示装置2Aを構成する表示装置本体5A、及びサーバ3Aの構成のみを説明する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described.
In the following description, the same reference numerals are given to the same configurations and steps as those in the above-described first embodiment, and the detailed description thereof is omitted or simplified.
In the display system according to the second embodiment, one of the first to third related images displayed on the display screen is selected by the camera user with respect to the display system 1 described in the first embodiment. In this case, a route from the reference position to the shooting position of the selected related image is guided to the camera user.
Hereinafter, the display system 1A (the display device 2A and the server 3A) according to the second embodiment will be described.
The lens type camera 4 constituting the display device 2A has the same configuration as the lens type camera 4 (FIG. 2) described in the first embodiment. Therefore, hereinafter, only the configuration of the display device main body 5A and the server 3A constituting the display device 2A will be described.

〔表示装置本体の構成〕
図14は、表示装置本体5Aの構成を示すブロック図である。
本実施の形態2に係る表示装置本体5Aは、上述した実施の形態1で説明した表示装置本体5(図3)に対して、本体側制御部59の一部の機能が変更されている。
本実施の形態2に係る本体側制御部59Aは、図14に示すように、上述した実施の形態1で説明した本体側制御部59に対して、本体側撮像制御部592を備える他、本体側通信制御部591及び本体側表示制御部593の一部の機能を変更した本体側通信制御部591A及び本体側表示制御部593Aを備える。
[Configuration of display device body]
FIG. 14 is a block diagram showing the configuration of the display device body 5A.
In the display device main body 5A according to the second embodiment, a part of the function of the main body side control unit 59 is changed with respect to the display device main body 5 (FIG. 3) described in the first embodiment.
As shown in FIG. 14, the main body side control unit 59A according to the second embodiment includes a main body side imaging control unit 592 in addition to the main body side control unit 59 described in the first embodiment. A main body side communication control unit 591A and a main body side display control unit 593A in which some functions of the side communication control unit 591 and the main body side display control unit 593 are changed.

本体側通信制御部591Aは、上述した実施の形態1で説明した本体側通信制御部591に対して、以下の機能が追加されている。
すなわち、本体側通信制御部591Aは、本体側記録部57に記録されたサーバ3Aの所在位置情報(URL)に基づいて、本体側通信部58を介して、インターネット網Nに接続されたサーバ3Aにアクセス信号(経路画像データの送信要求(自身の表示装置本体5Aを識別する識別情報を含む))を送信し、サーバ3Aとの間で通信接続を確立する。
そして、本体側通信制御部591Aは、サーバ3Aにて経路画像データを生成させるための撮影位置情報及び画像判別情報をサーバ3Aに送信するとともに、経路画像データをサーバ3Aから受信する。
なお、経路画像データの送信要求については、本体側通信制御部591Aは、カメラユーザによる入力部51へのユーザ操作(表示画面中の第1〜第3関連画像のいずれかを選択する選択操作)に応じて実行するものである。
また、サーバ3Aに送信する画像判別情報は、当該選択操作により選択された関連画像を判別(識別)するための情報であり、サーバ3Aから表示装置本体5Aに送信された第1〜第3関連画像データにそれぞれ含まれている。
The main body side communication control unit 591A has the following functions added to the main body side communication control unit 591 described in the first embodiment.
That is, the main body side communication control unit 591A is connected to the Internet 3 via the main body side communication unit 58 based on the location information (URL) of the server 3A recorded in the main body side recording unit 57. To the access signal (route image data transmission request (including identification information for identifying its own display device body 5A)) to establish a communication connection with the server 3A.
Then, the main body side communication control unit 591A transmits the shooting position information and the image discrimination information for generating the route image data in the server 3A to the server 3A, and receives the route image data from the server 3A.
As for the route image data transmission request, the main body side communication control unit 591A performs a user operation on the input unit 51 by the camera user (selection operation for selecting one of the first to third related images in the display screen). Depending on the process.
The image discrimination information transmitted to the server 3A is information for discriminating (identifying) the related image selected by the selection operation, and the first to third associations transmitted from the server 3A to the display device body 5A. Each is included in the image data.

本体側表示制御部593Aは、上述した実施の形態1で説明した本体側表示制御部593Aに対して、本体側通信部58を介してサーバ3Aから受信した経路画像データに対応する経路画像を表示部52に表示させる機能が追加されている。   The body-side display control unit 593A displays a route image corresponding to the route image data received from the server 3A via the body-side communication unit 58, with respect to the body-side display control unit 593A described in the first embodiment. A function to be displayed on the unit 52 is added.

〔サーバの構成〕
図15は、サーバ3Aの構成を示すブロック図である。
サーバ3Aは、上述した実施の形態1で説明したサーバ3(図4)に対して、地図情報記録部34が追加されているとともに、サーバ側制御部33の一部の機能が変更されている。
地図情報記録部34は、各地点の経度及び緯度を含む地図情報を記録する。
本実施の形態2に係るサーバ側制御部33Aは、上述した実施の形態1で説明したサーバ側制御部33に対して、経路探索部336が追加されているとともに、サーバ側通信制御部331の一部の機能が変更されている。
[Server configuration]
FIG. 15 is a block diagram showing a configuration of the server 3A.
In the server 3A, a map information recording unit 34 is added to the server 3 (FIG. 4) described in the first embodiment, and some functions of the server-side control unit 33 are changed. .
The map information recording unit 34 records map information including the longitude and latitude of each point.
The server-side control unit 33A according to the second embodiment has a route search unit 336 added to the server-side control unit 33 described in the first embodiment and the server-side communication control unit 331. Some functions have been changed.

本実施の形態2に係るサーバ側通信制御部331Aは、上述した実施の形態1で説明したサーバ側通信制御部331に対して、以下の機能が追加されている。
すなわち、サーバ側通信制御部331Aは、サーバ側通信部31及びインターネット網Nを介して表示装置本体5から送信される関連画像データの送信要求(アクセス信号)に応じて関連画像データを当該表示装置本体5に送信する際、当該関連画像データを判別(識別)する画像判別情報を当該関連画像データに付加して当該表示装置本体5に送信する。なお、データベース32に記録された複数の対応画像データのうち、当該関連画像データに対応する対応画像データにも当該画像判別情報が付加される。
また、サーバ側通信制御部331Aは、サーバ側通信部31及びインターネット網Nを介して表示装置本体5Aから送信されるアクセス信号(経路画像データの送信要求(当該表示装置本体5Aの識別情報を含む))に応じて、表示装置本体5Aとの間で通信接続を確立する。そして、サーバ側通信制御部331Aは、表示装置本体5Aから撮影位置情報及び画像判別情報を受信するとともに、経路探索部336にて生成された経路画像データを表示装置本体5Aに送信する。
The server-side communication control unit 331A according to the second embodiment has the following functions added to the server-side communication control unit 331 described in the first embodiment.
That is, the server-side communication control unit 331A sends the related image data to the display device in response to a transmission request (access signal) of the related image data transmitted from the display device body 5 via the server-side communication unit 31 and the Internet network N. When transmitting to the main body 5, image determination information for determining (identifying) the related image data is added to the related image data and transmitted to the display device main body 5. The image discrimination information is also added to the corresponding image data corresponding to the related image data among the plurality of corresponding image data recorded in the database 32.
The server-side communication control unit 331A also transmits an access signal (route image data transmission request (including identification information of the display device main body 5A) transmitted from the display device main body 5A via the server-side communication unit 31 and the Internet network N. )), A communication connection is established with the display device body 5A. The server-side communication control unit 331A receives the shooting position information and the image discrimination information from the display device main body 5A, and transmits the route image data generated by the route search unit 336 to the display device main body 5A.

経路探索部336は、サーバ側通信部31を介して表示装置本体5Aから受信した画像判別情報に基づいて、データベース32に記録された複数の対応画像データから、カメラユーザにより選択された関連画像データ(当該画像判別情報を含む対応画像データ)を特定する。また、経路探索部336は、当該特定した関連画像データに含まれる撮影位置情報に基づく撮影位置(以下、目標位置と記載)、サーバ側通信部31を介して表示装置本体5Aから受信した撮影位置情報に基づく基準位置、及び地図情報記録部34に記録された地図情報に基づいて、基準位置から目標位置までの経路を探索する。そして、経路探索部336は、基準位置及び目標位置を含む所定の縮尺の地図情報を地図情報記録部34から読み出し、当該地図情報に基づく地図画像上に当該探索した経路を重畳した経路画像に関する経路画像データを生成する。   The route search unit 336 selects related image data selected by the camera user from a plurality of corresponding image data recorded in the database 32 based on the image discrimination information received from the display device body 5A via the server side communication unit 31. (Corresponding image data including the image discrimination information) is specified. In addition, the route search unit 336 captures an image capturing position (hereinafter referred to as a target position) based on the image capturing position information included in the identified related image data, and the image capturing position received from the display device body 5A via the server-side communication unit 31. Based on the reference position based on the information and the map information recorded in the map information recording unit 34, a route from the reference position to the target position is searched. Then, the route search unit 336 reads out the map information of a predetermined scale including the reference position and the target position from the map information recording unit 34, and the route related to the route image in which the searched route is superimposed on the map image based on the map information. Generate image data.

〔表示システムの動作〕
次に、上述した表示システム1Aの動作(表示装置2A及びサーバ3Aの動作)について説明する。
なお、表示装置2Aの動作については、上述した実施の形態1で説明した表示装置2の動作(図5〜図8)に対して、関連画像表示処理(ステップS209,S217,S229)が異なるのみである。このため、以下では、本実施の形態2に係る関連画像表示処理(ステップS209,S217,S229)及びサーバ3Aの動作のみを説明する。
[Operation of display system]
Next, operations of the display system 1A described above (operations of the display device 2A and the server 3A) will be described.
The operation of the display device 2A differs from the operation of the display device 2 described in the first embodiment (FIGS. 5 to 8) only in the related image display processing (steps S209, S217, and S229). It is. Therefore, hereinafter, only the related image display processing (steps S209, S217, S229) and the operation of the server 3A according to the second embodiment will be described.

〔関連画像表示処理〕
図16は、本発明の実施の形態2に係る関連画像表示処理(ステップS209,S217,S229)を示すフローチャートである。
本実施の形態2に係る関連画像表示処理は、図16に示すように、上述した実施の形態1で説明した関連画像表示処理(図7)に対して、ステップS241〜S246を追加した点が異なるのみである。このため、以下では、ステップS241〜S246のみを説明する。
[Related image display processing]
FIG. 16 is a flowchart showing related image display processing (steps S209, S217, and S229) according to Embodiment 2 of the present invention.
As shown in FIG. 16, the related image display process according to the second embodiment is obtained by adding steps S241 to S246 to the related image display process (FIG. 7) described in the first embodiment. Only different. For this reason, only steps S241 to S246 will be described below.

ステップS241は、ステップS237の後、または、ステップS236で表示画面の変更操作がないと判断された場合(ステップS236:No)に実行される。
具体的に、本体側制御部59Aは、ステップS241において、カメラユーザによる入力部51への選択操作(表示画面中の第1〜第3関連画像(図11(d)、図12A、及び図12Bの例では、撮影画像P101〜P110)のいずれかを選択するユーザ操作)があったか否かを判断する(ステップS241)。
選択操作がないと判断された場合(ステップS241:No)には、表示装置本体5Aは、ステップS238に移行する。
Step S241 is executed after step S237 or when it is determined in step S236 that there is no operation for changing the display screen (step S236: No).
Specifically, in step S241, the main body-side control unit 59A performs a selection operation on the input unit 51 by the camera user (first to third related images in the display screen (FIG. 11 (d), FIG. 12A, and FIG. 12B). In this example, it is determined whether or not there has been a user operation for selecting one of the captured images P101 to P110) (step S241).
If it is determined that there is no selection operation (step S241: No), the display device body 5A proceeds to step S238.

一方、選択操作があったと判断された場合(ステップS241:Yes)には、本体側通信制御部591Aは、以下の処理を実行する(ステップS242)。
すなわち、本体側通信制御部591Aは、本体側通信部58を介して、インターネット網Nに接続されたサーバ3Aにアクセス信号(経路画像データの送信要求(自身の表示装置本体5Aの識別情報を含む))を送信し、サーバ3Aとの間で通信接続を確立する。そして、本体側通信制御部591Aは、撮影位置情報及び画像判別情報をサーバ3Aに送信する。
On the other hand, when it is determined that there has been a selection operation (step S241: Yes), the main body side communication control unit 591A executes the following processing (step S242).
That is, the main body side communication control unit 591A sends an access signal (route image data transmission request (identification information of its own display device main body 5A) to the server 3A connected to the Internet N via the main body side communication unit 58. )) To establish a communication connection with the server 3A. Then, the main body side communication control unit 591A transmits the shooting position information and the image discrimination information to the server 3A.

ここで、サーバ3Aに送信する撮影位置情報は、ステップS209での関連画像表示処理(基準画像がライブビュー画像)の場合には、ステップS241で選択操作があったと判断された際に位置取得部55にて取得された撮影位置情報である。また、ステップS217での関連画像表示処理(基準画像が撮影画像)の場合には、当該撮影位置情報は、ステップS213で画像データ記録部572に記録された最新の撮影画像データに含まれる撮影位置情報である。さらに、ステップS229での関連画像表示処理(基準画像が対応画像)の場合には、当該撮影位置情報は、ステップS223で本体側メモリ部56に記憶された最新の対応画像データに含まれる撮影位置情報である。
また、サーバ3に送信する画像判別情報は、ステップS233で本体側メモリ部56に記憶された第1〜第3関連画像データのうち、ステップS241での選択操作により選択された関連画像データに含まれる画像判別情報である。
Here, in the case of the related image display processing in step S209 (the reference image is a live view image), the shooting position information transmitted to the server 3A is the position acquisition unit when it is determined in step S241 that the selection operation has been performed. The shooting position information acquired at 55. Further, in the case of related image display processing in step S217 (the reference image is a captured image), the shooting position information includes the shooting position included in the latest captured image data recorded in the image data recording unit 572 in step S213. Information. Further, in the case of the related image display process (the reference image is the corresponding image) in step S229, the shooting position information is the shooting position included in the latest corresponding image data stored in the main body memory unit 56 in step S223. Information.
The image discrimination information transmitted to the server 3 is included in the related image data selected by the selection operation in step S241 among the first to third related image data stored in the main body side memory unit 56 in step S233. Image discrimination information.

ステップS242の後、本体側通信制御部591Aは、本体側通信部58を介して、サーバ3Aから経路画像データを受信し、本体側メモリ部56に記憶する(ステップS243)。
続いて、本体側表示制御部593Aは、ステップS243で本体側メモリ部56に記憶された経路画像データに対応する経路画像を表示部52に表示させる(ステップS244)。
After step S242, the main body side communication control unit 591A receives the route image data from the server 3A via the main body side communication unit 58 and stores it in the main body side memory unit 56 (step S243).
Subsequently, the main body side display control unit 593A causes the display unit 52 to display a route image corresponding to the route image data stored in the main body side memory unit 56 in step S243 (step S244).

続いて、本体側制御部59Aは、カメラユーザによる入力部51への表示切替操作(表示部52への表示を経路画像から第1〜第3関連画像の表示画面に切り替えるユーザ操作)があったか否かを判断する(ステップS245)。
表示切替操作があったと判断された場合(ステップS245:Yes)には、表示装置本体5Aは、ステップS235に戻り、表示部52への表示を経路画像から第1〜第3関連画像の表示画面に切り替える。
一方、表示切替操作がないと判断された場合(ステップS245:No)には、ステップS238に移行する。
Subsequently, the main body control unit 59A determines whether or not the camera user has performed a display switching operation on the input unit 51 (a user operation for switching the display on the display unit 52 from the route image to the display screen of the first to third related images). Is determined (step S245).
When it is determined that the display switching operation has been performed (step S245: Yes), the display device body 5A returns to step S235, and displays the display on the display unit 52 from the route image to the display screen of the first to third related images. Switch to.
On the other hand, when it is determined that there is no display switching operation (step S245: No), the process proceeds to step S238.

ステップS246は、ステップS239で変更操作がないと判断された場合(ステップS239:No)の場合に実行される。
具体的に、本体側制御部59Aは、ステップS246において、ステップS244で表示部52に経路画像を表示させている最中(経路画像の表示中)であるか否かを判断する。
経路画像の表示中ではないと判断された場合(ステップS246:No)には、表示装置本体5Aは、ステップS236に戻る。
一方、経路画像の表示中であると判断された場合(ステップS246:Yes)には、表示装置本体5Aは、ステップS245に戻る。
Step S246 is executed when it is determined in step S239 that there is no change operation (step S239: No).
Specifically, the main body control unit 59A determines in step S246 whether or not the route image is being displayed on the display unit 52 in step S244 (while the route image is being displayed).
When it is determined that the route image is not being displayed (step S246: No), the display device body 5A returns to step S236.
On the other hand, when it is determined that the route image is being displayed (step S246: Yes), the display device body 5A returns to step S245.

〔サーバの動作〕
図17は、サーバ3Aの動作を示すフローチャートである。
サーバ3Aの動作は、図17に示すように、上述した実施の形態1で説明したサーバ3の動作(図13)に対して、ステップS312の代わりにステップS312Aを追加するとともに、ステップS314〜S319を追加した点が異なるのみである。このため、以下では、ステップS312A,S314〜S319のみを説明する。
[Server operation]
FIG. 17 is a flowchart showing the operation of the server 3A.
As shown in FIG. 17, the operation of the server 3A is the addition of step S312A instead of step S312 to the operation of the server 3 described in the first embodiment (FIG. 13), and steps S314 to S319. The only difference is the addition of. Therefore, only steps S312A and S314 to S319 will be described below.

ステップS312Aは、ステップS311の後に実行される。
具体的に、サーバ側通信制御部331Aは、ステップS312Aにおいて、ステップS309〜S311で抽出された第1〜第3関連画像データに対して、当該第1〜第3関連画像データを判別する画像判別情報を付加する。また、サーバ側通信制御部331Aは、データベース32に記録された複数の対応画像データのうち、当該第1〜第3関連画像データに対応する対応画像データにも当該画像判別情報を付加する。そして、サーバ側通信制御部331Aは、サーバ側通信部31及びインターネット網Nを介して、当該第1〜第3関連画像データ(画像判別情報を含む)を、ステップS306で特定された表示装置本体5Aに送信する。この後、サーバ3Aは、ステップS301に戻る。
Step S312A is executed after step S311.
Specifically, in step S312A, the server-side communication control unit 331A determines the first to third related image data for the first to third related image data extracted in steps S309 to S311. Add information. The server-side communication control unit 331A also adds the image determination information to the corresponding image data corresponding to the first to third related image data among the plurality of corresponding image data recorded in the database 32. Then, the server-side communication control unit 331A uses the server-side communication unit 31 and the Internet network N to display the first to third related image data (including the image determination information) in the display device body identified in step S306. Send to 5A. Thereafter, the server 3A returns to Step S301.

ステップS314は、ステップS305で関連画像データの送信要求を受信していないと判断された場合(ステップS305:No)に実行される。
具体的に、サーバ側通信制御部331Aは、ステップS314において、サーバ側通信部31及びインターネット網Nを介して、表示装置本体5Aからアクセス信号(経路画像データの送信要求(当該表示装置本体5Aの識別情報を含む))を受信したか否かを判断する。
経路画像データの送信要求を受信していないと判断された場合(ステップS314:No)には、サーバ3Aは、ステップS313に移行する。
一方、経路画像データの送信要求を受信したと判断された場合(ステップS314:Yes)には、端末判定部332は、当該送信要求に基づいて、アクセスしてきた送信元の表示装置本体5Aを特定する(ステップS315)。
続いて、サーバ側通信制御部331は、サーバ側通信部31及びインターネット網Nを介して、表示装置本体5Aから撮影位置情報及び画像判別情報を受信する(ステップS316)。
Step S314 is executed when it is determined in step S305 that the related image data transmission request has not been received (step S305: No).
Specifically, in step S314, the server-side communication control unit 331A sends an access signal (route image data transmission request (of the display device main body 5A) via the server-side communication unit 31 and the Internet network N. It is determined whether or not identification information is included)).
If it is determined that the route image data transmission request has not been received (step S314: No), the server 3A proceeds to step S313.
On the other hand, when it is determined that the transmission request for the route image data has been received (step S314: Yes), the terminal determination unit 332 identifies the display device body 5A that is the access source that has accessed based on the transmission request. (Step S315).
Subsequently, the server side communication control unit 331 receives the shooting position information and the image determination information from the display device body 5A via the server side communication unit 31 and the Internet network N (step S316).

続いて、経路探索部336は、ステップS316で受信した画像判別情報に基づいて、データベース32に記録された複数の対応画像データから、ステップS241でカメラユーザにより選択された関連画像データ(当該画像判別情報を含む対応画像データ)を特定する。そして、経路探索部336は、当該特定した関連画像データに含まれる撮影位置情報に基づく目標位置、ステップS316で受信した撮影位置情報に基づく基準位置、及び地図情報記録部34に記録された地図情報に基づいて、基準位置から目標位置までの経路を探索する(ステップS317)。   Subsequently, the route search unit 336 selects the related image data selected by the camera user in step S241 from the corresponding image data recorded in the database 32 based on the image determination information received in step S316 (the image determination information). (Corresponding image data including information) is specified. The route search unit 336 then sets the target position based on the shooting position information included in the identified related image data, the reference position based on the shooting position information received in step S316, and the map information recorded in the map information recording unit 34. Based on the above, a route from the reference position to the target position is searched (step S317).

図18は、ステップS318で生成される経路画像データに対応する経路画像W200の一例を示す図である。具体的に、図18は、図9〜図11,図12A,図12Bに対応した図である。
なお、図18では、ステップS241でのカメラユーザによる選択操作により表示画面W100中の撮影画像F105(第2関連画像)が選択された場合(目標位置を撮影位置P105とした場合)を例示している。
ステップS317の後、経路探索部336は、基準位置(図18の例では、基準位置PS)から目標位置(図18の例では、撮影位置P105)を含む所定の縮尺の地図情報を地図情報記録部34から読み出す。そして、経路探索部336は、当該地図情報に基づく地図画像(図18の例では、地図画像M)上にステップS317で探索した経路(図18の例では、経路RT)を重畳した経路画像(図18の例では、経路画像W200)に関する経路画像データを生成する(ステップS318)。
FIG. 18 is a diagram illustrating an example of a route image W200 corresponding to the route image data generated in step S318. Specifically, FIG. 18 corresponds to FIGS. 9 to 11, 12A, and 12B.
18 illustrates the case where the captured image F105 (second related image) in the display screen W100 is selected by the selection operation by the camera user in step S241 (when the target position is the captured position P105). Yes.
After step S317, the route search unit 336 records map information of a predetermined scale including the target position (the shooting position P105 in the example of FIG. 18) from the reference position (the reference position PS in the example of FIG. 18) as map information. Read from the unit 34. The route search unit 336 then superimposes the route image (route RT in the example of FIG. 18) superimposed on the map image (map image M in the example of FIG. 18) based on the map information (route RT in the example of FIG. 18). In the example of FIG. 18, route image data relating to the route image W200) is generated (step S318).

続いて、サーバ側通信制御部331Aは、サーバ側通信部31及びインターネット網Nを介して、ステップS318で生成された経路画像データを、ステップS315で特定された表示装置本体5Aに送信する。この後、サーバ3Aは、ステップS301に戻る。   Subsequently, the server side communication control unit 331A transmits the route image data generated in step S318 to the display device main body 5A specified in step S315 via the server side communication unit 31 and the Internet network N. Thereafter, the server 3A returns to Step S301.

以上説明した本実施の形態2によれば、上述した実施の形態1と同様の効果の他、以下の効果がある。
本実施の形態2に係る表示システム1Aは、表示画面に表示された第1〜第3関連画像のいずれかがカメラユーザにて選択された場合に、基準位置から当該選択された関連画像の撮影位置までの経路をカメラユーザに案内する。
このため、カメラユーザは、当該案内にしたがうことで、自身の好みに応じた関連画像の撮影位置まで簡単に到達することができる。したがって、利便性の向上がさらに図れる。
According to the second embodiment described above, there are the following effects in addition to the same effects as in the first embodiment.
The display system 1A according to the second embodiment captures the selected related image from the reference position when any of the first to third related images displayed on the display screen is selected by the camera user. The route to the position is guided to the camera user.
Therefore, the camera user can easily reach the shooting position of the related image according to his / her preference by following the guidance. Therefore, the convenience can be further improved.

(実施の形態3)
次に、本発明の実施の形態3について説明する。
以下の説明では、上述した実施の形態1と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
本実施の形態3に係る表示システムでは、上述した実施の形態1で説明した表示システム1に対して、サーバ3が省略され、当該サーバ3の一部の機能を表示装置2に持たせるように構成している。
以下、本実施の形態3に係る表示システム1B(表示装置2B)を構成するレンズ型カメラ4B及び表示装置本体5Bの構成を順に説明する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described.
In the following description, the same reference numerals are given to the same configurations and steps as those in the above-described first embodiment, and the detailed description thereof is omitted or simplified.
In the display system according to the third embodiment, the server 3 is omitted from the display system 1 described in the first embodiment, and the display device 2 has some functions of the server 3. It is composed.
Hereinafter, the configuration of the lens type camera 4B and the display device body 5B constituting the display system 1B (display device 2B) according to the third embodiment will be described in order.

〔レンズ型カメラの構成〕
図19は、レンズ型カメラ4Bの構成を示すブロック図である。
本実施の形態3に係るレンズ型カメラ4Bは、上述した実施の形態1で説明したレンズ型カメラ4(図2)に対して、カメラ側制御部50の一部の機能が変更されている。
本実施の形態3に係るカメラ側制御部50Bは、図19に示すように、カメラ側撮像制御部502を備える他、カメラ側通信制御部501の一部の機能を変更したカメラ側通信制御部501Bと、距離算出部503と、関連画像抽出部504とを備える。
[Configuration of lens type camera]
FIG. 19 is a block diagram showing a configuration of the lens type camera 4B.
In the lens type camera 4B according to the third embodiment, a part of the function of the camera side control unit 50 is changed with respect to the lens type camera 4 (FIG. 2) described in the first embodiment.
As shown in FIG. 19, the camera-side control unit 50B according to the third embodiment includes a camera-side imaging control unit 502 and a camera-side communication control unit in which some functions of the camera-side communication control unit 501 are changed. 501B, a distance calculation unit 503, and a related image extraction unit 504.

カメラ側通信制御部501Bは、上述した実施の形態1で説明したカメラ側通信制御部501に対して、以下の機能が追加されている。
すなわち、カメラ側通信制御部501Bは、表示装置本体5Bから関連画像データの送信要求とともに距離算出部503及び関連画像抽出部504の処理に用いられる撮影位置情報及び抽出範囲情報を受信する。そして、カメラ側通信制御部501Bは、当該送信要求情報に応じて、関連画像抽出部504にて抽出された関連画像データを表示装置本体5Bに送信する。
The camera side communication control unit 501B has the following functions added to the camera side communication control unit 501 described in the first embodiment.
That is, the camera-side communication control unit 501B receives shooting position information and extraction range information used for processing of the distance calculation unit 503 and the related image extraction unit 504 together with a transmission request for related image data from the display device body 5B. Then, the camera-side communication control unit 501B transmits the related image data extracted by the related image extraction unit 504 to the display device body 5B according to the transmission request information.

距離算出部503及び関連画像抽出部504は、カメラ側記録部48に記録された撮影画像データ(第1タイムスタンプ及び撮影位置情報)を利用して、上述した実施の形態1で説明した距離算出部334及び関連画像抽出部335(図4)とそれぞれ同様の処理を実行する。
なお、カメラ側記録部48に記録された撮影画像データは、本発明に係る参照情報に相当する。すなわち、カメラ側記録部48は、本発明に係る画像記録部としての機能を有する。また、関連画像抽出部335は、本発明に係る関連画像取得部としての機能を有する。
The distance calculation unit 503 and the related image extraction unit 504 use the captured image data (first time stamp and shooting position information) recorded in the camera-side recording unit 48 to calculate the distance described in the first embodiment. The same processing as that of the unit 334 and the related image extraction unit 335 (FIG. 4) is executed.
Note that the captured image data recorded in the camera-side recording unit 48 corresponds to reference information according to the present invention. That is, the camera side recording unit 48 has a function as an image recording unit according to the present invention. Further, the related image extraction unit 335 has a function as a related image acquisition unit according to the present invention.

〔表示装置本体の構成〕
図20は、表示装置本体5Bの構成を示すブロック図である。
本実施の形態3に係る表示装置本体5Bは、上述した実施の形態1で説明した表示装置本体5(図3)に対して、本体側制御部59の一部の機能が変更されている。
本実施の形態3に係る本体側制御部59Bは、図20に示すように、本体側撮像制御部592及び本体側表示制御部593を備える他、本体側通信制御部591の一部の機能を変更した本体側通信制御部591Bを備える。
[Configuration of display device body]
FIG. 20 is a block diagram illustrating a configuration of the display device body 5B.
In the display device main body 5B according to the third embodiment, a part of the function of the main body side control unit 59 is changed with respect to the display device main body 5 (FIG. 3) described in the first embodiment.
As shown in FIG. 20, the main body side control unit 59B according to the third embodiment includes a main body side imaging control unit 592 and a main body side display control unit 593, and also has some functions of the main body side communication control unit 591. A modified main body side communication control unit 591B is provided.

本体側通信制御部591Bは、上述した実施の形態1で説明した本体側通信制御部591に対して、関連画像データの送信要求、及び当該関連画像データの受信について、サーバ3ではなく、レンズ型カメラ4Bとの間で実行する点が異なる。   The main body side communication control unit 591B does not use the server 3 but the lens type for the transmission request of the related image data and the reception of the related image data to the main body side communication control unit 591 described in the first embodiment. The point of execution differs from the camera 4B.

〔表示システムの動作〕
次に、上述した表示システム1Bの動作について、レンズ型カメラ4Bの動作、及び表示装置本体5Bの動作の順に説明する。
[Operation of display system]
Next, the operation of the display system 1B described above will be described in the order of the operation of the lens type camera 4B and the operation of the display device body 5B.

〔レンズ型カメラの動作〕
図21は、レンズ型カメラ4Bの動作を示すフローチャートである。
レンズ型カメラ4Bの動作は、図21に示すように、上述した実施の形態1で説明したレンズ型カメラ4の動作(図5)に対して、ステップS116〜S122を追加した点が異なるのみである。このため、以下では、ステップS116〜S122のみを説明する。
[Operation of lens-type camera]
FIG. 21 is a flowchart showing the operation of the lens type camera 4B.
As shown in FIG. 21, the operation of the lens type camera 4B is different from the operation of the lens type camera 4 described in the first embodiment (FIG. 5) only in that steps S116 to S122 are added. is there. Therefore, only steps S116 to S122 will be described below.

ステップS116は、ステップS111で画像一覧の送信要求がないと判断された場合(ステップS111:No)に実行される。
具体的に、カメラ側通信制御部501Bは、ステップS116において、カメラ側通信部49を介して、表示装置本体5Bから関連画像データの送信要求を受信したか否かを判断する。
関連画像データの送信要求を受信していないと判断された場合(ステップS116:No)には、レンズ型カメラ4Bは、ステップS115に移行する。
一方、関連画像データの送信要求を受信したと判断された場合(ステップS116:Yes)には、カメラ側通信制御部501Bは、当該送信要求とともに撮影位置情報及び抽出範囲情報を表示装置本体5Bから受信する(ステップS117)。
続いて、距離算出部503は、上述した実施の形態1で説明したステップS308と同様の処理により、ステップS117で受信した撮影位置情報に基づく基準位置と、カメラ側記録部48に記録された複数の撮影画像データに含まれる各撮影位置情報に基づく各撮影位置との間の各距離を算出する(ステップS118)。
続いて、関連画像抽出部504は、カメラ側記録部48に記録された複数の撮影画像データから、上述した実施の形態1で説明したステップS309〜S311と同様の処理により、第1〜第3関連画像データを抽出する(ステップS119〜S121)。
そして、カメラ側通信制御部501Bは、カメラ側通信部49を介して、ステップS119〜S121で抽出された第1〜第3関連画像データを表示装置本体5Bに送信する(ステップS122)。この後、レンズ型カメラ4Bは、ステップS101に戻る。
Step S116 is executed when it is determined in step S111 that there is no image list transmission request (step S111: No).
Specifically, in step S116, the camera side communication control unit 501B determines whether or not a related image data transmission request is received from the display device main body 5B via the camera side communication unit 49.
If it is determined that the related image data transmission request has not been received (step S116: No), the lens-type camera 4B proceeds to step S115.
On the other hand, if it is determined that the transmission request for the related image data has been received (step S116: Yes), the camera-side communication control unit 501B sends the shooting position information and the extraction range information together with the transmission request from the display device body 5B. Receive (step S117).
Subsequently, the distance calculation unit 503 performs a process similar to that in step S308 described in the above-described first embodiment, the reference position based on the shooting position information received in step S117, and a plurality of information recorded in the camera-side recording unit 48. Each distance from each shooting position based on each shooting position information included in the shot image data is calculated (step S118).
Subsequently, the related image extraction unit 504 performs first to third processing from a plurality of photographed image data recorded in the camera-side recording unit 48 by the same processing as steps S309 to S311 described in the first embodiment. Related image data is extracted (steps S119 to S121).
And the camera side communication control part 501B transmits the 1st-3rd related image data extracted by step S119-S121 to the display apparatus main body 5B via the camera side communication part 49 (step S122). Thereafter, the lens-type camera 4B returns to step S101.

〔表示装置本体の動作〕
図22は、表示装置本体5Bの動作を示すフローチャートである。
表示装置本体5Bの動作は、図22に示すように、上述した実施の形態1で説明した表示装置本体5の動作(図6〜図8)に対して、サーバ3の省略に伴い、ステップS226,S227を省略し(ステップS225の後にステップS228を実行し)、ステップS209,S217,S229の代わりにステップS209B,S217B,S229B(関連画像表示処理)を追加した点が異なるのみである。このため、以下では、関連画像表示処理(ステップS209B,S217B,S229B)のみを説明する。
[Operation of display unit]
FIG. 22 is a flowchart showing the operation of the display device body 5B.
As shown in FIG. 22, the operation of the display device main body 5B is different from the operation of the display device main body 5 described in the first embodiment (FIGS. 6 to 8) in connection with the omission of the server 3, step S226. , S227 is omitted (step S228 is executed after step S225), and steps S209B, S217B, and S229B (related image display processing) are added instead of steps S209, S217, and S229. For this reason, only the related image display processing (steps S209B, S217B, and S229B) will be described below.

〔関連画像表示処理〕
図23は、本発明の実施の形態3に係る関連画像表示処理(ステップS209B,S217B,S229B)を示すフローチャートである。
本実施の形態2に係る関連画像表示処理は、図23に示すように、上述した実施の形態1で説明した関連画像表示処理(図7)に対して、ステップS232,S233の代わりに、当該ステップS232,S233での通信先をサーバ3ではなく、レンズ型カメラ4BとしたステップS232B,S233Bを追加した点が異なるのみである。
[Related image display processing]
FIG. 23 is a flowchart showing related image display processing (steps S209B, S217B, and S229B) according to Embodiment 3 of the present invention.
As shown in FIG. 23, the related image display process according to the second embodiment is different from the related image display process described in the first embodiment (FIG. 7) in place of steps S232 and S233. The only difference is that steps S232B and S233B in which the communication destinations in steps S232 and S233 are not the server 3 but the lens type camera 4B are added.

以上説明した本実施の形態3のようにサーバ3を省略し当該サーバ3の一部の機能を表示装置2に持たせるように構成した場合であっても、上述した実施の形態1と同様の効果を奏する。   Even when the server 3 is omitted and the display device 2 is configured to have some functions of the server 3 as in the third embodiment described above, the same as in the first embodiment described above. There is an effect.

(実施の形態3の変形例)
上述した実施の形態3で説明した表示装置2Bに対して、上述した実施の形態2で説明した地図情報記録部34や経路探索部336の機能を組み込んだ構成を採用し、基準位置からカメラユーザによる選択された関連画像の撮影位置までの経路をカメラユーザに案内するように構成しても構わない。
(Modification of Embodiment 3)
A configuration in which the functions of the map information recording unit 34 and the route search unit 336 described in the second embodiment are incorporated in the display device 2B described in the third embodiment is used, so that the camera user starts from the reference position. The camera user may be guided to the route to the shooting position of the selected related image.

(実施の形態4)
次に、本発明の実施の形態4について説明する。
以下の説明では、上述した実施の形態3と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
本実施の形態4に係る表示システムでは、上述した実施の形態1で説明した表示システム1Bに対して、第1〜第3関連画像データを抽出する際に、基準位置からの距離の他、基準画像の撮影日時や、撮影画像データに対応する撮影画像の表示回数を考慮するように構成されている。
以下、本実施の形態4に係る表示システム1C(表示装置2C)を構成するレンズ型カメラ4C及び表示装置本体5Cの構成を順に説明する。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described.
In the following description, the same reference numerals are given to the same configurations and steps as those in the third embodiment described above, and detailed description thereof will be omitted or simplified.
In the display system according to the fourth embodiment, when extracting the first to third related image data from the display system 1B described in the first embodiment, in addition to the distance from the reference position, the reference The image capturing date and time and the display count of the captured image corresponding to the captured image data are considered.
Hereinafter, the configurations of the lens type camera 4C and the display device body 5C constituting the display system 1C (display device 2C) according to the fourth embodiment will be described in order.

〔レンズ型カメラの構成〕
図24は、レンズ型カメラ4Cの構成を示すブロック図である。
本実施の形態4に係るレンズ型カメラ4Cは、上述した実施の形態3で説明したレンズ型カメラ4B(図19)に対して、カメラ側制御部50Bの一部の機能が変更されている。
本実施の形態4に係るカメラ側制御部50Cは、図24に示すように、カメラ側撮像制御部502及び距離算出部503を備える他、カメラ側通信制御部501B及び関連画像抽出部504の一部の機能を変更したカメラ側通信制御部501C及び関連画像抽出部504Cを備える。
[Configuration of lens type camera]
FIG. 24 is a block diagram showing a configuration of the lens type camera 4C.
In the lens type camera 4C according to the fourth embodiment, a part of the function of the camera-side control unit 50B is changed with respect to the lens type camera 4B (FIG. 19) described in the third embodiment.
As shown in FIG. 24, the camera-side control unit 50C according to the fourth embodiment includes a camera-side imaging control unit 502 and a distance calculation unit 503, as well as one of the camera-side communication control unit 501B and the related image extraction unit 504. Provided with a camera-side communication control unit 501C and a related image extraction unit 504C.

カメラ側通信制御部501Cは、上述した実施の形態3で説明したカメラ側通信制御部501Bに対して、以下に示すように、一部の機能が変更または追加されている。
すなわち、カメラ側通信制御部501Cは、カメラ側通信部49を介して、関連画像データの送信要求を表示装置本体5Cから受信する際、当該送信要求とともに撮影位置情報及び抽出範囲情報の他、基準画像の撮影日時に関する第1タイムスタンプを受信するように構成されている。
また、カメラ側通信制御部501Cは、カメラ側通信部49を介して、対応画像データの送信要求を表示装置本体5Cから受信し、当該送信要求に応じて対応画像データ(第1タイムスタンプ及び撮影位置情報を含む)を送信した後、当該対応画像データに関連付けてカメラ側記録部48に記録された表示回数情報を読み出す。そして、カメラ側通信制御部501Cは、当該読み出した表示回数情報に基づく表示回数(対応画像データの送信回数)を「1」増加させ、当該増加させた表示回数情報を当該対応画像データに関連付けてカメラ側記録部48に記録(更新)する。
The camera-side communication control unit 501C has some functions changed or added to the camera-side communication control unit 501B described in the third embodiment as described below.
That is, when the camera-side communication control unit 501C receives a transmission request for related image data from the display device main body 5C via the camera-side communication unit 49, the camera-side communication control unit 501C includes the reference information in addition to the shooting position information and the extraction range information, as well as A first time stamp related to the shooting date and time of the image is received.
Further, the camera side communication control unit 501C receives a transmission request for the corresponding image data from the display device body 5C via the camera side communication unit 49, and responds to the corresponding image data (first time stamp and shooting). (Including position information), and the display count information recorded in the camera-side recording unit 48 in association with the corresponding image data is read out. Then, the camera-side communication control unit 501C increases the number of displays (the number of transmissions of the corresponding image data) based on the read display number information by “1”, and associates the increased display number information with the corresponding image data. Record (update) in the camera-side recording unit 48.

関連画像抽出部504Cは、上述した実施の形態3で説明した関連画像抽出部504に対して、カメラ側記録部48に記録された複数の撮影画像データから第1〜第3関連画像データを抽出する際、距離算出部503にて算出された基準位置からの距離の他、基準画像の撮影日時を示す第1タイムスタンプや、当該撮影画像データに関連付けられた表示回数情報を考慮するように構成されている。   The related image extraction unit 504C extracts the first to third related image data from the plurality of captured image data recorded in the camera-side recording unit 48 with respect to the related image extraction unit 504 described in the third embodiment. In doing so, in addition to the distance from the reference position calculated by the distance calculation unit 503, the first time stamp indicating the shooting date and time of the reference image and the display count information associated with the captured image data are considered. Has been.

〔表示装置本体の構成〕
図25は、表示装置本体5Cの構成を示すブロック図である。
本実施の形態4に係る表示装置本体5Cは、上述した実施の形態3で説明した表示装置本体5B(図20)に対して、本体側制御部59Bの一部の機能が変更されている。
本実施の形態4に係る本体側制御部59Cは、図25に示すように、本体側撮像制御部592及び本体側表示制御部593を備える他、本体側通信制御部591Bの一部の機能を変更した本体側通信制御部591Cを備える。
[Configuration of display device body]
FIG. 25 is a block diagram showing a configuration of the display device body 5C.
In the display device main body 5C according to the fourth embodiment, a part of the function of the main body side control unit 59B is changed with respect to the display device main body 5B (FIG. 20) described in the third embodiment.
As shown in FIG. 25, the main body side control unit 59C according to the fourth embodiment includes a main body side imaging control unit 592 and a main body side display control unit 593, and has some functions of the main body side communication control unit 591B. A changed main body side communication control unit 591C is provided.

本体側通信制御部591Cは、上述した実施の形態3で説明した本体側通信制御部591Cに対して、以下に示すように、一部の機能が変更されている。
すなわち、本体側通信制御部591Cは、本体側通信部58を介して、関連画像データの送信要求をレンズ型カメラ4Cに送信する際、撮影位置情報及び抽出範囲情報の他、基準画像の撮影日時に関する第1タイムスタンプを送信するように構成されている。
The main body side communication control unit 591C has some functions changed as described below with respect to the main body side communication control unit 591C described in the third embodiment.
That is, when the main body side communication control unit 591C transmits a transmission request of related image data to the lens type camera 4C via the main body side communication unit 58, in addition to the shooting position information and the extraction range information, the shooting date and time of the reference image Is configured to transmit a first time stamp.

〔表示システムの動作〕
次に、上述した表示システム1Cの動作について、レンズ型カメラ4Cの動作、及び表示装置本体5Cの動作の順に説明する。
[Operation of display system]
Next, the operation of the display system 1C described above will be described in the order of the operation of the lens type camera 4C and the operation of the display device body 5C.

〔レンズ型カメラの動作〕
図26は、レンズ型カメラ4Cの動作を示すフローチャートである。
レンズ型カメラ4Cの動作は、図26に示すように、上述した実施の形態3で説明したレンズ型カメラ4Bの動作(図21)に対して、ステップS123を追加するとともに、ステップS117,S119〜S121の代わりにステップS117C,S119C〜S121Cを追加した点が異なるのみである。このため、以下では、ステップS123,S117C,S119C〜S121Cのみを説明する。
[Operation of lens-type camera]
FIG. 26 is a flowchart showing the operation of the lens type camera 4C.
As shown in FIG. 26, the operation of the lens type camera 4C is the addition of step S123 to the operation of the lens type camera 4B described in the third embodiment (FIG. 21), and steps S117, S119, The only difference is that steps S117C and S119C to S121C are added instead of S121. Therefore, only steps S123, S117C, and S119C to S121C will be described below.

ステップS123は、ステップS114の後に実行される。
具体的に、カメラ側通信制御部501Cは、ステップS123において、ステップS114で送信した対応画像データに関連付けてカメラ側記録部48に記録された表示回数情報を読み出す。そして、カメラ側通信制御部501Cは、当該読み出した表示回数情報に基づく表示回数を「1」増加させ、当該増加させた表示回数情報を当該対応画像データに関連付けてカメラ側記録部48に記録(更新)する。この後、レンズ型カメラ4Cは、ステップS101に戻る。
Step S123 is executed after step S114.
Specifically, in step S123, the camera-side communication control unit 501C reads display number information recorded in the camera-side recording unit 48 in association with the corresponding image data transmitted in step S114. Then, the camera side communication control unit 501C increases the display number based on the read display number information by “1”, and records the increased display number information in the camera side recording unit 48 in association with the corresponding image data ( Update. Thereafter, the lens type camera 4C returns to Step S101.

ステップS117Cは、ステップS116で関連画像データの送信要求を受信したと判断された場合(ステップS116:Yes)に実行される。
具体的に、カメラ側通信制御部501Cは、ステップS117Cにおいて、当該送信要求とともに撮影位置情報、抽出範囲情報、及び第1タイムスタンプを表示装置本体5Cから受信する。この後、表示装置本体5Cは、ステップS118に移行する。
Step S117C is executed when it is determined in step S116 that a transmission request for related image data has been received (step S116: Yes).
Specifically, in step S117C, the camera side communication control unit 501C receives the shooting position information, the extraction range information, and the first time stamp from the display device body 5C together with the transmission request. Thereafter, the display device body 5C proceeds to Step S118.

ステップS119Cは、ステップS118の後に実行される。
具体的に、関連画像抽出部504Cは、ステップS119Cにおいて、カメラ側記録部48に記録された複数の撮影画像データから、ステップS118で算出された基準位置からの距離がステップS117Cで受信した抽出範囲情報に基づく第1距離未満の範囲内となる撮影位置で撮影された撮影画像データを絞り込む。また、関連画像抽出部504Cは、当該絞り込んだ撮影画像データから、ステップS117Cで受信した第1タイムスタンプ(基準日時)と同一の季節となる第1タイムスタンプを含む撮影画像データをさらに絞り込む。さらに、関連画像抽出部504Cは、当該さらに絞り込んだ撮影画像データのうち、当該撮影画像データに関連付けられた表示回数情報を参照し、当該表示回数情報に基づく表示回数が第1閾値以上となる撮影画像データを第1関連画像データとしてカメラ側記録部48から抽出する。
Step S119C is executed after step S118.
Specifically, in step S119C, the related image extraction unit 504C extracts from the plurality of captured image data recorded in the camera-side recording unit 48 the distance from the reference position calculated in step S118 received in step S117C. Narrow down the photographed image data photographed at the photographing position within the range less than the first distance based on the information. Further, the related image extraction unit 504C further narrows down the captured image data including the first time stamp having the same season as the first time stamp (reference date and time) received in step S117C, from the narrowed captured image data. Further, the related image extraction unit 504C refers to display number information associated with the photographed image data among the further narrowed photographed image data, and the number of displays based on the display number information is a first threshold value or more. Image data is extracted from the camera-side recording unit 48 as first related image data.

続いて、関連画像抽出部504Cは、カメラ側記録部48に記録された複数の撮影画像データから、ステップS118で算出された基準位置からの距離が第1距離以上、ステップS117Cで受信した抽出範囲情報に基づく第2距離未満の範囲内となる撮影位置で撮影された撮影画像データを絞り込む。また、関連画像抽出部504Cは、当該絞り込んだ撮影画像データから、ステップS117Cで受信した第1タイムスタンプ(基準日時)と同一の季節となる第1タイムスタンプを含む撮影画像データをさらに絞り込む。さらに、関連画像抽出部504Cは、当該さらに絞り込んだ撮影画像データのうち、当該撮影画像データに関連付けられた表示回数情報を参照し、当該表示回数情報に基づく表示回数が第1閾値以上となる撮影画像データを第2関連画像データとしてカメラ側記録部48から抽出する(ステップS120C)。   Subsequently, the related image extraction unit 504C extracts from the plurality of captured image data recorded in the camera-side recording unit 48 the distance from the reference position calculated in step S118 is equal to or more than the first distance and is received in step S117C. Narrow down the photographed image data photographed at the photographing position within the range less than the second distance based on the information. Further, the related image extraction unit 504C further narrows down the captured image data including the first time stamp having the same season as the first time stamp (reference date and time) received in step S117C, from the narrowed captured image data. Further, the related image extraction unit 504C refers to display number information associated with the photographed image data among the further narrowed photographed image data, and the number of displays based on the display number information is a first threshold value or more. Image data is extracted from the camera-side recording unit 48 as second related image data (step S120C).

続いて、関連画像抽出部504Cは、カメラ側記録部48に記録された複数の撮影画像データから、ステップS118で算出された基準位置からの距離が第2距離以上、ステップS117Cで受信した抽出範囲情報に基づく第3距離未満の範囲内となる撮影位置で撮影された撮影画像データを絞り込む。また、関連画像抽出部504Cは、当該絞り込んだ撮影画像データから、ステップS117Cで受信した第1タイムスタンプ(基準日時)と同一の季節となる第1タイムスタンプを含む撮影画像データをさらに絞り込む。さらに、関連画像抽出部504Cは、当該さらに絞り込んだ撮影画像データのうち、当該撮影画像データに関連付けられた表示回数情報を参照し、当該表示回数情報に基づく表示回数が第1閾値以上となる撮影画像データを第3関連画像データとしてカメラ側記録部48から抽出する(ステップS121C)。この後、レンズ型カメラ4Cは、ステップS122に移行する。   Subsequently, the related image extraction unit 504C extracts from the plurality of photographed image data recorded in the camera-side recording unit 48, the extraction range received in step S117C when the distance from the reference position calculated in step S118 is equal to or greater than the second distance. Narrow down the photographed image data photographed at the photographing position within the range less than the third distance based on the information. Further, the related image extraction unit 504C further narrows down the captured image data including the first time stamp having the same season as the first time stamp (reference date and time) received in step S117C, from the narrowed captured image data. Further, the related image extraction unit 504C refers to display number information associated with the photographed image data among the further narrowed photographed image data, and the number of displays based on the display number information is a first threshold value or more. Image data is extracted from the camera-side recording unit 48 as third related image data (step S121C). Thereafter, the lens camera 4C proceeds to step S122.

〔表示装置本体の動作〕
表示装置本体5Cの動作は、上述した実施の形態3で説明した表示装置本体5Bの動作(図22,図23)に対して、関連画像表示処理(ステップS209B,S217B,S229B)が異なるのみである。このため、以下では、本実施の形態4に係る関連画像表示処理(ステップS209B,S217B,S229B)のみを説明する。
[Operation of display unit]
The operation of the display device body 5C is different from the operation of the display device body 5B described in the third embodiment (FIGS. 22 and 23) only in the related image display processing (steps S209B, S217B, and S229B). is there. Therefore, hereinafter, only the related image display processing (steps S209B, S217B, and S229B) according to the fourth embodiment will be described.

〔関連画像表示処理〕
図27は、本発明の実施の形態4に係る関連画像表示処理(ステップS209B,S217B,S229B)を示すフローチャートである。
本実施の形態4に係る関連画像表示処理は、図27に示すように、上述した実施の形態3で説明した関連画像表示処理(図23)に対して、ステップS232Bの代わりに、関連画像データの送信要求を行う際に、撮影位置情報及び抽出範囲情報の他、第1タイムスタンプを送信するステップS232Cを追加した点が異なるのみである。
ここで、レンズ型カメラ4Cに送信する第1タイムスタンプは、ステップS209Bでの関連画像表示処理(基準画像がライブビュー画像)の場合には、ステップS203で本体側メモリ部56に記憶された最新のライブビュー画像データに含まれる第1タイムスタンプである。また、ステップS217Bでの関連画像表示処理(基準画像が撮影画像)の場合には、当該第1タイムスタンプは、ステップS213で画像データ記録部572に記録された最新の撮影画像データに含まれる第1タイムスタンプである。さらに、ステップS229Bでの関連画像表示処理(基準画像が対応画像)の場合には、当該第1タイムスタンプは、ステップS223で本体側メモリ部56に記憶された最新の対応画像データに含まれる第1タイムスタンプである。
[Related image display processing]
FIG. 27 is a flowchart showing related image display processing (steps S209B, S217B, and S229B) according to Embodiment 4 of the present invention.
As shown in FIG. 27, the related image display process according to the fourth embodiment is different from the related image display process described in the third embodiment (FIG. 23) in the related image data instead of step S232B. The only difference is that step S232C for transmitting the first time stamp is added in addition to the shooting position information and the extraction range information.
Here, the first time stamp transmitted to the lens type camera 4C is the latest time stored in the main body side memory unit 56 in step S203 in the case of the related image display processing in step S209B (the reference image is a live view image). The first time stamp included in the live view image data. In the case of the related image display process (the reference image is a captured image) in step S217B, the first time stamp is included in the latest captured image data recorded in the image data recording unit 572 in step S213. One time stamp. Further, in the case of the related image display process (the reference image is the corresponding image) in step S229B, the first time stamp is included in the latest corresponding image data stored in the main body memory unit 56 in step S223. One time stamp.

以上説明した本実施の形態4によれば、上述した実施の形態3と同様の効果の他、以下の効果がある。
本実施の形態4に係る表示システム1Cは、第1〜第3関連画像データを抽出する際に、基準位置からの距離の他、基準画像の撮影日時や、撮影画像データに対応する撮影画像の表示回数を考慮するように構成されている。
このため、関連画像としての表示に適切でない関連画像(基準画像の撮影日時が夏なのに冬に撮影された関連画像や、カメラユーザにとって関心のない(表示回数が少ない)関連画像等)を表示することがなく、適切な関連画像のみを表示することができる。
According to the fourth embodiment described above, there are the following effects in addition to the same effects as in the third embodiment.
When extracting the first to third related image data, the display system 1C according to Embodiment 4 captures the shooting date and time of the reference image and the shot image corresponding to the shot image data in addition to the distance from the reference position. It is configured to take into account the number of display times.
For this reason, related images that are not suitable for display as related images (such as related images captured in winter when the reference image was taken in summer or related images that are not of interest to the camera user (the number of display times is small)) are displayed. And only relevant relevant images can be displayed.

(実施の形態4の変形例)
上述した実施の形態4では、基準画像の撮影日時と同一の季節となる関連画像データを抽出していたが、これに限られず、基準画像の撮影日時を考慮に入れれば、基準画像の撮影日時と同一の時間帯(昼や夜)となる関連画像データを抽出しても構わない。
(Modification of Embodiment 4)
In the fourth embodiment described above, related image data having the same season as the shooting date and time of the reference image is extracted. However, the present invention is not limited to this. The related image data in the same time zone (daytime or night) may be extracted.

また、上述した実施の形態4において、関連画像データを抽出する際に、以下の情報を考慮するように構成しても構わない。
すなわち、撮影画像データをカメラ側記録部48に記録する際に、当該撮影画像データに対して、カメラユーザが入力部51を利用して選択あるいは入力したキーワード(例えば、ラーメン等)を関連付けてカメラ側記録部48に記録しておく。そして、当該カメラ側記録部48に記録された複数の撮影画像データから関連画像データを抽出する際には、別途、カメラユーザが選択あるいは入力したキーワードに関連付けられた撮影画像データを関連画像データとして抽出する。
In the above-described fourth embodiment, the following information may be considered when extracting the related image data.
That is, when recording captured image data in the camera-side recording unit 48, a camera (for example, ramen etc.) selected or input by the camera user using the input unit 51 is associated with the captured image data. This is recorded in the side recording unit 48. When extracting related image data from a plurality of captured image data recorded in the camera-side recording unit 48, separately, captured image data associated with a keyword selected or input by the camera user is used as related image data. Extract.

上述した実施の形態4で説明した表示装置2Cに対して、上述した実施の形態2で説明した地図情報記録部34や経路探索部336の機能を組み込んだ構成を採用し、基準位置からカメラユーザによる選択された関連画像の撮影位置までの経路をカメラユーザに案内するように構成しても構わない。   The display device 2C described in the fourth embodiment described above adopts a configuration in which the functions of the map information recording unit 34 and the route search unit 336 described in the second embodiment are incorporated. The camera user may be guided to the route to the shooting position of the selected related image.

上述した実施の形態4で説明した「関連画像データを抽出する際に、基準位置からの距離、基準画像の撮影日時、撮影画像データに対応する撮影画像の表示回数、または、キーワードを考慮する」という構成を、上述した実施の形態1,2で説明した構成に組み込んでも構わない。   As described in the above-described fourth embodiment, when extracting related image data, the distance from the reference position, the shooting date and time of the reference image, the number of display times of the shot image corresponding to the shot image data, or the keyword is considered. Such a configuration may be incorporated into the configuration described in the first and second embodiments.

(その他の実施の形態)
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態1〜4によってのみ限定されるべきものではない。
上述した実施の形態1〜4において、関連画像を表示する表示画面の構成(レイアウト)は、上述した実施の形態1〜4で説明した構成(図10の例では、表示画面W100)に限られず、その他の構成(レイアウト)を採用しても構わない。例えば、レンズ型カメラ4,4B,4Cの方位(視野方向)に応じて、当該方位に存在する関連画像を当該方位に応じた位置に配置した構成(レイアウト)を採用しても構わない。
(Other embodiments)
Up to this point, the mode for carrying out the present invention has been described. However, the present invention should not be limited only by the above-described first to fourth embodiments.
In the first to fourth embodiments described above, the configuration (layout) of the display screen that displays the related image is not limited to the configuration described in the first to fourth embodiments (display screen W100 in the example of FIG. 10). Other configurations (layouts) may be adopted. For example, a configuration (layout) in which related images existing in the azimuth are arranged at positions corresponding to the azimuth according to the azimuth (viewing direction) of the lens-type cameras 4, 4 </ b> B, and 4 </ b> C may be adopted.

上述した実施の形態1〜4では、抽出範囲情報として第1〜第3抽出範囲情報を設け、第1〜第3関連画像データを取得して表示画面の第1〜第3領域Ar1〜Ar3にそれぞれ配置するように構成されていたが、これに限られない。例えば、抽出範囲情報を1つまたは2つ設けた構成(関連画像データを1つまたは2つ(第1関連画像データのみ、または、第1,第2関連画像データのみ)取得する構成)としてもよく、あるいは、4つ以上設けた構成(関連画像データを4つ以上取得(第1〜第3関連画像データの他、第4関連画像データ等を取得)する構成)としても構わない。   In the first to fourth embodiments described above, the first to third extraction range information is provided as the extraction range information, the first to third related image data is acquired, and the first to third areas Ar1 to Ar3 of the display screen are acquired. Although it was comprised so that it may each arrange | position, it is not restricted to this. For example, a configuration in which one or two pieces of extraction range information are provided (a configuration in which one or two pieces of related image data (only the first related image data or only the first and second related image data) are acquired) Alternatively, a configuration in which four or more related images are provided (a configuration in which four or more related image data is acquired (fourth related image data or the like in addition to the first to third related image data)) may be used.

上述した実施の形態1〜4では、レンズ型カメラ4,4B,4Cと表示装置本体5,5A〜5Cとを別体で構成していたが、これに限られず、レンズ型カメラ4,4B,4Cの機能と表示装置本体5,5A〜5Cの機能とを一体化した表示装置として構成しても構わない。勿論、産業用、医療用の機器においても、観察位置、撮影位置等、現在の装置位置(基準位置)と、すでに撮影された画像の相対的な位置関係(絶対的な位置の差分でもよい)が分かるものであれば、どのような撮影、観察、検査装置にも利用が可能であって、相対的に近い位置で撮影された画像が整理されて表示されれば、再チェックする部分や、経過観察等の動機付けになり、様々な有益情報を視覚的、直感的にユーザに提供することができる。いわば、位置を利用したキュレーションとも言える発明が、本発明には含まれている。つまり、利便性の向上が図れる観察装置、検査装置、観察システム、検査システム、観察方法、検査方法、観察プログラム、及び検査プログラムを提供することができることとなる。
本発明に係る装置は、基準画像データと、当該基準画像データの観察、表示位置(基準位置)に対して所定距離の範囲内で撮影された関連画像データとを取得し、当該基準画像データに対応する基準画像、及び当該関連画像データに対応する関連画像を表示する。
このため、本装置のユーザは、関連画像を確認することにより、基準位置の周辺での観察、検査により実際にどのような観察、検査ができるのかを明確に把握することができる。したがって、本発明に係る装置によれば、利便性の向上が図れる、という効果を奏する。
In Embodiments 1 to 4 described above, the lens-type cameras 4, 4 </ b> B, and 4 </ b> C and the display device main bodies 5 and 5 </ b> A to 5 </ b> C are configured separately. You may comprise as a display apparatus which integrated the function of 4C, and the function of the display apparatus main bodies 5 and 5A-5C. Of course, even in industrial and medical equipment, the relative position relationship between the current apparatus position (reference position) such as an observation position and a photographing position and an already photographed image (may be an absolute position difference). Can be used for any shooting, observation, and inspection device, and if the images taken at relatively close positions are organized and displayed, the part to be rechecked, It becomes motivation such as follow-up observation, and various useful information can be provided to the user visually and intuitively. In other words, the present invention includes an invention that can be said to be curation using position. That is, an observation apparatus, an inspection apparatus, an observation system, an inspection system, an observation method, an inspection method, an observation program, and an inspection program that can improve convenience can be provided.
The apparatus according to the present invention acquires reference image data and related image data photographed within a predetermined distance with respect to the observation and display position (reference position) of the reference image data, and includes the reference image data as the reference image data. A corresponding reference image and a related image corresponding to the related image data are displayed.
For this reason, the user of this apparatus can grasp | ascertain clearly what kind of observation and test | inspection can actually be performed by observation and test | inspection around the reference | standard position by confirming a related image. Therefore, according to the device of the present invention, there is an effect that the convenience can be improved.

また、処理フローは、上述した実施の形態1〜4で説明したフローチャートにおける処理の順序に限られず、矛盾のない範囲で変更しても構わない。
さらに、本明細書においてフローチャートを用いて説明した処理のアルゴリズムは、プログラムとして記述することが可能である。このようなプログラムは、コンピュータ内部の記録部に記録してもよいし、コンピュータ読み取り可能な記録媒体に記録してもよい。プログラムの記録部または記録媒体への記録は、コンピュータまたは記録媒体を製品として出荷する際に行ってもよいし、通信ネットワークを介したダウンロードにより行ってもよい。
The processing flow is not limited to the processing order in the flowcharts described in the first to fourth embodiments, and may be changed within a consistent range.
Furthermore, the processing algorithm described using the flowcharts in this specification can be described as a program. Such a program may be recorded on a recording unit inside the computer, or may be recorded on a computer-readable recording medium. Recording of the program in the recording unit or recording medium may be performed when the computer or recording medium is shipped as a product, or may be performed by downloading via a communication network.

1,1A〜1C・・・表示システム;2,2A〜2C・・・表示装置;3,3A・・・サーバ;4,4B,4C・・・レンズ型カメラ;5,5A〜5C・・・表示装置本体;6・・・アタッチメント;6A・・・取付用孔;31・・・サーバ側通信部;32・・・データベース;33,33A・・・サーバ側制御部;34・・・地図情報記録部;41・・・光学系;42・・・駆動部;43・・・位置検出部;44・・・操作部;45・・・カメラ側時計部;46・・・カメラ側撮像部;47・・・カメラ側メモリ部;48・・・カメラ側記録部;49・・・カメラ側通信部;50,50B,50C・・・カメラ側制御部;51・・・入力部;52・・・表示部;53・・・本体側時計部;54・・・本体側撮像部;55・・・位置取得部;56・・・本体側メモリ部;57・・・本体側記録部;58・・・本体側通信部;59,59A〜59C・・・本体側制御部;331,331A・・・サーバ側通信制御部;332・・・端末判定部;333・・・データベース管理部;334・・・距離算出部;335・・・関連画像抽出部;336・・・経路探索部;411・・・ズームレンズ;412・・・フォーカスレンズ;421・・・ズーム駆動部;422・・・フォーカス駆動部;431・・・ズーム位置検出部;432・・・フォーカス位置検出部;501,501B,501C・・・カメラ側通信制御部;502・・・カメラ側撮像制御部;503・・・距離算出部;504,504C・・・関連画像抽出部;571・・・プログラム記録部;572・・・画像データ記録部;591,591A〜591C・・・本体側通信制御部;592・・・本体側撮像制御部;593,593A・・・本体側表示制御部;A1〜A3・・・操作アイコン;Ar1・・・第1領域;Ar2・・・第2領域;Ar3・・・第3領域;D1・・・第1距離;D2・・・第2距離;FS・・・基準画像;F101〜F110・・・撮影画像;N・・・インターネット網;PS・・・基準位置;P101〜P105・・・撮影位置;RT・・・経路;W100・・・表示画面;W200・・・経路画像   DESCRIPTION OF SYMBOLS 1,1A-1C ... Display system; 2, 2A-2C ... Display apparatus; 3, 3A ... Server; 4, 4B, 4C ... Lens type camera; 5, 5A-5C ... Display device body; 6 ... attachment; 6A ... mounting hole; 31 ... server side communication unit; 32 ... database; 33, 33A ... server side control unit; Recording part; 41 ... Optical system; 42 ... Drive part; 43 ... Position detection part; 44 ... Operation part; 45 ... Camera side clock part; 47 ... Camera side memory unit; 48 ... Camera side recording unit; 49 ... Camera side communication unit; 50, 50B, 50C ... Camera side control unit; 51 ... Input unit; Display unit; 53... Main body side clock unit; 54... Main body side imaging unit; 55. 6 ... Main body side memory unit; 57 ... Main body side recording unit; 58 ... Main unit side communication unit; 59, 59A to 59C ... Main unit side control unit; 331, 331A ... Server side communication control 332... Terminal determination unit 333... Database management unit 334... Distance calculation unit 335... Related image extraction unit 336. 412 ... Focus lens; 421 ... Zoom drive unit; 422 ... Focus drive unit; 431 ... Zoom position detection unit; 432 ... Focus position detection unit; 501, 501B, 501C ... Camera 502: camera side imaging control unit; 503 ... distance calculation unit; 504, 504C ... related image extraction unit; 571 ... program recording unit; 572 ... image data recording 591, 591A to 591C, main body side communication control unit, 592, main body side imaging control unit, 593, 593A, main body side display control unit, A1 to A3, operation icons, Ar1,. First region; Ar2 ... second region; Ar3 ... third region; D1 ... first distance; D2 ... second distance; FS ... reference image; F101-F110 ... Image; N ... Internet network; PS ... Reference position; P101 to P105 ... Shooting position; RT ... Path; W100 ... Display screen; W200 ... Path image

Claims (14)

基準画像データを取得する基準画像取得部と、
前記基準画像データの撮影位置を示す基準位置に対して、所定距離の範囲内で撮影された関連画像データを取得する関連画像取得部と、
画像を表示する表示部と、
前記基準画像データに対応する基準画像、及び前記関連画像データに対応する関連画像を前記表示部に表示させる表示制御部とを備え
前記関連画像取得部は、
複数の前記関連画像データを取得し、
前記複数の関連画像データは、
前記基準位置に対して第1距離未満の範囲内で撮像された第1関連画像データと、
前記基準位置に対して第1距離以上、第2距離未満の範囲内で撮像された第2関連画像データとを備え、
前記表示制御部は、
第1領域に前記基準画像、及び前記第1関連画像データに対応する第1関連画像を配置するとともに、前記第1領域とは異なる第2領域に前記第2関連画像データに対応する第2関連画像を配置した表示画面を前記表示部に表示させる
ことを特徴とする表示装置。
A reference image acquisition unit for acquiring reference image data;
A related image acquisition unit that acquires related image data captured within a predetermined distance with respect to a reference position indicating a shooting position of the reference image data;
A display for displaying an image;
A display control unit that displays a reference image corresponding to the reference image data and a related image corresponding to the related image data on the display unit ,
The related image acquisition unit
Obtaining a plurality of the related image data;
The plurality of related image data are:
First related image data captured within a range less than a first distance with respect to the reference position;
Second related image data captured within a range of the first distance or more and less than the second distance with respect to the reference position,
The display control unit
The reference image and the first related image corresponding to the first related image data are arranged in the first region, and the second related corresponding to the second related image data in a second region different from the first region. A display device that displays a display screen on which an image is arranged on the display unit.
被写体を撮像して画像データを生成する撮像部と、
当該表示装置の位置に関する位置情報を取得する位置取得部とを備え、
前記基準画像取得部は、
前記撮像部にて生成された前記画像データを前記基準画像データとして取得し、
前記関連画像取得部は、
前記撮像部にて前記画像データが生成された際に前記位置取得部にて取得された前記位置情報に基づく位置を前記基準位置として、前記関連画像データを取得する
ことを特徴とする請求項1に記載の表示装置。
An imaging unit that images a subject and generates image data;
A position acquisition unit that acquires position information related to the position of the display device,
The reference image acquisition unit
Obtaining the image data generated by the imaging unit as the reference image data;
The related image acquisition unit
The related image data is acquired using the position based on the position information acquired by the position acquisition unit when the image data is generated by the imaging unit as the reference position. The display device described in 1.
前記表示制御部は、
前記第2関連画像を前記基準画像及び前記第1関連画像の画像サイズよりも小さいサイズで前記表示部に表示させる
ことを特徴とする請求項1または2に記載の表示装置。
The display control unit
Display device according to claim 1 or 2, characterized in that for displaying the second related image on the display section in a size smaller than the image size of the reference image and the first related image.
前記関連画像取得部は、
複数の前記第1関連画像データ、及び複数の前記第2関連画像データを取得し、
前記表示制御部は、
前記第1領域に前記基準画像、及び前記複数の第1関連画像データのうち少なくとも2つの第1関連画像データに対応する各前記第1関連画像を第1方向に沿って並べて配置するとともに、前記第2領域に前記複数の第2関連画像データのうち少なくとも2つの第2関連画像データに対応する各前記第2関連画像を前記第1方向に沿って並べて配置した前記表示画面を前記表示部に表示させる
ことを特徴とする請求項1〜3のいずれか一つに記載の表示装置。
The related image acquisition unit
Obtaining a plurality of the first related image data and a plurality of the second related image data;
The display control unit
In the first area, the reference image and the first related images corresponding to at least two first related image data among the plurality of first related image data are arranged side by side along a first direction, and The display unit has the display screen in which the second related images corresponding to at least two second related image data among the plurality of second related image data are arranged in the second region along the first direction. The display device according to claim 1, wherein the display device is displayed.
前記表示制御部は、
前記基準画像、前記少なくとも2つの第1関連画像データに対応する各前記第1関連画像、及び前記少なくとも2つの第2関連画像データに対応する各前記第2関連画像を前記第1方向の上流側から徐々に現れる態様で前記表示部に表示させた後、前記表示画面を前記表示部に表示させる
ことを特徴とする請求項に記載の表示装置。
The display control unit
The reference image, each of the first related images corresponding to the at least two first related image data, and each of the second related images corresponding to the at least two second related image data are upstream in the first direction. The display device according to claim 4 , wherein the display screen is displayed on the display unit after being displayed on the display unit in a manner that gradually appears.
ユーザ操作を受け付ける操作受付部を備え、
前記表示制御部は、
前記操作受付部が前記表示画面の変更を指示するユーザ操作を受け付けた場合に、前記第1領域及び前記第2領域のうち少なくともいずれかの領域に配置された画像が前記第1方向に沿って移動する態様で前記表示画面を変更する
ことを特徴とする請求項またはに記載の表示装置。
An operation reception unit for receiving user operations;
The display control unit
When the operation receiving unit receives a user operation for instructing to change the display screen, an image arranged in at least one of the first region and the second region is along the first direction. the display device according to claim 4 or 5, characterized in that to change the display screen by moving manner.
前記関連画像取得部は、
前記基準位置に対して所定の距離範囲内で撮影され、かつ、前記基準画像データの撮影日時を示す基準日時に応じた日時に撮影された前記関連画像データを取得する
ことを特徴とする請求項1〜のいずれか一つに記載の表示装置。
The related image acquisition unit
The related image data captured at a date and time according to a reference date and time that is captured within a predetermined distance range with respect to the reference position and that indicates a shooting date and time of the reference image data is acquired. The display device according to any one of 1 to 6 .
前記関連画像取得部は、
前記基準位置に対して所定の距離範囲内で撮影され、かつ、所定回数以上、当該表示装置または当該表示装置とは異なる他の表示装置に表示された前記関連画像データを取得する
ことを特徴とする請求項1〜のいずれか一つに記載の表示装置。
The related image acquisition unit
Obtaining the related image data captured within a predetermined distance range with respect to the reference position and displayed on the display device or another display device different from the display device for a predetermined number of times or more. The display device according to any one of claims 1 to 7 .
画像データ、及び当該画像データの撮影位置を示す撮影位置情報が互いに関連付けられた参照情報を複数、記録する画像記録部を備え、
前記関連画像取得部は、
前記画像記録部に記録された前記複数の参照情報に含まれる複数の前記画像データのうち、前記基準位置に対して、所定距離の範囲内で撮影された前記画像データを前記関連画像データとして取得する
ことを特徴とする請求項1〜のいずれか一つに記載の表示装置。
An image recording unit that records a plurality of pieces of reference information in which image data and shooting position information indicating a shooting position of the image data are associated with each other;
The related image acquisition unit
Of the plurality of image data included in the plurality of reference information recorded in the image recording unit, the image data captured within a predetermined distance with respect to the reference position is acquired as the related image data. display device according to any one of claims 1-8, characterized by.
前記基準位置と、前記画像記録部に記録された前記複数の参照情報に含まれる複数の前記撮影位置情報に基づく各撮影位置との各距離を算出する距離算出部を備え、
前記関連画像取得部は、
前記距離算出部にて算出された前記各距離に基づいて、前記画像記録部に記録された前記複数の参照情報から前記関連画像データを取得する
ことを特徴とする請求項に記載の表示装置。
A distance calculation unit that calculates each distance between the reference position and each shooting position based on a plurality of the shooting position information included in the plurality of reference information recorded in the image recording unit;
The related image acquisition unit
The display device according to claim 9 , wherein the related image data is acquired from the plurality of reference information recorded in the image recording unit based on the distances calculated by the distance calculating unit. .
外部のサーバと通信可能に接続する表示側通信部を備え、
前記関連画像取得部は、
前記表示側通信部を介して、前記サーバに前記基準位置を示す基準位置情報を送信するとともに、前記サーバから前記関連画像データを取得する
ことを特徴とする請求項1〜のいずれか一つに記載の表示装置。
It has a display side communication unit that connects to an external server so that it can communicate
The related image acquisition unit
Through the display-side communication unit, any one of claims 1-8, which sends the reference position information indicating the reference position to the server, and acquires the associated image data from the server The display device described in 1.
請求項11に記載の表示装置と、前記表示装置と通信を行うサーバとを備えた表示システムにおいて、
前記サーバは、
前記表示装置との間で通信を行うサーバ側通信部と、
前記サーバ側通信部を介して、前記基準位置情報を前記表示装置から受信するサーバ側通信制御部と、
画像データ、及び当該画像データの撮影位置を示す撮影位置情報が互いに関連付けられた参照情報を複数、記録するデータベースと、
前記サーバ側通信部を介して受信した前記基準位置情報に基づく基準位置と、前記データベースに記録された前記複数の参照情報に含まれる複数の前記撮影位置情報に基づく各撮影位置との各距離を算出する距離算出部と、
前記距離算出部にて算出された前記各距離に基づいて、前記データベースに記録された前記複数の参照情報から前記関連画像データを抽出する関連画像抽出部とを備え、
前記サーバ側通信制御部は、
前記サーバ側通信部を介して、前記関連画像抽出部にて抽出された前記関連画像データを前記表示装置に送信する
ことを特徴とする表示システム。
A display system comprising the display device according to claim 11 and a server that communicates with the display device.
The server
A server-side communication unit that communicates with the display device;
A server-side communication control unit that receives the reference position information from the display device via the server-side communication unit;
A database for recording a plurality of pieces of reference information in which image data and shooting position information indicating a shooting position of the image data are associated with each other;
Each distance between the reference position based on the reference position information received via the server-side communication unit and each shooting position based on the plurality of shooting position information included in the plurality of reference information recorded in the database. A distance calculating unit to calculate;
A related image extraction unit that extracts the related image data from the plurality of reference information recorded in the database based on the distances calculated by the distance calculation unit;
The server side communication control unit,
The display system, wherein the related image data extracted by the related image extraction unit is transmitted to the display device via the server side communication unit.
表示装置が行う表示方法において、
基準画像データを取得する第1取得ステップと、
前記基準画像データの撮影位置を示す基準位置に対して、所定距離の範囲内で撮影された関連画像データを取得する第2取得ステップと、
前記基準画像データに対応する基準画像、及び前記関連画像データに対応する関連画像を表示部に表示させる表示ステップとを含み、
前記第2取得ステップでは、
複数の前記関連画像データを取得し、
前記複数の関連画像データは、
前記基準位置に対して第1距離未満の範囲内で撮像された第1関連画像データと、
前記基準位置に対して第1距離以上、第2距離未満の範囲内で撮像された第2関連画像データとを備え、
前記表示ステップでは、
第1領域に前記基準画像、及び前記第1関連画像データに対応する第1関連画像を配置するとともに、前記第1領域とは異なる第2領域に前記第2関連画像データに対応する第2関連画像を配置した表示画面を前記表示部に表示させる
ことを特徴とする表示方法。
In the display method performed by the display device,
A first acquisition step of acquiring reference image data;
A second acquisition step of acquiring related image data photographed within a predetermined distance with respect to a reference position indicating a photographing position of the reference image data;
Reference image corresponding to the reference image data, and look including a display step of displaying the associated image corresponding to the associated image data in Table radical 113,
In the second acquisition step,
Obtaining a plurality of the related image data;
The plurality of related image data are:
First related image data captured within a range less than a first distance with respect to the reference position;
Second related image data captured within a range of the first distance or more and less than the second distance with respect to the reference position,
In the display step,
The reference image and the first related image corresponding to the first related image data are arranged in the first region, and the second related corresponding to the second related image data in a second region different from the first region. A display method comprising: displaying a display screen on which an image is arranged on the display unit .
請求項13に記載の表示方法を表示装置に実行させる
ことを特徴とする表示プログラム。
A display program for causing a display device to execute the display method according to claim 13 .
JP2014133322A 2014-06-27 2014-06-27 Display device, display system, display method, and display program Active JP6368560B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014133322A JP6368560B2 (en) 2014-06-27 2014-06-27 Display device, display system, display method, and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014133322A JP6368560B2 (en) 2014-06-27 2014-06-27 Display device, display system, display method, and display program

Publications (2)

Publication Number Publication Date
JP2016012814A JP2016012814A (en) 2016-01-21
JP6368560B2 true JP6368560B2 (en) 2018-08-01

Family

ID=55229276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014133322A Active JP6368560B2 (en) 2014-06-27 2014-06-27 Display device, display system, display method, and display program

Country Status (1)

Country Link
JP (1) JP6368560B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009130379A (en) * 2007-11-19 2009-06-11 Olympus Imaging Corp Image display method and image display device
JP6089515B2 (en) * 2012-09-11 2017-03-08 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2016012814A (en) 2016-01-21

Similar Documents

Publication Publication Date Title
CN101674404B (en) Photographing apparatus and method
EP2787722B1 (en) Imaging device
JP5532026B2 (en) Display device, display method, and program
JP2009058922A (en) Map information display device, map information display method, and program
CN110543850B (en) Target detection method and device and neural network training method and device
JP2003174578A (en) Electronic camera, image display device and image display method
EP3287745B1 (en) Information interaction method and device
EP3772217A1 (en) Output control apparatus, display terminal, remote control system, control method, and carrier medium
JP2013161416A (en) Server, client terminal, system and program
US9635234B2 (en) Server, client terminal, system, and program
US9699366B2 (en) Image providing apparatus, image display device, imaging system, image display system, and image providing method in which composite image data is generated using auxiliary image data generated by at least one auxiliary imaging unit
JP6370056B2 (en) Imaging apparatus, communication device, and imaging method
JP2018045558A (en) Controller, control system, and control method
JP4572954B2 (en) Image display device
WO2013169080A2 (en) Method for providing source information of object by photographing object, and server and portable terminal for method
JP4513867B2 (en) Electronic camera
JP2013021473A (en) Information processing device, information acquisition method, and computer program
JP6368560B2 (en) Display device, display system, display method, and display program
US11842452B2 (en) Portable display device with overlaid virtual information
CN107238920B (en) Control method and device based on telescope equipment
JP2004077655A (en) Information processing device and method therefor, navigation device and display method therefor, and program therefor, and recording medium for recording these programs
JP5578719B2 (en) Information system, terminal device, advertisement output method, and program
JP2019213130A (en) Imaging apparatus, learning device, imaging method, learning method, image data creation method, and program
JP4556096B2 (en) Information processing apparatus and method, recording medium, and program
JP2009224890A (en) Imaging device and personal digital assistant

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180709

R151 Written notification of patent or utility model registration

Ref document number: 6368560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250