JP5722177B2 - Image association apparatus, photographing apparatus, and image association program - Google Patents

Image association apparatus, photographing apparatus, and image association program Download PDF

Info

Publication number
JP5722177B2
JP5722177B2 JP2011203784A JP2011203784A JP5722177B2 JP 5722177 B2 JP5722177 B2 JP 5722177B2 JP 2011203784 A JP2011203784 A JP 2011203784A JP 2011203784 A JP2011203784 A JP 2011203784A JP 5722177 B2 JP5722177 B2 JP 5722177B2
Authority
JP
Japan
Prior art keywords
image data
image
unit
map
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011203784A
Other languages
Japanese (ja)
Other versions
JP2013065211A (en
Inventor
広樹 工藤
広樹 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011203784A priority Critical patent/JP5722177B2/en
Publication of JP2013065211A publication Critical patent/JP2013065211A/en
Application granted granted Critical
Publication of JP5722177B2 publication Critical patent/JP5722177B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、少なくとも2つの画像データを用いて位置情報を関連付けて表示する画像関連付け装置及び撮影装置並びに画像関連付けプログラムに関する。   The present invention relates to an image association apparatus, a photographing apparatus, and an image association program that display position information in association with each other using at least two image data.

デジタルカメラ等の撮像装置には、例えば撮像画像データに当該撮像画像データを撮影した地図上の位置情報を付加し、地図に撮像画像データを合成表示する技術がある。このような撮像装置は、例えば特許文献1に開示されている。   An imaging apparatus such as a digital camera has a technique of adding position information on a map where the captured image data is captured to captured image data, and combining and displaying the captured image data on a map. Such an imaging apparatus is disclosed in Patent Document 1, for example.

特開2010−68212号公報JP 2010-68212 A

しかしながら、上記技術は、撮像画像データを撮影した位置情報を用いて当該撮像画像データを地図画像データ上に合成表示するだけで、ユーザに直感的に画像データと地図画像データとの関連性を掴めるような合成表示でなかった。
本発明の目的は、ユーザに直感的に画像データと地図画像データとの関連性を掴めるような表示ができる画像関連付け装置及び撮影装置並びに画像関連付けプログラムを提供することにある。
However, the above technique allows the user to intuitively grasp the relationship between the image data and the map image data simply by combining and displaying the captured image data on the map image data using the position information obtained by capturing the captured image data. It was not such a composite display.
An object of the present invention is to provide an image association apparatus, a photographing apparatus, and an image association program capable of displaying such that the user can intuitively grasp the relationship between image data and map image data.

本発明の主要な局面に係る画像関連付け装置は、地名及び施設名と、これら地名施設名の各位置を示す第1の位置情報とを対応して記録するデータベースと、地図上の文字から成る文字情報を含む第1の画像データと、撮影位置を示す第2の位置情報を有する第2の画像データとを取り込む画像取込部と、前記画像取込部により取り込まれた前記第1の画像データから前記文字情報を読み取る文字読取部と、前記文字読取部により読み取られた前記文字情報に対応する前記地名又は前記施設名を前記データベースから検索し、当該検索された前記地名又は前記施設名の前記第1の位置情報を取得する位置情報取得部と、前記位置情報取得部により取得された前記第1の位置情報と前記画像取込部により取り込まれた前記第2の画像データの前記第2の位置情報との対応が取れると、前記第1の画像データと前記第2の画像データとを関連付けする画像関連付け部と、前記画像関連付け部により関連付けされた前記第1の画像データと前記第2の画像データとを表示する表示制御部とを具備する。
本発明の主要な局面に係る撮影装置は、上記画像関連付け装置を備え、被写体を撮影し、当該撮影位置を示す前記第2の位置情報を有する前記第2の画像データを取得する。
Image association device according to the main aspect of the invention, the place names and facility names, a database for recording in response to a first position information indicating the positions of these place names and facility names, from the character on the map An image capturing unit that captures first image data including character information and second image data having second position information indicating a shooting position, and the first image captured by the image capturing unit. A character reading unit that reads the character information from the image data, and searches the database for the place name or the facility name corresponding to the character information read by the character reading unit, and the searched place name or the facility name The position information acquisition unit for acquiring the first position information, the first position information acquired by the position information acquisition unit, and the second image data acquired by the image acquisition unit When correspondence with the second position information is obtained, an image association unit for associating the first image data with the second image data, and the first image data associated with the image association unit A display control unit for displaying the second image data.
A photographing apparatus according to a main aspect of the present invention includes the image association apparatus, photographs a subject, and acquires the second image data having the second position information indicating the photographing position.

本発明の主要な局面に係る画像関連付けプログラムは、コンピュータに、地図上の文字から成る文字情報を含む第1の画像データと、撮影位置を示す第2の位置情報を有する第2の画像データとを取り込ませる画像取込機能と、前記画像取込機能により取り込ませた前記第1の画像データから前記文字情報を読み取りさせる文字読取機能と、前記文字読取機能により読み取らせた前記文字情報に対応する地名又は施設名をデータベースから検索させ、当該検索された前記地名又は前記施設名の前記第1の位置情報を取得させる位置情報取得機能と、前記位置情報取得機能により取得させた前記第1の位置情報と前記画像取込部により取り込みさせた前記第2の画像データの前記第2の位置情報との対応が取れると、前記第1の画像データと前記第2の画像データとを関連付けさせる画像関連付け機能と、前記画像関連付け機能により関連付けさせた前記第1の画像データと前記第2の画像データとを表示させる表示制御機能とを実現させる。 An image association program according to a main aspect of the present invention includes: a first image data including character information including characters on a map; a second image data having second position information indicating a shooting position; An image capturing function for capturing the character information, a character reading function for reading the character information from the first image data captured by the image capturing function, and the character information read by the character reading function. place names or facility names is retrieved from the database, the retrieved the position information acquisition function for acquiring the first position information, the first position is acquired by the position information acquisition function of the place names or the facility names When the correspondence between the information and the second position information of the second image data captured by the image capturing unit can be obtained, the first image data and the previous image data And image association function to associate the second image data, thereby realizing the display control function of displaying the said image association said second image data and the first image data which gave related by function.

本発明によれば、ユーザに直感的に画像データと地図画像データとの関連性を掴めるような表示ができる画像関連付け装置及び撮影装置並びに画像関連付けプログラムを提供できる。   According to the present invention, it is possible to provide an image association apparatus, a photographing apparatus, and an image association program capable of displaying such that the user can intuitively grasp the relationship between image data and map image data.

本発明に係る画像関連付け装置を備えた撮影装置の一の実施の形態を示すブロック構成図。The block block diagram which shows one Embodiment of the imaging device provided with the image correlation apparatus which concerns on this invention. 同装置により地図画像データを取得するときの撮影状況を示す図。The figure which shows the imaging | photography condition when acquiring map image data with the same apparatus. 同装置により取得された地図画像データを示す模式図。The schematic diagram which shows the map image data acquired by the same apparatus. 同装置により目的の被写体を撮影して撮影画像データを取得するときの撮影状況を示す図。The figure which shows the imaging | photography condition at the time of image | photographing the target object by the same apparatus and acquiring captured image data. 同装置により取得された撮影画像データを示す模式図。The schematic diagram which shows the picked-up image data acquired by the same apparatus. 同装置におけるデータベースを示す模式図。The schematic diagram which shows the database in the apparatus. 同装置における画像関連付け部により関連付けがなされた地図画像データと撮影画像データとの表示例を示す図。The figure which shows the example of a display of the map image data linked | related by the image correlation part in the same apparatus, and picked-up image data. 同装置における画像関連付け部により関連付けがなされた地図画像データと撮影画像データとの他の表示例を示す図。The figure which shows the other example of a display of the map image data linked | related by the image correlation part in the same apparatus, and picked-up image data. 同装置における画像関連付け部による地図画像データと撮影画像データとの関連付けの説明図。Explanatory drawing of correlation with the map image data and picked-up image data by the image correlation part in the same apparatus. 同装置における画像記録部により記録される地図画像ファイルを示す模式図。The schematic diagram which shows the map image file recorded by the image recording part in the apparatus. 同装置における画像記録部により記録される撮影画像ファイルを示す模式図。FIG. 3 is a schematic diagram showing a captured image file recorded by an image recording unit in the apparatus. 同装置によりガイドブックに記載されている地図を撮影して地図画像データを取得するときの撮影状況を示す図。The figure which shows the imaging | photography condition when image | photographing the map described in the guidebook by the same apparatus and acquiring map image data. 同装置の地図回想モードにおける画像関連付け部により関連付けがなされた地図画像データと撮影画像データとの表示例を示す図。The figure which shows the example of a display of the map image data and imaging | photography image data which were made | formed by the image correlation part in the map recollection mode of the same apparatus. 同装置におけるカメラ制御フローチャート。The camera control flowchart in the same apparatus. 同装置における再生モードフローチャート。The reproduction mode flowchart in the same apparatus. 同装置における地図回想モードフローチャート。The map recollection mode flowchart in the same apparatus. 同装置におけるディスプレイへの地図画像データや撮影画像データの表示の変形例を示す図。The figure which shows the modification of a display of the map image data and picked-up image data on the display in the same apparatus.

以下、本発明の第1の実施の形態について図面を参照して説明する。
図1は画像関連付け装置を備えた撮影装置のブロック構成図を示す。この撮影装置1は、コンピュータから成る信号処理制御部2と、撮影部3と、位置検出器4と、記録部5と、ディスプレイ6と、操作判定部7と、プログラムメモリ8とを備える。
撮影部3は、図2に示すように文字から成る文字情報が記載された地図Mを被写体として撮影して第1の画像データである例えば図3に示す地図画像データD1を取得する。又、撮影部3は、図4に示すように人物H等の主要被写体を含む撮影を行って第2の画像データである例えば図5に示す撮影画像データD2を取得する。
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a block diagram of a photographing apparatus provided with an image association apparatus. The photographing apparatus 1 includes a signal processing control unit 2 including a computer, a photographing unit 3, a position detector 4, a recording unit 5, a display 6, an operation determination unit 7, and a program memory 8.
As shown in FIG. 2, the photographing unit 3 photographs a map M on which character information including characters is described as a subject, and obtains first image data, for example, map image data D1 shown in FIG. Further, the photographing unit 3 performs photographing including a main subject such as a person H as shown in FIG. 4 to obtain second image data, for example, photographed image data D2 shown in FIG.

地図画像データD1は、例えばユーザYが本装置1により看板に掲示されている地図Mを撮影することにより取得される。この地図Mには、例えば△□寺、○×駅等の文字から成る文字情報が記載されている。
撮影画像データD2は、例えばユーザYが本装置1により人物H等の主要被写体を含む被写体を撮影することにより取得される。
The map image data D1 is acquired, for example, when the user Y photographs a map M posted on a signboard by the apparatus 1. In this map M, for example, character information composed of characters such as Δ □ temple, ○ × station, etc. is described.
The captured image data D2 is acquired, for example, when the user Y captures a subject including a main subject such as a person H by the apparatus 1.

位置検出器4は、撮影装置1が存在する地点の位置を検出するもので、例えば広域測位システム(GPS)である。この位置検出器4は、撮影装置1が存在する地点の位置を経度緯度により検出する。
記録部5は、例えばRAM等のメモリにより成り、例えば1つ又は複数の地図画像データD1及び1つ又は複数の撮影画像データD2を記録する。この記録部5には、地名等の位置を記憶するデータベース5dが形成されている。図6はデータベース5dの模式図を示す。このデータベース5dには、地名、施設名等と、これら地名、施設名等の各位置を示す第1の位置情報とが対応して記録されている。地名は例えば○○公園、○□史跡等であり、施設名は例えば△□寺、○×駅等である。これら地名、施設名等の各位置は、それぞれ緯度経度により表されている。例えば△□寺の位置は、緯度XXX1、経度XXX2である。
The position detector 4 detects the position of the point where the photographing apparatus 1 exists, and is, for example, a wide area positioning system (GPS). This position detector 4 detects the position of the point where the photographing apparatus 1 exists based on the longitude and latitude.
The recording unit 5 includes a memory such as a RAM, and records, for example, one or more map image data D1 and one or more photographed image data D2. The recording unit 5 is formed with a database 5d for storing positions such as place names. FIG. 6 shows a schematic diagram of the database 5d. In the database 5d, place names, facility names, and the like, and first position information indicating the positions of these place names, facility names, and the like are recorded correspondingly. The place name is, for example, XX park, XX historical site, and the facility name is, for example, △ temple, XX station. Each position such as the place name and the facility name is represented by latitude and longitude. For example, the position of Δ □ temple is latitude XXX1 and longitude XXX2.

ディスプレイ6は、例えば液晶ディスプレイであり、本装置1の背面に設けられ、地図画像データD1又は複数の撮影画像データD2のいずれか一方又は両方を表示する。このディスプレイ6の表示面上には、タッチパネルが設けられている。このタッチパネルは、例えばユーザの指等によって押し操作された領域を示すタッチ位置信号を出力する。
操作判定部7は、本装置1に対するユーザYの操作を受け付け、当該操作の内容が例えば撮影モード、再生モードであるのか、又はシャッターがオンされて撮影動作であるのか否かを判定する。又、操作判定部7は、本装置1に対するユーザYの操作を受け付け、地図画像データD1と撮影画像データD2とを関連付けてディスプレイ6に表示する又は表示しないを判定する。
The display 6 is, for example, a liquid crystal display, and is provided on the back surface of the apparatus 1 and displays either one or both of the map image data D1 and the plurality of captured image data D2. A touch panel is provided on the display surface of the display 6. This touch panel outputs, for example, a touch position signal indicating an area pressed by a user's finger or the like.
The operation determination unit 7 receives the operation of the user Y with respect to the apparatus 1 and determines whether the content of the operation is, for example, a shooting mode or a playback mode, or whether the shutter is turned on and is a shooting operation. In addition, the operation determination unit 7 receives an operation of the user Y with respect to the apparatus 1 and determines whether the map image data D1 and the captured image data D2 are displayed on the display 6 in association with each other.

プログラムメモリ8には、予め画像関連付けプログラムが記憶されている。この画像関連付けプログラムは、コンピュータから成る信号処理制御部2に、地図上の文字から成る文字情報を含む地図画像データD1と、撮影位置を示す第2の位置情報を有する撮影画像データD2とを取り込ませる画像取込機能と、画像取込機能により取り込ませた地図画像データD1から文字情報を読み取りさせる文字読取機能と、文字読取機能により読み取らせた文字情報に対応する地名又は施設名をデータベース5dから検索させ、当該検索された地名又は施設名の第1の位置情報を取得させる位置情報取得機能と、位置情報取得機能により取得させた第1の位置情報と画像取込部により取り込みさせた撮影画像データD2の第2の位置情報との対応が取れると、地図画像データD1と撮影画像データD2とを関連付けさせる画像関連付け機能と、画像関連付け機能により関連付けさせた地図画像データD1と撮影画像データD2とを表示させる表示制御機能とを実現させる。
画像関連付け機能は、地図画像データD1中の地図上に、撮影画像データD2の撮影位置を示しさせることを実現させる。
The program memory 8 stores an image association program in advance. This image association program captures map image data D1 including character information consisting of characters on a map and photographed image data D2 having second position information indicating a photographing position into a signal processing control unit 2 composed of a computer. An image capturing function to be read, a character reading function for reading character information from the map image data D1 captured by the image capturing function, and a place name or facility name corresponding to the character information read by the character reading function from the database 5d. A position information acquisition function for searching and acquiring the first position information of the searched place name or facility name, and the first position information acquired by the position information acquisition function and the captured image captured by the image capturing unit When the correspondence with the second position information of the data D2 is obtained, the image that associates the map image data D1 and the captured image data D2 And communicating with function, thereby realizing the display control function of displaying the the map image data D1 which gave associates the captured image data D2 by the image association function.
The image association function realizes that the shooting position of the shot image data D2 is indicated on the map in the map image data D1.

信号処理制御部2は、1つ又は複数の地図画像データD1と、1つ又は複数の撮影画像データD2とを取り込み、地図画像データD1上の緯度経度と撮影画像データD2が撮像された位置を表す緯度経度との対応、すなわち地図画像データD1に撮影されている地図M上における緯度経度の中に撮影画像データD2が撮像された位置を表す緯度経度が存在すれば、地図画像データD1と撮影画像データD2とを関連付けてディスプレイ6に表示する。具体的に信号処理制御部2は、コンピュータにより成り、画像取込部10と、文字読取部11と、位置情報取得部12と、画像関連付け部13と、表示制御部14と、画像記録部15と、報知部16と、位置判定部17と、再生画像検索部18との各機能を有する。   The signal processing control unit 2 takes in one or a plurality of map image data D1 and one or a plurality of captured image data D2, and determines the latitude / longitude on the map image data D1 and the position where the captured image data D2 is captured. If the latitude / longitude indicating the position where the captured image data D2 is captured exists in the latitude / longitude on the map M captured in the map image data D1, the map image data D1 and the captured image are captured. The image data D2 is displayed in association with the image data D2. Specifically, the signal processing control unit 2 includes a computer, and includes an image capturing unit 10, a character reading unit 11, a position information acquisition unit 12, an image association unit 13, a display control unit 14, and an image recording unit 15. And a function of a notification unit 16, a position determination unit 17, and a reproduction image search unit 18.

画像取込部10は、撮影部3により取得された地図画像データD1と撮影画像データD2とを、当該撮影部3から取り込む。この画像取込部10は、撮影部3から地図画像データD1と撮影画像データD2とを取り込むに限らず、外部の撮影装置や画像処理装置等から地図画像データD1と撮影画像データD2とを取り込んでもよい。   The image capturing unit 10 captures the map image data D1 and the captured image data D2 acquired by the capturing unit 3 from the capturing unit 3. The image capturing unit 10 captures not only the map image data D1 and the captured image data D2 from the capturing unit 3, but also the map image data D1 and the captured image data D2 from an external capturing device, an image processing device, or the like. But you can.

文字読取部11は、画像取込部10により取り込まれた地図画像データD1から文字情報、すなわち地図M上に記載されている例えば△□寺、○×駅等の文字情報を読み取る。
位置情報取得部12は、文字読取部11により読み取られた例えば△□寺、○×駅等の文字情報に対応する地名又は施設名をデータベース5dから検索し、当該検索された地名又は施設名の第1の位置情報である緯度経度、例えば△□寺であれば、当該△□寺の位置を表す緯度XXX1、経度XXX2を取得する。
The character reading unit 11 reads character information from the map image data D <b> 1 captured by the image capturing unit 10, that is, character information such as Δ □ temple, ◯ × station, etc. described on the map M.
The position information acquisition unit 12 searches the database 5d for a place name or facility name corresponding to the character information such as △ □ temple, XX station, etc. read by the character reading unit 11, and the location name or facility name of the searched place name or facility name. If the latitude / longitude is the first position information, for example, Δ □ temple, the latitude XXX1 and longitude XXX2 representing the location of the Δ □ temple are acquired.

画像関連付け部13は、位置情報取得部12により取得された第1の位置情報、例えば△□寺の位置を表す緯度XXX1、経度XXX2と、画像取込部10により取り込まれた撮影画像データD2が撮像された位置を表す緯度経度との対応、すなわち地図画像データD1に撮影されている地図M上における緯度経度の中に撮影画像データD2が撮像された位置を表す緯度経度が存在すれば、地図画像データD1と撮影画像データD2とを関連付ける。この関連付けは、地図画像データD1中に撮影画像データD2が撮像された位置を示す。   The image association unit 13 includes the first position information acquired by the position information acquisition unit 12, for example, latitude XXX1 and longitude XXX2 representing the position of the temple, and the captured image data D2 captured by the image capturing unit 10. If there is a latitude and longitude corresponding to the latitude and longitude representing the imaged position, that is, the latitude and longitude representing the position where the captured image data D2 is captured in the latitude and longitude on the map M captured in the map image data D1, the map The image data D1 and the captured image data D2 are associated with each other. This association indicates a position where the photographed image data D2 is captured in the map image data D1.

表示制御部14は、画像関連付け部13により関連付けされた地図画像データD1と撮影画像データD2、すなわち地図画像データD1中に撮影画像データD2が撮像された位置を示す関連付けがなされた地図画像データD1と撮影画像データD2とをディスプレイ6に表示する。
図7はディスプレイ6に表示された地図画像データD1と撮影画像データD2との関連付けの表示例を示す。撮影画像データD2は、地図画像データD1上の位置PにおけるユーザYの撮影により取得されたことを矢印Fの先端により指示している。
図8は地図画像データD1と撮影画像データD2との関連付けの他の表示例を示す。なお、同図に示す地図画像データD1は、上記図7に示す地図画像データD1とは撮影した地図Mが相違する。同図に示す関連付けは、地図画像データD1上における撮影画像データD2が撮像された位置P上に当該撮影画像データD2を重ね合わせている。なお、撮影画像データD2は、例えば当該画像データD2の中心位置と地図画像データD1上における撮像された位置Pとを一致させている。
The display control unit 14 associates the map image data D1 and the captured image data D2 associated by the image association unit 13, that is, the map image data D1 associated with the position where the captured image data D2 is captured in the map image data D1. And the captured image data D2 are displayed on the display 6.
FIG. 7 shows a display example of the association between the map image data D1 and the photographed image data D2 displayed on the display 6. The photographed image data D2 indicates by the tip of the arrow F that it has been acquired by photographing of the user Y at the position P on the map image data D1.
FIG. 8 shows another display example of the association between the map image data D1 and the captured image data D2. The map image data D1 shown in the figure is different from the map image data D1 shown in FIG. In the association shown in the figure, the captured image data D2 is superimposed on the position P where the captured image data D2 is captured on the map image data D1. Note that the captured image data D2 matches, for example, the center position of the image data D2 and the captured position P on the map image data D1.

図9は地図画像データD1と撮影画像データD2との関連付けを説明するための図を示す。同図は縮尺がほぼ正確なものとし、緯度経度(I,K)の各値がそれぞれ大きくなる方向がxy座標の各方向に一致する。又、地図画像データD1と撮影画像データD2とは、それぞれ地球上の東経・北緯で表される地域での撮影により取得された一例を示す。又、同図の画像上では地名/施設名である□×駅が緯度最大値、経度最大値相当とし、○×駅が緯度最小値、経度最小値相当とし、これら□×駅と○×駅との中間的な緯度、経度を有する画像の一例である。 FIG. 9 is a diagram for explaining the association between the map image data D1 and the captured image data D2. In this figure, the scale is almost accurate, and the direction in which each value of latitude and longitude (I, K) becomes larger corresponds to each direction of the xy coordinates. Further, the map image data D1 and the photographed image data D2 are examples obtained by photographing in an area represented by east longitude and north latitude on the earth, respectively. In the image in the figure, the place name / facility name □ × station is equivalent to the maximum latitude value and maximum longitude value , ○ × station is equivalent to the minimum latitude value and minimum longitude value , and these □ × station and ○ × station Is an example of an image having an intermediate latitude and longitude.

又、同図は上記図8に示す地図画像データD1と撮影画像データD2との関連付けである。ディスプレイ6の画面上において、同画面の左下を座標(x,y)=(0,0)とし、右上を座標(x,y)=(x10,y10)とする。又、同ディスプレイ6の画面上を地図Mの緯度経度(I,K)により表すと、同画面の左下が緯度経度(I,K)=(I1,K1)となり、右上が緯度経度(I,K)=(I2,K2)となる。
同ディスプレイ6の画面上で、同画面の左下と右上との緯度差は(I2−I1)となり、経度差は(K2−K1)となる。
ディスプレイ6の画面上において撮影画像データD2を表示する位置Pの座標(x3,y3)は、同位置Pの緯度経度(I3,K3)を用いて次式(1)(2)により求められる。
x3=x10・(K3−K1)/(K2−K1) …(1)
y3=y10・(I3−I1)/(I2−I1) …(2)
画像記録部15は、画像取込部10により取り込まれた地図画像データD1と撮影画像データD2とをそれぞれファイル化して記録部5に記録する。この画像記録部15は、地図画像データD1に当該地図画像データD1上の緯度経度の情報を加えてファイル化し、撮影画像データD2に当該撮影画像データD2が撮像された位置を表す緯度経度の情報を加えてファイル化する。
The figure shows the association between the map image data D1 and the photographed image data D2 shown in FIG. On the screen of the display 6, the lower left corner of the screen is coordinate (x, y) = (0, 0), and the upper right corner is coordinate (x, y) = (x10, y10). When the screen of the display 6 is represented by the latitude and longitude (I, K) of the map M, the lower left of the screen is latitude / longitude (I, K) = (I1, K1), and the upper right is the latitude / longitude (I, K). K) = (I2, K2).
On the screen of the display 6, the latitude difference between the lower left and upper right of the screen is (I2-I1), and the longitude difference is (K2-K1).
The coordinates (x3, y3) of the position P at which the captured image data D2 is displayed on the screen of the display 6 are obtained by the following equations (1) and (2) using the latitude and longitude (I3, K3) of the position P.
x3 = x10 · (K3−K1) / (K2−K1) (1)
y3 = y10. (I3-I1) / (I2-I1) (2)
The image recording unit 15 converts the map image data D1 and the captured image data D2 captured by the image capturing unit 10 into files and records them in the recording unit 5. The image recording unit 15 adds the latitude / longitude information on the map image data D1 to the map image data D1 to form a file, and the latitude / longitude information indicating the position where the captured image data D2 is captured in the captured image data D2. Add to file.

図10は地図画像データD1をファイル化した地図画像ファイルMFの一例の模式図を示す。この地図画像ファイルMFは、1枚の地図画像データD1に対して1つ作成される。この地図画像ファイルMFは、例えば、地図画像データD1と、この地図画像データD1の撮影日時と、地図画像フラグと、地図画像データD1の四隅(例えば図3上の右上、左上、右下、左下)に対応する地図M上の各緯度経度とから成る。なお、右上の緯度経度A1は(XXX11,XXX12)、左上A2の緯度経度は(XXX13,XXX14)、右下A3の緯度経度は(XXX15,XXX16)、左下A4の緯度経度は(XXX17,XXX18)である。   FIG. 10 is a schematic diagram showing an example of a map image file MF obtained by converting the map image data D1 into a file. One map image file MF is created for one piece of map image data D1. The map image file MF includes, for example, the map image data D1, the shooting date and time of the map image data D1, the map image flag, and the four corners of the map image data D1 (for example, upper right, upper left, lower right, lower left on FIG. 3). ) And each latitude and longitude on the map M. The latitude longitude A1 in the upper right is (XXX11, XXX12), the latitude longitude in the upper left A2 is (XXX13, XXX14), the latitude longitude in the lower right A3 is (XXX15, XXX16), and the latitude longitude in the lower left A4 is (XXX17, XXX18). It is.

図11は撮影画像データD2をファイル化した撮影画像ファイルTFの一例の模式図を示す。この撮影画像ファイルTFは、1枚の撮影画像データD2に対して1つ作成される。この撮影画像ファイルTFは、例えば、撮影画像データD2と、この撮影画像データD2の撮影日時と、地図画像フラグと、撮影画像データD2を撮像した位置を表す緯度経度の情報とから成る。   FIG. 11 is a schematic diagram showing an example of a photographic image file TF obtained by making the photographic image data D2 into a file. One photographic image file TF is created for one photographic image data D2. The photographed image file TF includes, for example, photographed image data D2, a photographing date / time of the photographed image data D2, a map image flag, and latitude / longitude information indicating a position where the photographed image data D2 is captured.

報知部16は、画像関連付け部13によって地図画像データD1上の緯度経度と撮影画像データD2が撮像された位置を表す緯度経度との対応、すなわち地図画像データD1に撮影されている地図M上における緯度経度、ここでは地図画像データD1の中に撮影画像データD2が撮像された位置を表す緯度経度が存在しなければ、地図画像データD1と撮影画像データD2との関連付けができない旨を報知、例えばディスプレイ6の画面上に警告を表示したり、スピーカ等によって音声により警告を発する。なお、地図画像データD1は、四隅に対応する地図M上の各緯度経度の情報を持っているので、画像関連付け部13は、地図画像データD1の四隅の各緯度経度の情報と撮影画像データD2の撮影位置の緯度経度の情報とを対比すれば、地図画像データD1の地図M内に撮影画像データD2の撮影位置が存在しているか否かを判定することができる。   The notification unit 16 associates the latitude / longitude on the map image data D1 with the latitude / longitude indicating the position where the captured image data D2 is captured by the image association unit 13, that is, on the map M captured by the map image data D1. If there is no latitude / longitude indicating the position where the captured image data D2 is captured in the map image data D1, the map image data D1 and the captured image data D2 cannot be associated with each other. A warning is displayed on the screen of the display 6, or a warning is issued by voice through a speaker or the like. Since the map image data D1 has information on each latitude and longitude on the map M corresponding to the four corners, the image associating unit 13 includes information on each latitude and longitude at the four corners of the map image data D1 and the captured image data D2. By comparing with the latitude and longitude information of the shooting position, it can be determined whether or not the shooting position of the shot image data D2 exists in the map M of the map image data D1.

次に、地図画像データD1の再生モード時に有する構成について説明する。
再生モードにおいて、位置判定部17は、撮影画像データD2に有する第2の位置情報、すなわち撮影画像ファイルTFから撮影画像データD2を撮像した位置を表す緯度経度の情報を読み出し、当該撮影画像データD2を撮影により取得した撮影位置を判定する。
再生画像検索部18は、図6に示すデータベース5dに記録されている地名、施設名と、これら地名、施設名等の各位置(緯度経度の情報)とに基づき、位置判定部17により判定された撮影位置の緯度経度を含む地図画像データD1を記録部5に記録されている複数の地図画像データD1から検索する。
表示制御部14は、再生画像検索部18により検索された地図画像データD1と撮影画像データD2とをディスプレイ6の画面上に並べて再生表示する。
Next, the configuration of the map image data D1 in the playback mode will be described.
In the reproduction mode, the position determination unit 17 reads out the second position information included in the captured image data D2, that is, the latitude and longitude information indicating the position where the captured image data D2 is captured from the captured image file TF, and the captured image data D2. The shooting position obtained by shooting is determined.
The reproduction image search unit 18 is determined by the position determination unit 17 based on the place name and facility name recorded in the database 5d shown in FIG. 6 and each position (latitude and longitude information) such as the place name and the facility name. The map image data D1 including the latitude and longitude of the shooting position is retrieved from the plurality of map image data D1 recorded in the recording unit 5.
The display control unit 14 reproduces and displays the map image data D1 and the captured image data D2 searched by the reproduction image search unit 18 side by side on the screen of the display 6.

一方、撮影部3は、図12に示すように地図M上の文字から成る文字情報を含む地図画像データD1、例えば各地域の旅行先等のガイドブックB等に記載されている地図Mを撮影して第1の画像データである地図画像データD1を取得する。
本装置1は、再生モードにおいて、ガイドブックB等の地図画像データD1の経度緯度の情報に基づいて、既に記録部5に記録されている複数の撮影画像データD2からガイドブックB等の地図画像データD1の経度緯度を含む近辺の緯度経度の少なくとも1枚の撮影画像データD2を記録部5から検索し、当該撮影画像データD2と地図画像データD1とをディスプレイ6に再生表示する。なお、本再生モードは、ガイドブックB等の地図画像データD1に基づいて既に記録部5に記録されている撮影画像データD2を読み出して再生表示するので、以下、地図回想モードと称する。
On the other hand, as shown in FIG. 12, the photographing unit 3 photographs map image data D1 including character information composed of characters on the map M, for example, a map M described in a guidebook B of a travel destination in each region. Then, the map image data D1 which is the first image data is acquired.
In the playback mode, the device 1 uses a plurality of photographed image data D2 already recorded in the recording unit 5 based on the longitude / latitude information of the map image data D1 such as the guide book B to map the map image such as the guide book B. At least one photographed image data D2 having a latitude and longitude in the vicinity including the longitude and latitude of the data D1 is retrieved from the recording unit 5, and the photographed image data D2 and the map image data D1 are reproduced and displayed on the display 6. In addition, this reproduction | regeneration mode reads the picked-up image data D2 already recorded on the recording part 5 based on map image data D1, such as guidebook B, and reproduces and displays it, and is henceforth called map recollection mode.

すなわち、画像取込部10は、撮影部3により取得されたガイドブックB等の地図画像データD1を当該撮影部3から取り込む。この地図画像データD1は、例えば図10に示す地図画像ファイルMFと同様にファイル化されて記録部5に記録される。
地図回想モードにおいて、文字読取部11は、画像取込部10により取り込まれたガイドブック等の地図Mを撮影して取得した地図画像データD1から例えば上記の通り○○寺等の文字から成る文字情報を読み取る。
位置情報取得部12は、文字読取部11により読み取られた地図画像データD1中の文字情報に対応する地名又は施設名をデータベース5dから検索し、当該検索された地名又は施設名の緯度経度を取得する。
That is, the image capturing unit 10 captures the map image data D1 such as the guide book B acquired by the photographing unit 3 from the photographing unit 3. The map image data D1 is filed and recorded in the recording unit 5 in the same manner as the map image file MF shown in FIG.
In the map recollection mode, the character reading unit 11 uses characters such as XX temple as described above from the map image data D1 obtained by photographing the map M such as a guidebook captured by the image capturing unit 10. Read information.
The position information acquisition unit 12 searches the database 5d for a place name or facility name corresponding to the character information in the map image data D1 read by the character reading unit 11, and acquires the latitude and longitude of the searched place name or facility name. To do.

画像関連付け部13は、位置情報取得部12により取得された地図画像データD1中の地名又は施設名の緯度経度と、記録部5に既に記録されている少なくとも1枚の撮影画像データD2の緯度経度との対応が取れると、これら地図画像データD1と撮影画像データD2とを関連付けする。
表示制御部14は、画像関連付け部13により関連付けされた地図画像データD1と撮影画像データD2とを例えば図13に示すようにディスプレイ6の画面上に表示する。同図はディスプレイ6の画面上に地図画像データD1と、2枚の撮影画像データD2a、D2bとを再生表示し、これら地図画像データD1と2枚の撮影画像データD2a、D2bとをそれぞれ各矢印F1、F2によって関連付けしている。矢印F1、F2の各先端は、それぞれ各撮影画像データD2a、D2bを取得した各撮影位置を示す。
The image association unit 13 includes the latitude / longitude of the place name or facility name in the map image data D1 acquired by the position information acquisition unit 12, and the latitude / longitude of at least one photographed image data D2 already recorded in the recording unit 5. If this correspondence is obtained, the map image data D1 and the photographed image data D2 are associated with each other.
The display control unit 14 displays the map image data D1 and captured image data D2 associated by the image association unit 13 on the screen of the display 6 as shown in FIG. In the figure, the map image data D1 and the two photographed image data D2a and D2b are reproduced and displayed on the screen of the display 6, and the map image data D1 and the two photographed image data D2a and D2b are respectively indicated by arrows. They are related by F1 and F2. The tips of the arrows F1 and F2 indicate the shooting positions at which the captured image data D2a and D2b are acquired, respectively.

次に、上記の如く構成された装置の動作について図14に示すカメラ制御フローチャートに従って説明する。
操作判定部7は、本装置1に対するユーザYの操作を受け付け、当該操作の内容が例えば撮影モード、再生モードであるのか、又はシャッターがオンされて撮影動作であるのか否かを判定する。
撮影部3は、図2に示すように文字から成る文字情報が記載された地図Mを被写体として撮影して第1の画像データである例えば図3に示す地図画像データD1を取得する。又は撮影部3は、図4に示すように人物H等の主要被写体を含む撮影を行って第2の画像データである例えば図5に示す撮影画像データD2を取得する。
Next, the operation of the apparatus configured as described above will be described according to the camera control flowchart shown in FIG.
The operation determination unit 7 receives the operation of the user Y with respect to the apparatus 1 and determines whether the content of the operation is, for example, a shooting mode or a playback mode, or whether the shutter is turned on and is a shooting operation.
As shown in FIG. 2, the photographing unit 3 photographs a map M on which character information including characters is described as a subject, and obtains first image data, for example, map image data D1 shown in FIG. Alternatively, the photographing unit 3 performs photographing including a main subject such as a person H as shown in FIG. 4 to obtain second image data, for example, photographed image data D2 shown in FIG.

この状態に、信号処理制御部2は、ステップS101において、操作判定部7の判定結果が撮影モードであるか否かを判定する。この判定の結果、撮影モードであれば、信号処理制御部2は、ステップS102において、撮影動作を開始し、撮影部3により取得された撮影画像データを画像取込部10によって取り込み、この撮影画像データを画像処理し、ステップS103において、スルー画像としてディスプレイ6に表示する。   In this state, in step S101, the signal processing control unit 2 determines whether or not the determination result of the operation determination unit 7 is the shooting mode. If the result of this determination is that the camera is in shooting mode, the signal processing control section 2 starts the shooting operation in step S102, and the captured image data acquired by the imaging section 3 is captured by the image capturing section 10, and this captured image is captured. Data is image-processed and displayed on the display 6 as a through image in step S103.

信号処理制御部2は、ステップS104において、ディスプレイ6に表示しているスルー画像が例えば図2に示すような地図Mであるか否かを判定する。この地図Mの撮影であるか否かは、例えば操作判定部7に地図撮影モードのボタン等を設け、このボタンが押し操作されたときに地図Mを撮影していると判定する。   In step S104, the signal processing control unit 2 determines whether or not the through image displayed on the display 6 is a map M as shown in FIG. Whether or not the map M is shot is determined, for example, by providing a button for a map shooting mode or the like in the operation determination unit 7 and determining that the map M is shot when this button is pressed.

この判定の結果、地図Mの撮影でなければ、信号処理制御部2は、ステップS105において、例えばレリーズボタンが押し操作されて撮影であるか否かを判定する。レリーズボタンが押し操作されると、信号処理制御部2は、ステップS106において、被写体の撮影動作を行う。例えば、撮影部3は、図4に示すように人物H等の主要被写体を含む撮影を行って例えば図5に示す撮影画像データD2を取得する。
この撮影時、位置検出器4は、例えば広域測位システム(GPS)によって撮影装置1が存在する地点の位置を経度緯度により検出する。
If the result of this determination is that the map M is not photographed, the signal processing control section 2 judges in step S105 whether or not the release button has been pressed and photographed. When the release button is pressed, the signal processing control unit 2 performs a subject photographing operation in step S106. For example, the photographing unit 3 performs photographing including a main subject such as a person H as shown in FIG. 4 and obtains photographed image data D2 shown in FIG. 5, for example.
At the time of this photographing, the position detector 4 detects the position of the point where the photographing device 1 is present from the longitude and latitude, for example, by a wide-area positioning system (GPS).

信号処理制御部2は、ステップS107において、再び、撮影した画像が図2に示すような地図Mであるか否かを判定する。ここでは、図4に示すように人物H等の主要被写体を含む通常の撮影を行ったので、信号処理制御部2は、ステップS108において、例えば図5に示す撮影画像データD2と、位置検出器4により検出された撮影装置1が存在する地点の経度緯度の情報すなわち撮影画像データD2を撮影により取得した位置の経度緯度の情報とを用いて例えば図11に示すような撮影画像ファイルTFを作成する。この撮影画像ファイルTFは、信号処理制御部2により記録部5に記録される。   In step S107, the signal processing control unit 2 determines again whether or not the captured image is a map M as shown in FIG. Here, since normal photographing including a main subject such as the person H was performed as shown in FIG. 4, the signal processing control unit 2 performs, for example, the photographed image data D2 shown in FIG. For example, a photographed image file TF as shown in FIG. 11 is created using the longitude and latitude information of the point where the photographing apparatus 1 detected by 4 is present, that is, the longitude and latitude information of the position obtained by photographing the photographed image data D2. To do. The captured image file TF is recorded in the recording unit 5 by the signal processing control unit 2.

一方、上記ステップS104での判定の結果、ディスプレイ6に表示しているスルー画像が例えば図2に示すような地図Mであれば、信号処理制御部2は、ステップS111において、地図Mをスルー画像としてディスプレイ6に表示する。これと共に、信号処理制御部2の文字読取部11は、画像取込部10により取り込まれた地図画像データD1から文字情報、すなわち地図M上に記載されている例えば△□寺、○×駅等の文字情報を読み取る。   On the other hand, as a result of the determination in step S104, if the through image displayed on the display 6 is a map M as shown in FIG. 2, for example, the signal processing control unit 2 uses the map M as the through image in step S111. As shown on the display 6. At the same time, the character reading unit 11 of the signal processing control unit 2 reads the character information from the map image data D1 captured by the image capturing unit 10, that is, for example, Δ □ temple, ○ × station, etc. described on the map M. Read character information.

位置情報取得部12は、ステップS112において、文字読取部11により読み取られた例えば△□寺、○×駅等の文字情報に対応する地名又は施設名をデータベース5dから検索する。
位置情報取得部12は、ステップS113において、当該検索された地名又は施設名の第1の位置情報である緯度経度、例えば△□寺であれば、当該△□寺の位置を表す緯度XXX1、経度XXX2を取得する。
In step S112, the position information acquisition unit 12 searches the database 5d for a place name or a facility name corresponding to character information such as Δ □ temple, XX station, etc. read by the character reading unit 11.
In step S113, the location information acquisition unit 12 determines the latitude and longitude as the first location information of the searched place name or facility name. For example, if it is a Δ □ temple, the latitude XXX1 indicating the location of the Δ □ temple, the longitude XXX2 is acquired.

画像関連付け部13は、ステップS114において、位置情報取得部12により取得された第1の位置情報、例えば△□寺の位置を表す緯度XXX1、経度XXX2と、画像取込部10により取り込まれた撮影画像データD2が撮像された位置を表す緯度経度との対応、すなわち地図画像データD1に撮影されている地図M上における緯度経度の中に撮影画像データD2が撮像された位置を表す緯度経度が存在すれば、地図画像データD1と撮影画像データD2とを関連付ける。   In step S <b> 114, the image association unit 13 captures the first position information acquired by the position information acquisition unit 12, for example, latitude XXX <b> 1 and longitude XXX <b> 2 representing the position of the temple and the image capturing unit 10. Correspondence with the latitude and longitude representing the position where the image data D2 was imaged, that is, the latitude and longitude representing the position where the captured image data D2 was imaged exists in the latitude and longitude on the map M captured in the map image data D1. Then, the map image data D1 and the captured image data D2 are associated with each other.

報知部16は、ステップS115において、画像関連付け部13によって地図画像データD1上の緯度経度と撮影画像データD2が撮像された位置を表す緯度経度との対応、すなわち地図画像データD1に撮影されている地図M上における緯度経度、ここでは地図画像データD1の中に撮影画像データD2が撮像された位置を表す緯度経度が存在しているか否かを判定する。
この判定の結果、地図画像データD1の中に撮影画像データD2が撮像された位置を表す緯度経度が存在していれば、信号処理制御部2は、ステップS105に移る。一方、地図画像データD1の中に撮影画像データD2が撮像された位置を表す緯度経度が存在していなければ、報知部16は、ステップS116において、地図画像データD1と撮影画像データD2との関連付けができない旨を報知、例えばディスプレイ6の画面上に警告を表示したり、スピーカ等によって音声により警告を発する。
In step S115, the notification unit 16 captures the correspondence between the latitude / longitude on the map image data D1 and the latitude / longitude indicating the position where the captured image data D2 is captured by the image association unit 13, that is, the map image data D1. It is determined whether or not the latitude and longitude on the map M, that is, the latitude and longitude representing the position where the captured image data D2 is captured in the map image data D1 is present.
If the result of this determination is that there is a latitude / longitude representing the position at which the captured image data D2 was captured in the map image data D1, the signal processing control section 2 proceeds to step S105. On the other hand, if there is no latitude / longitude indicating the position where the captured image data D2 is captured in the map image data D1, the notification unit 16 associates the map image data D1 with the captured image data D2 in step S116. For example, a warning is displayed on the screen of the display 6, or a warning is issued by voice through a speaker or the like.

表示制御部14は、画像関連付け部13により関連付けされた地図画像データD1と撮影画像データD2、すなわち地図画像データD1中に撮影画像データD2が撮像された位置を示す関連付けがなされた地図画像データD1と撮影画像データD2とをディスプレイ6に表示する。
例えば、図7に示す地図画像データD1と撮影画像データD2との関連付けの表示例のように撮影画像データD2は、地図画像データD1上の位置PにおけるユーザYの撮影により取得されたことを矢印Fの先端により指示している。
又、図8に示すように地図画像データD1上における撮影画像データD2が撮像された位置P上に当該撮影画像データD2を重ね合わせている。
The display control unit 14 associates the map image data D1 and the captured image data D2 associated by the image association unit 13, that is, the map image data D1 associated with the position where the captured image data D2 is captured in the map image data D1. And the captured image data D2 are displayed on the display 6.
For example, as shown in the display example of the association between the map image data D1 and the photographed image data D2 shown in FIG. 7, the photographed image data D2 is acquired by photographing of the user Y at the position P on the map image data D1. This is indicated by the tip of F.
Further, as shown in FIG. 8, the captured image data D2 is superimposed on a position P where the captured image data D2 is captured on the map image data D1.

信号処理制御部2は、ステップS105に移り、例えばレリーズボタンが押し操作されて撮影であるか否かを判定し、レリーズボタンが押し操作されると、ステップS106において、図2に示す地図Mの撮影動作を行う。この撮影動作により撮影部3は、図3に示すような地図画像データD1を取得する。この撮影時、位置検出器4は、例えば広域測位システム(GPS)によって撮影装置1が存在する地点の位置を経度緯度により検出する。   The signal processing control unit 2 moves to step S105, for example, determines whether or not the release button is pressed to shoot, and when the release button is pressed, the map M shown in FIG. Perform the shooting operation. By this photographing operation, the photographing unit 3 acquires map image data D1 as shown in FIG. At the time of this photographing, the position detector 4 detects the position of the point where the photographing device 1 is present from the longitude and latitude, for example, by a wide-area positioning system (GPS).

信号処理制御部2は、ステップS107において、再び、撮影した画像が図2に示すような地図Mであるか否かを判定する。ここでは、地図Mを撮影したので、画像記録部15は、ステップS109において、画像取込部10により取り込まれた地図画像データD1をファイル化して記録部5に記録する。この画像記録部15は、例えば図10に示すように地図画像データD1に、位置検出器4により検出された当該地図画像データD1上の緯度経度の情報を加えた地図画像ファイルMFを作成する。この地図画像ファイルMFは、画像記録部15によって記録部5に記録される。
次に、再生モードにおける装置の動作について図15に示す再生モードフローチャートに従って説明する。
信号処理制御部2は、上記ステップS101での判定の結果、撮影モードでなければ、ステップS121において、例えば記録部5に記録されている複数の撮影画像データD2を読み出し、これら撮影画像データD2を表示制御部14を通してディスプレイ6に一覧表示する。例えば、表示制御部14は、複数の撮影画像データD2のうち予め設定された枚数の撮影画像データD2をディスプレイ6にサムネイル表示する。
In step S107, the signal processing control unit 2 determines again whether or not the captured image is a map M as shown in FIG. Here, since the map M was photographed, the image recording unit 15 converts the map image data D1 captured by the image capturing unit 10 into a file and records it in the recording unit 5 in step S109. For example, as shown in FIG. 10, the image recording unit 15 creates a map image file MF in which the latitude and longitude information on the map image data D1 detected by the position detector 4 is added to the map image data D1. The map image file MF is recorded in the recording unit 5 by the image recording unit 15.
Next, the operation of the apparatus in the playback mode will be described with reference to the playback mode flowchart shown in FIG.
If the result of determination in step S101 is not the shooting mode, the signal processing control unit 2 reads a plurality of captured image data D2 recorded, for example, in the recording unit 5 in step S121, and uses these captured image data D2 as a result. A list is displayed on the display 6 through the display control unit 14. For example, the display control unit 14 displays a predetermined number of photographed image data D2 among the plurality of photographed image data D2 on the display 6 as thumbnails.

信号処理制御部2は、ステップS122において、ディスプレイ6に一覧表示されている複数の撮影画像データD2のうち例えばいずれか1枚の撮影画像データD2が選択されて拡大再生する指示を受けたか否かを判定する。具体的に信号処理制御部2は、ディスプレイ6の表示面に表示されている複数の撮影画像データD2のうち拡大再生するための1枚の撮影画像データD2を選択するために、当該撮影画像データD2の表示領域の位置に対応するタッチパネルの領域が例えばユーザの指等によってタッチされたか否かを判定する。
タッチパネルの領域が例えばユーザの指等によってタッチされると、当該タッチの領域に対応するタッチ位置信号がタッチパネルから出力されるので、信号処理制御部2は、ステップS123において、当該タッチパネルから出力されたタッチ位置信号を入力することにより、選択された1枚の撮影画像データD2を判定し、当該撮影画像データD2をディスプレイ6の表示面に拡大表示する。
In step S122, the signal processing control unit 2 determines whether, for example, any one of the plurality of photographed image data D2 displayed on the display 6 is selected and receives an instruction to enlarge and reproduce. Determine. Specifically, the signal processing control unit 2 selects the captured image data D2 to be enlarged and reproduced from among the plurality of captured image data D2 displayed on the display surface of the display 6. It is determined whether or not the touch panel area corresponding to the position of the display area D2 is touched by, for example, the user's finger.
When the touch panel area is touched by, for example, a user's finger, a touch position signal corresponding to the touch area is output from the touch panel, so that the signal processing control unit 2 outputs the touch position signal from the touch panel in step S123. By inputting the touch position signal, one selected photographed image data D2 is determined, and the photographed image data D2 is enlarged and displayed on the display surface of the display 6.

信号処理制御部2は、ステップS124において、撮影画像データD2の表示に地図画像データD1を連動してディスプレイ6の表示面に表示するか否かを判定する。すなわち、信号処理制御部2の操作判定部7は、本装置1に対するユーザYの操作を受け付け、地図画像データD1と撮影画像データD2とを関連付けてディスプレイ6に表示する又は表示しないを判定する。   In step S124, the signal processing control unit 2 determines whether or not the map image data D1 is displayed on the display surface of the display 6 in conjunction with the display of the captured image data D2. That is, the operation determination unit 7 of the signal processing control unit 2 receives the operation of the user Y with respect to the apparatus 1 and determines whether the map image data D1 and the captured image data D2 are displayed on the display 6 in association with each other.

この判定の結果、地図画像データD1と撮影画像データD2とを関連付けてディスプレイ6に表示するのであれば、位置判定部17は、ステップS125において、図11に示すように撮影画像データD2をファイル化した撮影画像ファイルTFから撮影画像データD2を撮像した位置を表す緯度I、経度Kの情報を読み取る。
再生画像検索部18は、ステップS126において、図6に示すデータベース5dに記録されている地名、施設名と、これら地名、施設名等の各位置(緯度経度の情報)とに基づき、位置判定部17により判定された撮影位置の緯度経度を含む地図画像データD1を記録部5に記録されている複数の地図画像データD1から検索する。
この検索の結果、信号処理制御部2は、ステップS127において、記録部5に記憶されている複数の地図画像データD1中に、撮影画像データD2の撮像した位置を表す緯度I、経度Kの情報から当該緯度I、経度Kを含む地図画像データD1があるか否かを判定する。
この判定の結果、当該緯度I、経度Kを含む地図画像データD1があれば、表示制御部14は、ステップS128において、当該緯度I、経度Kを含む地図画像データD1を記録部5から読み出し、この地図画像データD1と撮影画像データD2とを並列に配置して図1に示すディスプレイ6の表示面に表示する。なお、表示制御部14は、地図画像データD1と撮影画像データD2とを例えば図7に示すように関連付けてディスプレイ6の表示面に表示してもよい。
この後、信号処理制御部2は、ステップS129において、地図画像データD1と撮影画像データD2との並列表示、又は地図画像データD1と撮影画像データD2との関連付けての表示を終了するか否かを判定する。例えば操作判定部7に対してユーザにより終了の操作がなされると、信号処理制御部2は、地図画像データD1と撮影画像データD2との並列表示、又は地図画像データD1と撮影画像データD2との関連付けての表示を終了する。
又、上記ステップS127での判定の結果、緯度I、経度Kを含む地図画像データD1が無ければ、図1に示す報知部16は、ステップS130において、地図画像データD1と撮影画像データD2との関連付けができない旨を報知、例えばディスプレイ6の画面上に警告を表示したり、スピーカ等によって音声により警告を発する。
As a result of the determination, if the map image data D1 and the captured image data D2 are displayed in association with each other on the display 6, the position determination unit 17 converts the captured image data D2 into a file as shown in FIG. 11 in step S125. The latitude I and longitude K information indicating the position where the captured image data D2 is captured is read from the captured image file TF.
In step S126, the reproduction image search unit 18 determines a position determination unit based on the place name and facility name recorded in the database 5d shown in FIG. 6 and each position (latitude and longitude information) such as the place name and the facility name. The map image data D1 including the latitude and longitude of the photographing position determined by 17 is searched from the plurality of map image data D1 recorded in the recording unit 5.
As a result of this search, in step S127, the signal processing control unit 2 includes information on the latitude I and longitude K representing the imaged position of the captured image data D2 in the plurality of map image data D1 stored in the recording unit 5. To determine whether there is map image data D1 including the latitude I and longitude K.
If there is map image data D1 including the latitude I and longitude K as a result of this determination, the display control unit 14 reads out the map image data D1 including the latitude I and longitude K from the recording unit 5 in step S128. The map image data D1 and the captured image data D2 are arranged in parallel and displayed on the display surface of the display 6 shown in FIG. The display control unit 14 may display the map image data D1 and the captured image data D2 on the display surface of the display 6 in association with each other as shown in FIG.
Thereafter, in step S129, the signal processing control unit 2 determines whether or not to end the parallel display of the map image data D1 and the captured image data D2 or the display in association with the map image data D1 and the captured image data D2. Determine. For example, when the user performs an end operation on the operation determination unit 7, the signal processing control unit 2 displays the map image data D1 and the captured image data D2 in parallel, or the map image data D1 and the captured image data D2. End the display of the association.
If there is no map image data D1 including latitude I and longitude K as a result of the determination in step S127, the notification unit 16 shown in FIG. 1 determines whether the map image data D1 and the captured image data D2 are in step S130. A notification that the association cannot be made, for example, a warning is displayed on the screen of the display 6, or a warning is issued by voice through a speaker or the like.

なお、上記ステップS122での判定の結果、拡大再生する撮影画像データD2が選択されず、当該撮影画像データD2の拡大再生を行わない指示が操作判定部7に入ると、信号処理制御部2は、ステップS122において、例えば操作判定部7に対する操作を受けて直前の処理に戻るか否かの判定を行う。直前の処理に戻るのであれば、信号処理制御部2は、上記ステップS101に戻り、直前の処理に戻るのでなければ上記ステップS121に移る。   As a result of the determination in step S122, when the photographed image data D2 to be enlarged and reproduced is not selected and an instruction not to enlarge and reproduce the photographed image data D2 enters the operation determination unit 7, the signal processing control unit 2 In step S122, for example, it is determined whether or not the operation determination unit 7 is operated to return to the immediately preceding process. If the process returns to the immediately preceding process, the signal processing control unit 2 returns to step S101. If not, the process proceeds to step S121.

次に、地図回想モードにおける装置の動作について図16に示す地図回想モードフローチャートに従って説明する。なお、図15に示す再生モードフローチャートのステップと同一ステップS121〜S131についてはその説明を省略する。
この地図回想モードでは、複数の撮影画像データD2が予め記録部5に記録されている。
上記ステップS122での判定の結果、拡大再生する撮影画像データD2が選択されず、当該撮影画像データD2の拡大再生を行わない指示が操作判定部7に入ると、信号処理制御部2は、ステップS141に移り、地図回想モードであるか否かを判定する。
Next, operation | movement of the apparatus in map recollection mode is demonstrated according to the map recollection mode flowchart shown in FIG. Note that description of steps S121 to S131 that are the same as the steps of the playback mode flowchart shown in FIG. 15 is omitted.
In this map recollection mode, a plurality of photographed image data D2 is recorded in the recording unit 5 in advance.
As a result of the determination in step S122, when the photographed image data D2 to be magnified and reproduced is not selected and an instruction not to perform magnified reproduction of the photographed image data D2 enters the operation determination unit 7, the signal processing control unit 2 Moving to S141, it is determined whether or not the map recollection mode is set.

ユーザが例えば操作判定部7に対して地図回想モードの設定を行うと、信号処理制御部2は、ステップS142において、地図画像データD1の取得を行う。すなわち、撮影部3は、図12に示すように地図M上の文字から成る文字情報を含む地図画像データD1、例えば各地域の旅行先等のガイドブックB等に記載されている地図Mを撮影して地図画像データD1を取得する。   For example, when the user sets the map recollection mode for the operation determination unit 7, the signal processing control unit 2 acquires the map image data D1 in step S142. That is, as shown in FIG. 12, the photographing unit 3 photographs map image data D1 including character information composed of characters on the map M, for example, a map M described in a guidebook B of a travel destination in each region. Then, map image data D1 is acquired.

画像取込部10は、撮影部3により取得された地図画像データD1を当該撮影部3から取り込む。この地図画像データD1は、例えば図10に示す地図画像ファイルMFと同様にファイル化されて記録部5に記録される。この地図画像ファイルMFは、例えば、地図画像データD1と、この地図画像データD1の撮影日時と、地図画像フラグと、地図画像データD1の四隅(例えば図3上の右上、左上、右下、左下)に対応する地図M上の各緯度経度とから成る。
文字読取部11は、同ステップS142において、画像取込部10により取り込まれたガイドブック等の地図Mの地図画像データD1から例えば□×駅等の文字から成る文字情報を読み取る。
The image capturing unit 10 captures the map image data D <b> 1 acquired by the photographing unit 3 from the photographing unit 3. The map image data D1 is filed and recorded in the recording unit 5 in the same manner as the map image file MF shown in FIG. The map image file MF includes, for example, the map image data D1, the shooting date and time of the map image data D1, the map image flag, and the four corners of the map image data D1 (for example, upper right, upper left, lower right, lower left on FIG. 3). ) And each latitude and longitude on the map M.
In step S142, the character reading unit 11 reads character information including characters such as □ × station from the map image data D1 of the map M such as a guidebook acquired by the image acquisition unit 10.

位置情報取得部12は、ステップS143において、文字読取部11により読み取られた地図画像データD1中の例えば□×駅等の地名又は施設名等の文字情報に対応する地名又は施設名をデータベース5dから検索し、ステップS144において、当該検索された地名又は施設名の緯度経度を取得する。   In step S143, the position information acquisition unit 12 obtains, from the database 5d, a place name or a facility name corresponding to character information such as a place name or a facility name such as □ × station in the map image data D1 read by the character reading unit 11. In step S144, the latitude and longitude of the searched place name or facility name are acquired.

画像関連付け部13は、記録部5に既に記録されている複数の撮影画像データD2をサーチし、位置情報取得部12により取得された地図画像データD1中の地名又は施設名の緯度経度と、記録部5に既に記録されている少なくとも1枚の撮影画像データD2の緯度経度との対応が取れるか否かを判定する。この判定の結果、地図画像データD1中の地名又は施設名の緯度経度と、記録部5に既に記録されている少なくとも1枚の撮影画像データD2の緯度経度との対応が取れると、画像関連付け部13は、ステップS145において、当該地図画像データD1と撮影画像データD2とを関連付けする。   The image association unit 13 searches for a plurality of captured image data D2 already recorded in the recording unit 5, records the latitude and longitude of the place name or facility name in the map image data D1 acquired by the position information acquisition unit 12, and the recording It is determined whether or not correspondence with the latitude and longitude of at least one photographed image data D2 already recorded in the unit 5 can be obtained. As a result of the determination, if the correspondence between the latitude / longitude of the place name or facility name in the map image data D1 and the latitude / longitude of at least one photographed image data D2 already recorded in the recording unit 5 is obtained, the image association unit In step S145, 13 associates the map image data D1 with the captured image data D2.

表示制御部14は、画像関連付け部13により関連付け、例えば、図7に示すように地図画像データD1上の位置Pにおいて撮影画像データD2のユーザYによる撮影位置を矢印Fの先端により指示して関連付けがなされた地図画像データD1と撮影画像データD2とをディスプレイ6に表示する。又、表示制御部14は、図8に示すように地図画像データD1上における撮影画像データD2が撮像された位置P上に当該撮影画像データD2を重ね合わせている。又、表示制御部14は、図13に示すように地図画像データD1と、2枚の撮影画像データD2a、D2bとをディスプレイ6の画面上に再生表示し、2枚の撮影画像データD2a、D2bの各撮影位置を各矢印F1、F2によって関連付けしている。   The display control unit 14 associates with the image associating unit 13, for example, as shown in FIG. The map image data D1 and the photographed image data D2 subjected to are displayed on the display 6. Further, as shown in FIG. 8, the display control unit 14 superimposes the captured image data D2 on the position P where the captured image data D2 is captured on the map image data D1. Further, as shown in FIG. 13, the display control unit 14 reproduces and displays the map image data D1 and the two photographed image data D2a and D2b on the screen of the display 6, and the two photographed image data D2a and D2b. Are associated with each other by arrows F1 and F2.

このように上記一実施の形態によれば、地図画像データD1と撮影画像データD2とを取り込み、地図画像データD1から文字情報を読み取り、この文字情報に対応する地名又は施設名をデータベース5dから検索して当該検索された地名又は施設名の第1の位置情報を取得し、この地名又は施設名の第1の位置情報と撮影画像データD2の第2の位置情報との対応が取れると、これら地図画像データD1と撮影画像データD2とを関連付け、例えば地図画像データD1中の地図上に撮影画像データD2の撮影位置を示す関連付けを行って表示するので、ディスプレイ6の画面上に表示された地図画像データD1と撮影画像データD2とをユーザが見れば、当該地図画像データD1と撮影画像データD2との関連性、例えば地図画像データD1により表示される地図M中のどこの位置で撮影された撮影画像データD2であるのかを直感的に掴むことができる。例えば、旅行先で看板等の地図Mを撮影して地図画像データD1を取得し、旅行先で被写体を撮影して複数の撮影画像データD2を取得すれば、地図画像データD1の緯度経度と複数の撮影画像データD2の各緯度経度とに基づいて複数の撮影画像データD2を地図画像データD1に関連付けることが出来る。   As described above, according to the above-described embodiment, the map image data D1 and the captured image data D2 are captured, the character information is read from the map image data D1, and the place name or facility name corresponding to the character information is retrieved from the database 5d. If the first location information of the searched place name or facility name is acquired, and the correspondence between the first location information of the place name or facility name and the second location information of the photographed image data D2 is obtained, Since the map image data D1 and the photographed image data D2 are associated with each other, for example, an association indicating the photographing position of the photographed image data D2 is displayed on the map in the map image data D1, and the map displayed on the screen of the display 6 is displayed. If the user views the image data D1 and the captured image data D2, the relationship between the map image data D1 and the captured image data D2, for example, the map image data D Whether a photographed image data D2 captured anywhere position in the map M to be displayed can be the grasp intuitively by. For example, if a map M such as a signboard is photographed at a travel destination to acquire the map image data D1, and a subject is photographed at the travel destination to obtain a plurality of photographed image data D2, the latitude and longitude of the map image data D1 and the plural A plurality of photographed image data D2 can be associated with the map image data D1 based on the latitude and longitude of the photographed image data D2.

再生モードにおいては、地図画像データD1との関連性を付けた複数の撮影画像データD2をディスプレイ6の画面上に再生表示できる。
又、地図回想モードでは、例えば各地域の旅行先等のガイドブックB等に記載されている地図Mを撮影して地図画像データD1を取得することにより、この地図画像データD1の緯度経度周辺で既に撮影されて取得されている複数の撮影画像データD2を記録部5から検索して、これら複数の撮影画像データD2と地図画像データD1とを関連付けてディスプレイ6の画面上に再生表示できる。
In the reproduction mode, a plurality of photographed image data D2 associated with the map image data D1 can be reproduced and displayed on the screen of the display 6.
Further, in the map recollection mode, for example, by taking a map M described in a guidebook B or the like of each destination in the area and acquiring the map image data D1, the map image data D1 is obtained in the vicinity of the latitude and longitude. A plurality of photographed image data D2 already photographed and acquired can be retrieved from the recording unit 5, and the plurality of photographed image data D2 and map image data D1 can be associated with each other and reproduced and displayed on the screen of the display 6.

なお、上記一実施の形態は、次のように変形してもよい。
撮像装置1のディスプレイ6の表示面は、複数の表示エリア、例えば図17に示すように4つの表示エリアE1〜E4に区分し、表示エリアE1に通常の撮影モードで撮影された撮影画像データを表示し、表示エリアE2に通常の再生モードで撮影画像データD2等を再生表示し、表示エリアE3に地図画像データD1を表示し、表示エリアE4に地図回想モードでの撮影画像データD2を表示するようにしてもよい。
又、上記一実施の形態は、画像関連付け装置を備えた撮影装置1としているが、画像関連付け装置を単独にしてもよい。
The one embodiment may be modified as follows.
The display surface of the display 6 of the imaging device 1 is divided into a plurality of display areas, for example, four display areas E1 to E4 as shown in FIG. 17, and the captured image data captured in the normal imaging mode is displayed on the display area E1. Displayed, the captured image data D2 and the like are reproduced and displayed in the normal reproduction mode in the display area E2, the map image data D1 is displayed in the display area E3, and the captured image data D2 in the map recollection mode is displayed in the display area E4. You may do it.
In the above embodiment, the photographing apparatus 1 includes the image association apparatus. However, the image association apparatus may be used alone.

又、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1:撮影装置、2:信号処理制御部、3:撮影部、4:位置検出器、5:記録部、6:ディスプレイ、7:操作判定部、Y:ユーザ、M:地図、H:人物、5d:データベース、10:画像取込部、11:文字読取部、12:位置情報取得部、13:画像関連付け部、14:表示制御部、15:画像記録部、16:報知部、17:位置判定部、18:再生画像検索部、D1:地図画像データ、D2:撮影画像データ。   1: imaging device, 2: signal processing control unit, 3: imaging unit, 4: position detector, 5: recording unit, 6: display, 7: operation determination unit, Y: user, M: map, H: person, 5d: Database, 10: Image capturing unit, 11: Character reading unit, 12: Position information acquisition unit, 13: Image association unit, 14: Display control unit, 15: Image recording unit, 16: Notification unit, 17: Position Determination unit, 18: reproduction image search unit, D1: map image data, D2: photographed image data.

Claims (16)

地名及び施設名と、これら地名と施設名との各位置を示す第1の位置情報とを対応して記録するデータベースと、
地図上の文字から成る文字情報を含む第1の画像データと、撮影位置を示す第2の位置情報を有する第2の画像データとを取り込む画像取込部と、
前記画像取込部により取り込まれた前記第1の画像データから前記文字情報を読み取る文字読取部と、
前記文字読取部により読み取られた前記文字情報に対応する前記地名又は前記施設名を前記データベースから検索し、当該検索された前記地名又は前記施設名の前記第1の位置情報を取得する位置情報取得部と、
前記位置情報取得部により取得された前記第1の位置情報と前記画像取込部により取り込まれた前記第2の画像データの前記第2の位置情報との対応が取れると、前記第1の画像データと前記第2の画像データとを関連付けする画像関連付け部と、
前記画像関連付け部により関連付けされた前記第1の画像データと前記第2の画像データとを表示する表示制御部と、
を具備することを特徴とする画像関連付け装置。
A database that records place names and facility names and first position information indicating the positions of these place names and facility names in correspondence with each other;
An image capturing unit that captures first image data including character information composed of characters on a map and second image data having second position information indicating a shooting position;
A character reading unit that reads the character information from the first image data captured by the image capturing unit;
Position information acquisition that searches the database for the place name or the facility name corresponding to the character information read by the character reading unit, and acquires the first position information of the searched place name or the facility name And
When the correspondence between the first position information acquired by the position information acquisition unit and the second position information of the second image data acquired by the image acquisition unit is obtained, the first image An image association unit for associating data with the second image data;
A display control unit for displaying the first image data and the second image data associated by the image association unit;
An image association apparatus comprising:
前記画像関連付け部は、前記第1の画像データ中の前記地図上に、前記第2の画像データの前記撮影位置を示すことを特徴とする請求項1記載の画像関連付け装置。   The image association apparatus according to claim 1, wherein the image association unit indicates the shooting position of the second image data on the map in the first image data. 前記画像関連付け部は、前記第1の画像データ中の前記地図上に、複数の前記第2の画像データの前記撮影位置を示すことを特徴とする請求項2記載の画像関連付け装置。   The image association apparatus according to claim 2, wherein the image association unit indicates the shooting positions of a plurality of the second image data on the map in the first image data. 前記表示制御部は、前記画像関連付け部により前記第1の画像データ中に地図上に前記第2の画像データの前記撮影位置を示す関連付けの行われた前記第1の画像データと少なくとも1つの前記第2の画像データとを表示することを特徴とする請求項3記載の画像関連付け装置。   The display control unit includes at least one of the first image data and the at least one of the first image data associated with each other indicating the shooting position of the second image data on a map in the first image data by the image association unit. 4. The image association apparatus according to claim 3, wherein the second image data is displayed. 前記第1及び第2の画像データは、それぞれ撮影により取得されたことを特徴とする請求項1乃至4のうちいずれか1項記載の画像関連付け装置。   The image association apparatus according to claim 1, wherein the first and second image data are acquired by photographing. 前記第1の画像データは、地図を撮影して取得されたことを特徴とする請求項5記載の画像関連付け装置。   6. The image association apparatus according to claim 5, wherein the first image data is acquired by photographing a map. 前記第2の画像データは、被写体を撮影して取得されたことを特徴とする請求項5記載の画像関連付け装置。   6. The image association apparatus according to claim 5, wherein the second image data is acquired by photographing a subject. 前記第1の位置情報と前記第2の位置情報とは、それぞれ緯度経度により表すことを特徴とする請求項1乃至7のうちいずれか1項記載の画像関連付け装置。   The image association apparatus according to any one of claims 1 to 7, wherein the first position information and the second position information are each expressed by latitude and longitude. 前記撮影位置を検出して前記第2の位置情報を取得する位置検出部を備えたことを特徴とする請求項1乃至8のうちいずれか1項記載の画像関連付け装置。   The image association apparatus according to claim 1, further comprising a position detection unit that detects the photographing position and acquires the second position information. 再生モードに設定されると、前記第2の画像データに有する前記第2の位置情報から前記撮影位置を判定する位置判定部と、
前記データベースに記録されている前記地名又は前記施設名と前記第1の位置情報とに基づいて前記位置判定部により判定された前記撮影位置に対応する前記第1の位置情報を含む前記第1の画像データを検索する再生画像検索部と、
を備え、
前記表示制御部は、前記再生画像検索部により検索された前記第1の画像データと前記第2の画像データとを表示する、
ことを特徴とする請求項1乃至9のうちいずれか1項記載の画像関連付け装置。
A position determination unit configured to determine the shooting position from the second position information included in the second image data when set to the reproduction mode;
The first position information including the first position information corresponding to the photographing position determined by the position determination unit based on the place name or the facility name recorded in the database and the first position information. A playback image search unit for searching image data;
With
The display control unit displays the first image data and the second image data searched by the reproduction image search unit;
The image association apparatus according to claim 1, wherein the image association apparatus is an image associating apparatus.
前記第2の画像データを記録する画像記録部を備え、
地図回想モードにおいて、前記画像取込部により前記地図上の文字から成る前記文字情報を含む前記第1の画像データを取り込むと、
前記文字読取部は、前記画像取込部により取り込まれた前記第1の画像データから前記文字情報を読み取り、
前記位置情報取得部は、前記文字読取部により読み取られた前記文字情報に対応する前記地名又は前記施設名を前記データベースから検索し、当該検索された前記地名又は前記施設名の前記第1の位置情報を取得し、
前記画像関連付け部は、前記位置情報取得部により取得された前記第1の位置情報と対応の取れる前記第2の位置情報を有する前記第2の画像データを前記画像記録部から検索し、当該検索された前記第2の画像データと前記第1の画像データとを関連付け、
前記表示制御部は、前記画像関連付け部により関連付けされた前記第1の画像データと前記第2の画像データとを表示する、
ことを特徴とする請求項1記載の画像関連付け装置。
An image recording unit for recording the second image data;
In the map recollection mode, when the first image data including the character information composed of characters on the map is captured by the image capturing unit,
The character reading unit reads the character information from the first image data captured by the image capturing unit;
The position information acquisition unit searches the database for the place name or the facility name corresponding to the character information read by the character reading unit, and the first position of the searched place name or the facility name. Get information,
The image association unit searches the image recording unit for the second image data having the second position information that can correspond to the first position information acquired by the position information acquisition unit, and performs the search Associating the second image data and the first image data,
The display control unit displays the first image data and the second image data associated by the image association unit;
The image association apparatus according to claim 1.
前記位置情報取得部により取得された前記第1の位置情報と前記画像取込部により取り込まれた前記第2の画像データの前記第2の位置情報との対応を取るために、前記第1の画像データは、当該第1の画像データの各コーナに対応する前記地図上の緯度経度の情報と共に画像記録部に記録されることを特徴とする請求項1記載の画像関連付け装置。   In order to take correspondence between the first position information acquired by the position information acquisition unit and the second position information of the second image data captured by the image capturing unit, the first position information 2. The image association apparatus according to claim 1, wherein the image data is recorded in an image recording unit together with latitude and longitude information on the map corresponding to each corner of the first image data. 前記画像関連付け部によって前記第1の位置情報と前記第2の位置情報との対応が取れなければ、前記第1の画像データと前記第2の画像データとの関連付けができない旨を報知する報知部を有することを特徴とする請求項1記載の画像関連付け装置。   An informing unit that informs that the association between the first image data and the second image data is not possible unless the correspondence between the first position information and the second position information is obtained by the image association unit. The image association apparatus according to claim 1, further comprising: 請求項1記載の画像関連付け装置を備え、
文字から成る文字情報が記載された地図を被写体として撮影して前記第1の画像データを取得し、かつ前記被写体を含む撮影を行い、当該撮影位置を示す前記第2の位置情報を有する前記第2の画像データを取得する、
ことを特徴とする撮影装置。
An image association apparatus according to claim 1,
The first image data is obtained by photographing a map on which character information consisting of characters is described as a subject, obtaining the first image data, and taking the subject, and having the second position information indicating the photographing position. 2 image data is acquired,
An imaging apparatus characterized by that.
コンピュータに、
地図上の文字から成る文字情報を含む第1の画像データと、撮影位置を示す第2の位置情報を有する第2の画像データとを取り込ませる画像取込機能と、
前記画像取込機能により取り込ませた前記第1の画像データから前記文字情報を読み取りさせる文字読取機能と、
前記文字読取機能により読み取らせた前記文字情報に対応する地名又は施設名をデータベースから検索させ、当該検索された前記地名又は前記施設名の前記第1の位置情報を取得させる位置情報取得機能と、
前記位置情報取得機能により取得させた前記第1の位置情報と前記画像取込部により取り込みさせた前記第2の画像データの前記第2の位置情報との対応が取れると、前記第1の画像データと前記第2の画像データとを関連付けさせる画像関連付け機能と、
前記画像関連付け機能により関連付けさせた前記第1の画像データと前記第2の画像データとを表示させる表示制御機能と、
を実現させるための画像関連付けプログラム。
On the computer,
An image capturing function for capturing first image data including character information composed of characters on a map and second image data having second position information indicating a photographing position;
A character reading function for reading the character information from the first image data captured by the image capturing function;
A location information acquisition function that searches a database for a place name or facility name corresponding to the character information read by the character reading function, and acquires the first location information of the searched place name or facility name;
When the correspondence between the first position information acquired by the position information acquisition function and the second position information of the second image data acquired by the image acquisition unit is obtained, the first image An image association function for associating data with the second image data;
A display control function for displaying the first image data and the second image data associated by the image association function;
An image association program for realizing the above.
前記画像関連付け機能は、前記第1の画像データ中の前記地図上に、前記第2の画像データの前記撮影位置を示しさせることを実現させるための請求項15記載の画像関連付けプログラム。 The image association program according to claim 15 , wherein the image association function realizes that the shooting position of the second image data is indicated on the map in the first image data.
JP2011203784A 2011-09-16 2011-09-16 Image association apparatus, photographing apparatus, and image association program Active JP5722177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011203784A JP5722177B2 (en) 2011-09-16 2011-09-16 Image association apparatus, photographing apparatus, and image association program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011203784A JP5722177B2 (en) 2011-09-16 2011-09-16 Image association apparatus, photographing apparatus, and image association program

Publications (2)

Publication Number Publication Date
JP2013065211A JP2013065211A (en) 2013-04-11
JP5722177B2 true JP5722177B2 (en) 2015-05-20

Family

ID=48188645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011203784A Active JP5722177B2 (en) 2011-09-16 2011-09-16 Image association apparatus, photographing apparatus, and image association program

Country Status (1)

Country Link
JP (1) JP5722177B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282343A (en) * 1998-03-27 1999-10-15 Dainippon Screen Mfg Co Ltd Map processor
JP2011154643A (en) * 2010-01-28 2011-08-11 Canon Inc Metadata attachment method, metadata attachment apparatus, and program
JP5750696B2 (en) * 2011-03-31 2015-07-22 オリンパス株式会社 Display device and display program

Also Published As

Publication number Publication date
JP2013065211A (en) 2013-04-11

Similar Documents

Publication Publication Date Title
KR0184245B1 (en) Electronic camera and image reproducing device therefor
JP4687409B2 (en) Imaging playback device
JP5517683B2 (en) Image processing apparatus and control method thereof
US20120169769A1 (en) Information processing apparatus, information display method, and computer program
JP2006279266A (en) Electronic album preparation device, electronic album preparing system, and electronic album preparation program
JP2011137638A (en) Navigation system, sightseeing spot detecting device, navigation device, sightseeing spot detecting method, navigation method, sightseeing spot detecting program, and navigation program
JP6471986B2 (en) Portable electronic device and program for photography and management
JP4187954B2 (en) Electronic album device and electronic album creation method
TW200806027A (en) Imaging/reproducing device
JP2007129407A (en) Camera system, map information display system
JP2012019374A (en) Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server
JP5634786B2 (en) Digital camera
JP2010268217A (en) Imaging apparatus
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP2006287741A (en) Cooperation system of navigation device and photography device and navigation device
JP5722177B2 (en) Image association apparatus, photographing apparatus, and image association program
JP5206445B2 (en) MOVIE DISPLAY DEVICE, PROGRAM, AND IMAGING DEVICE
JP6610925B2 (en) Image classification apparatus, image classification method, and program
JP2007003340A (en) Moving object measuring arrangement and measuring method for moving object
JP2006170855A (en) World timepiece, and method of setting time of world timepiece
JP2006133947A (en) Portable equipment and image file retrieval method
JP2019054406A (en) Imaging apparatus, imaging method, imaging system, and imaging assistance server
WO2021234785A1 (en) Display information control device, display information control method and program
JP2008197739A (en) Index print preparation system
JP2007310799A (en) Image file selection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150325

R151 Written notification of patent or utility model registration

Ref document number: 5722177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250