JP2003296329A - Information providing device, information providing method and information processing program - Google Patents

Information providing device, information providing method and information processing program

Info

Publication number
JP2003296329A
JP2003296329A JP2002097294A JP2002097294A JP2003296329A JP 2003296329 A JP2003296329 A JP 2003296329A JP 2002097294 A JP2002097294 A JP 2002097294A JP 2002097294 A JP2002097294 A JP 2002097294A JP 2003296329 A JP2003296329 A JP 2003296329A
Authority
JP
Japan
Prior art keywords
information
image
landscape
pseudo
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002097294A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Kodama
良幸 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2002097294A priority Critical patent/JP2003296329A/en
Publication of JP2003296329A publication Critical patent/JP2003296329A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To inexpensively and easily provide proper information associated with scenery. <P>SOLUTION: An electronic binocular 1 predicts a photographed subject from position information and direction at photographing the subject and the information of a scenery database, and the predicted scenery image is matched with the actually photographed scenery image so that the explanation of a target can be displayed at the accurate position of the photographed image. Therefore, it is possible for a user to easily and accurately know the information of each target in the image by photographing the target whose detail information the user wants to know by the electronic binocular 1. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、検索対象に関する
情報を提供する情報提供装置、情報提供方法および情報
処理プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information providing device, an information providing method, and an information processing program for providing information regarding a search target.

【0002】[0002]

【従来の技術】従来、山あるいは星といった景観の眺め
る際、その景観についての詳しい情報を知りたい場合に
は、地図あるいは星図等を用い、黙視により地図等と実
際の景観とを比較することにより種々の情報を得てい
た。一方、近年の情報処理技術の発達により、目的とす
る情報を情報処理装置によって検索し、ユーザに提供す
る方法が提案されている。
2. Description of the Related Art Conventionally, when looking at a landscape such as a mountain or a star, when it is desired to know detailed information about the landscape, a map or a star map is used, and a map or the like is compared with the actual landscape by silent observation. I got various information. On the other hand, with the recent development of information processing technology, a method has been proposed in which desired information is searched by an information processing device and provided to a user.

【0003】例えば、特開平8−75496号公報に
は、情報処理装置を携帯するユーザの位置、情報処理装
置が向けられている方向および仰角に基づいて、地図デ
ータから目的となるものを特定し、その目的物に関する
情報を表示する技術が開示されている。また、特開平9
−505138号公報には、特開平8−74596号公
報と同様の方法で目的物を特定し、その目的物を撮影し
た画像に重ねて、関連する情報を表示する技術が開示さ
れている。
For example, in Japanese Unexamined Patent Publication No. 8-75496, a target object is specified from map data based on the position of a user carrying an information processing device, the direction in which the information processing device is directed, and the elevation angle. , A technique for displaying information about the object is disclosed. In addition, JP-A-9
Japanese Patent Laid-Open No. 505138/1990 discloses a technique of identifying a target object by a method similar to that of Japanese Patent Laid-Open No. 8-74596, displaying the related information by superimposing the target object on a photographed image.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、特開平
8−75496号公報および特開平9−505138号
公報に記載された目的物の特定方法では、位置、方向、
仰角等をセンサによって検出し、センサの出力情報に基
づいて、目的物を特定(予想)するものである。ところ
が、現在、このような方法で正確な目的物の特定を可能
とする精度のセンサは実現できない。また、将来におい
て、このようなセンサが実現された場合にも、高価であ
ることが予想される。
However, in the method of identifying an object described in JP-A-8-75496 and JP-A-9-505138, the position, direction,
The angle of elevation and the like are detected by a sensor, and the target is specified (estimated) based on the output information of the sensor. However, at present, it is not possible to realize a sensor having an accuracy capable of accurately identifying a target object by such a method. Further, it is expected that even if such a sensor is realized in the future, it will be expensive.

【0005】したがって、現在、これらの方法で特定さ
れた結果物は、正確に目的物と一致していない可能性も
高く、必ずしも適切な情報の提供が行われていなかっ
た。また、そのため、特開平9−505138号公報に
記載された技術においては、撮影された目的物に対し、
正確な情報が重ねて表示されない場合があった。本発明
の課題は、低コストかつ容易に景観に関する適切な情報
の提供を行うことである。
Therefore, at present, it is highly possible that the product identified by these methods does not exactly match the target product, and appropriate information has not necessarily been provided. Therefore, in the technique disclosed in Japanese Patent Laid-Open No. 9-505138,
In some cases, accurate information was not displayed in layers. An object of the present invention is to provide appropriate information regarding a landscape easily at low cost.

【0006】[0006]

【課題を解決するための手段】以上の課題を解決するた
め、請求項1記載の発明は、景観に関連する所定の情報
(例えば、山の名称等)を格納する景観情報格納手段を
含み、該情報格納手段から表示対象である情報を検索し
て提供する情報提供装置であって、関連する所定の情報
の表示対象である被写体を撮影する撮影手段(例えば、
図1のCCDカメラ12)と、被写体が撮影された場所
に関する情報を取得する場所情報取得手段(例えば、図
1のGPS機能部14)と、被写体が撮影された方向に
関する情報を取得する方向情報取得手段(例えば、図1
の電子方位計16)と、景観を擬似的に画像化するため
の情報(例えば、図7に示す2次元マトリクスデータ)
を格納する擬似景観情報格納手段(例えば、図1のフラ
ッシュROM18)と、前記撮影された場所と、前記撮
影された方向と、前記擬似景観情報格納手段に格納され
た情報とに基づいて、前記撮影手段によって撮影された
被写体の擬似的な画像を生成する擬似景観生成手段(例
えば、図1のCPU11)と、前記撮影手段によって撮
影された被写体の画像と、前記擬似景観生成手段によっ
て生成された擬似的な画像とをマッチングし、該被写体
の画像と、該擬似的な画像との対応関係に基づいて、前
記撮影された画像の所定位置に、景観に関連する所定の
情報を表示する情報表示手段(例えば、図1のCPU1
1およびLCD20)と、を含むことを特徴としてい
る。
In order to solve the above-mentioned problems, the invention according to claim 1 includes landscape information storage means for storing predetermined information (for example, the name of a mountain) related to the landscape, An information providing device that retrieves information to be displayed from the information storage means and provides the information, and a photographing means (for example, a photographing means for photographing a subject as a display object of related predetermined information).
The CCD camera 12 in FIG. 1), a location information acquisition unit (for example, the GPS function unit 14 in FIG. 1) that acquires information about the location where the subject was photographed, and direction information that acquires information about the direction in which the subject was photographed. Acquisition means (eg, FIG. 1)
Electronic azimuth meter 16) and information for pseudo-imaging a landscape (for example, two-dimensional matrix data shown in FIG. 7)
Based on the information stored in the pseudo landscape information storage means (for example, the flash ROM 18 in FIG. 1), the shooting location, the shooting direction, and the information stored in the pseudo landscape information storage means. A pseudo landscape generation unit (for example, the CPU 11 in FIG. 1) that generates a pseudo image of the subject photographed by the photographing unit, an image of the subject photographed by the photographing unit, and the pseudo landscape generation unit. Information display that matches a pseudo image and displays predetermined information related to the landscape at a predetermined position of the captured image based on the correspondence between the image of the subject and the pseudo image Means (eg, CPU1 in FIG. 1)
1 and LCD 20) are included.

【0007】なお、本発明における処理は、撮影された
1枚の画像(静止画像)について行うこと、および、連
続して処理を繰り返すことによりリアルタイムに行うこ
との両方が可能である。請求項2記載の発明は、請求項
1記載の情報提供装置であって、被写体が撮影された時
間に関する情報を取得する時間情報取得手段をさらに含
み、前記擬似景観生成手段は、該時間に関する情報と、
前記撮影された場所と、前記撮影された方向と、前記擬
似景観情報格納手段に格納された情報とに基づいて、前
記撮影手段によって撮影された被写体の擬似的な画像を
生成することを特徴としている。
Note that the processing in the present invention can be performed both for one image (still image) taken and in real time by repeating the processing continuously. The invention according to claim 2 is the information providing apparatus according to claim 1, further comprising time information acquisition means for acquiring information regarding a time when the subject was photographed, and the pseudo-scene generation means includes information regarding the time. When,
A pseudo image of the subject photographed by the photographing means is generated based on the photographed place, the photographed direction, and the information stored in the pseudo landscape information storage means. There is.

【0008】請求項3記載の発明は、請求項1または2
記載の情報提供装置であって、前記情報表示手段は、前
記擬似景観生成手段によって生成された被写体の擬似的
な画像に基づいて、前記撮影手段によって撮影された被
写体の画像を補正して表示することを特徴としている。
The invention according to claim 3 is the invention according to claim 1 or 2.
The information providing device described above, wherein the information display unit corrects and displays an image of the subject photographed by the photographing unit based on the pseudo image of the subject generated by the pseudo landscape generating unit. It is characterized by that.

【0009】ここで、「補正」には、撮影された被写体
の一部を擬似的な画像で補間する場合や、撮影された画
像を強調する場合を含むものである。請求項4記載の発
明は、請求項1〜3のいずれかに記載の情報提供装置で
あって、前記情報表示手段は、前記被写体の画像および
前記擬似的な画像それぞれのエッジを抽出し、エッジの
パターンマッチングにより、前記被写体の画像と前記擬
似的な画像とのマッチングを行うことを特徴としてい
る。
Here, "correction" includes the case where a part of the photographed subject is interpolated by a pseudo image and the case where the photographed image is emphasized. The invention according to claim 4 is the information providing apparatus according to any one of claims 1 to 3, wherein the information display means extracts edges of the image of the subject and the pseudo image, respectively. It is characterized in that the image of the subject and the pseudo image are matched by the pattern matching.

【0010】請求項5記載の発明は、請求項1〜4のい
ずれかに記載の情報提供装置であって、前記景観に関連
する所定の情報は、地形に関連する情報を含み、前記擬
似景観情報格納手段は、地形図を画像化するための情報
を格納することを特徴としている。
The invention according to claim 5 is the information providing apparatus according to any one of claims 1 to 4, wherein the predetermined information related to the landscape includes information related to the terrain, and the pseudo landscape. The information storage means is characterized by storing information for imaging the topographic map.

【0011】請求項6記載の発明は、請求項1〜4のい
ずれかに記載の情報提供装置であって、前記景観に関連
する所定の情報は、星空に関連する情報を含み、前記擬
似景観情報格納手段は、星図を画像化するための情報を
格納することを特徴としている。
The invention according to claim 6 is the information providing apparatus according to any one of claims 1 to 4, wherein the predetermined information related to the landscape includes information related to a starry sky, and the pseudo landscape. The information storage means is characterized by storing information for imaging a star map.

【0012】請求項7記載の発明は、請求項1〜6のい
ずれかに記載の情報提供装置であって、双眼鏡の形態を
なし、前記撮影手段を対物側に設け、前記情報表示手段
が前記撮影された画像および景観に関連する所定の情報
を表示する画像表示装置を接眼側に設けたことを特徴と
している。
The invention according to claim 7 is the information providing apparatus according to any one of claims 1 to 6, which is in the form of binoculars, in which the photographing means is provided on the objective side, and the information display means is the above-mentioned. It is characterized in that an image display device for displaying predetermined information related to the photographed image and the landscape is provided on the eyepiece side.

【0013】請求項8記載の発明は、請求項1〜6のい
ずれかに記載の情報提供装置であって、携帯情報端末装
置の形態をなし、前記撮影手段としてのカメラを設け、
前記情報表示手段は、携帯情報端末装置の表示機能部で
ある画像表示装置に、前記撮影された画像および景観に
関連する所定の情報を表示することを特徴としている。
The invention according to claim 8 is the information providing apparatus according to any one of claims 1 to 6, which is in the form of a portable information terminal device, and is provided with a camera as the photographing means.
The information display means is characterized by displaying predetermined information related to the photographed image and the landscape on an image display device which is a display function unit of the portable information terminal device.

【0014】請求項9記載の発明は、景観に関連する所
定の情報を格納する景観情報格納手段を含み、該情報格
納手段から表示対象である情報を検索して提供する情報
提供装置における情報提供方法であって、景観を擬似的
に画像化するための擬似景観情報を格納しておき、関連
する所定の情報の表示対象である被写体を撮影し、被写
体が撮影された場所に関する情報と、被写体が撮影され
た方向に関する情報とを取得し、前記撮影された場所
と、前記撮影された方向と、前記擬似景観情報とに基づ
いて、前記撮影された被写体の擬似的な画像を生成し、
前記被写体の画像と、前記擬似的な画像とをマッチング
し、該被写体の画像と、該擬似的な画像との対応関係に
基づいて、前記撮影された画像の所定位置に、景観に関
連する所定の情報を表示することを特徴としている。
According to a ninth aspect of the present invention, there is provided landscape information storage means for storing predetermined information relating to landscape, and information provision in an information provision device for retrieving and providing information to be displayed from the information storage means. The method is to store pseudo-scene information for pseudo-imaging a landscape, photograph a subject as a display target of related predetermined information, and obtain information about a place where the subject is photographed and a subject. Acquires information about a shooting direction, generates a pseudo image of the shot subject based on the shooting location, the shooting direction, and the pseudo landscape information,
The image of the subject and the pseudo image are matched, and based on the correspondence between the image of the subject and the pseudo image, a predetermined position related to the landscape is set at a predetermined position of the captured image. It is characterized by displaying the information of.

【0015】請求項10記載の発明は、請求項9記載の
情報提供方法であって、被写体が撮影された時間に関す
る情報をさらに取得し、該時間に関する情報と、前記撮
影された場所と、前記撮影された方向と、前記擬似景観
情報とに基づいて、前記撮影された被写体の擬似的な画
像を生成することを特徴としている。
The invention according to claim 10 is the information providing method according to claim 9, wherein the information regarding the time when the subject is photographed is further acquired, and the information regarding the time, the place where the photograph is taken, and the It is characterized in that a pseudo image of the photographed subject is generated based on the photographed direction and the pseudo landscape information.

【0016】請求項11記載の発明は、請求項9または
10記載の情報提供方法であって、前記生成された被写
体の擬似的な画像に基づいて、前記撮影された被写体の
画像を補正して表示することを特徴としている。請求項
12記載の発明は、請求項9〜11のいずれかに記載の
情報提供方法であって、前記被写体の画像および前記擬
似的な画像それぞれのエッジを抽出し、エッジのパター
ンマッチングにより、前記被写体の画像と前記擬似的な
画像とのマッチングを行うことを特徴としている。
The invention according to claim 11 is the information providing method according to claim 9 or 10, wherein the image of the photographed subject is corrected based on the generated pseudo image of the subject. It is characterized by displaying. The invention according to claim 12 is the information providing method according to any one of claims 9 to 11, wherein edges of the image of the subject and the pseudo image are extracted, and pattern matching of the edges is performed to extract the edges. It is characterized in that the image of the subject is matched with the pseudo image.

【0017】請求項13記載の発明は、請求項9〜12
のいずれかに記載の情報提供方法であって、前記景観に
関連する所定の情報は、地形に関連する情報を含み、前
記擬似景観情報として、地形図を画像化するための情報
を格納することを特徴としている。請求項14記載の発
明は、請求項9〜12のいずれかに記載の情報提供方法
であって、前記景観に関連する所定の情報は、星空に関
連する情報を含み、前記擬似景観情報として、星図を画
像化するための情報を格納することを特徴としている。
The invention according to claim 13 is the invention as claimed in claims 9 to 12.
The information providing method according to any one of claims 1 to 3, wherein the predetermined information related to the landscape includes information related to the terrain, and the information for imaging the topographic map is stored as the pseudo landscape information. Is characterized by. The invention according to claim 14 is the information providing method according to any one of claims 9 to 12, wherein the predetermined information related to the landscape includes information related to a starry sky, and as the pseudo landscape information, It is characterized by storing information for imaging a star map.

【0018】請求項15記載の発明は、請求項9〜14
のいずれかに記載の情報提供方法であって、前記情報提
供装置は双眼鏡の形態をなし、対物側で被写体を撮影
し、前記撮影された画像および景観に関連する所定の情
報を接眼側で表示することを特徴としている。
The invention according to claim 15 is the invention as claimed in claims 9 to 14.
The information providing method according to any one of claims 1 to 3, wherein the information providing apparatus is in the form of binoculars, a subject is photographed on the object side, and predetermined information related to the photographed image and landscape is displayed on the eyepiece side. It is characterized by doing.

【0019】請求項16記載の発明は、請求項9〜14
のいずれかに記載の情報提供方法であって、前記情報提
供装置は携帯情報端末装置の形態をなし、備えられたカ
メラにより被写体を撮影し、携帯情報端末の表示機能部
である画像表示装置に、前記撮影された画像および景観
に関連する所定の情報を表示することを特徴としてい
る。
The invention according to claim 16 is the invention according to claims 9 to 14.
The information providing method according to any one of claims 1 to 3, wherein the information providing device is in the form of a mobile information terminal device, and an image is captured by a camera provided in , And displaying predetermined information related to the photographed image and the landscape.

【0020】請求項17記載の発明は、景観に関連する
所定の情報を格納する景観情報格納手段を含み、該情報
格納手段から表示対象である情報を検索して提供する情
報提供装置のための情報処理プログラムであって、関連
する所定の情報の表示対象である被写体が撮影された場
所に関する情報と、該被写体が撮影された方向に関する
情報と、景観を擬似的に画像化するための情報とに基づ
いて、該被写体の擬似的な画像を生成する擬似景観生成
機能と、該被写体の画像と、該被写体の擬似的な画像と
をマッチングし、その対応関係に基づいて、該被写体の
画像の所定位置に、景観に関連する所定の情報を表示す
る情報表示機能と、を実現させることを特徴としてい
る。
According to a seventeenth aspect of the present invention, there is provided an information providing device which includes landscape information storage means for storing predetermined information relating to a landscape and which retrieves and provides information to be displayed from the information storage means. An information processing program, which is information about a place where a subject, which is a display target of related predetermined information, is photographed, information about a direction in which the subject is photographed, and information for pseudo-imaging a landscape. The pseudo-scene generation function for generating a pseudo-image of the subject, and the image of the subject and the pseudo-image of the subject are matched, and based on the correspondence, An information display function of displaying predetermined information related to the landscape at a predetermined position is realized.

【0021】請求項18記載の発明は、請求項17記載
の情報処理プログラムであって、前記擬似景観生成機能
は、被写体が撮影された時間に関する情報と、前記撮影
された場所と、前記撮影された方向と、前記景観を擬似
的に画像化するための情報とに基づいて、前記被写体の
擬似的な画像を生成することを特徴としている。
The invention according to claim 18 is the information processing program according to claim 17, wherein the pseudo-scene generation function includes information on a time when a subject was photographed, the place where the photograph was taken, and the photographed place. It is characterized in that a pseudo image of the subject is generated on the basis of the direction and the information for pseudo imaging the landscape.

【0022】請求項19記載の発明は、請求項17また
は18記載の情報処理プログラムであって、前記情報表
示機能は、前記擬似景観生成機能によって生成された被
写体の擬似的な画像に基づいて、前記被写体の画像を補
正して表示することを特徴としている。
The invention according to claim 19 is the information processing program according to claim 17 or 18, wherein the information display function is based on a pseudo image of a subject generated by the pseudo landscape generation function. The image of the subject is corrected and displayed.

【0023】請求項20記載の発明は、請求項17〜1
9のいずれかに記載の情報処理プログラムであって、前
記情報表示機能は、前記被写体の画像および前記擬似的
な画像それぞれのエッジを抽出し、エッジのパターンマ
ッチングにより、前記被写体の画像と前記擬似的な画像
とのマッチングを行うことを特徴としている。
The invention according to claim 20 is the invention according to claims 17 to 1.
10. The information processing program according to any one of 9, wherein the information display function extracts edges of the image of the subject and the pseudo image, and performs pattern matching of the edges to match the image of the subject and the pseudo image. The feature is that matching with a specific image is performed.

【0024】請求項21記載の発明は、請求項17〜2
0のいずれかに記載の情報処理プログラムであって、前
記景観に関連する所定の情報は、地形に関連する情報を
含み、前記景観を擬似的に画像化するための情報は、地
形図を画像化するための情報であることを特徴としてい
る。
The invention according to claim 21 is the invention according to claims 17 to 2.
The information processing program according to any of 0, wherein the predetermined information related to the landscape includes information related to the topography, and the information for pseudo-imaging the landscape is a topographic map. The feature is that it is information for realization.

【0025】請求項22記載の発明は、請求項17〜2
0のいずれかに記載の情報処理プログラムであって、前
記景観に関連する所定の情報は、星空に関連する情報を
含み、前記景観を擬似的に画像化するための情報は、星
図を画像化するための情報であることを特徴としてい
る。
The invention according to claim 22 is the invention according to claims 17 to 2.
The information processing program according to any of 0, wherein the predetermined information related to the landscape includes information related to a starry sky, and the information for pseudo-imaging the landscape is a star map. It is characterized by being information for doing.

【0026】本発明によれば、撮影された被写体を、撮
影時の場所および撮影の方向と、景観を擬似的に画像化
するための情報とによって予測(画像化)し、予測した
景観の画像と実際に撮影された景観の画像とをマッチン
グすることにより、撮影された画像において、正確な位
置に、景観内の目的物の説明を表示することができる。
According to the present invention, the photographed subject is predicted (imaged) by the place and the photographing direction at the time of photographing, and the information for pseudo-imaging the landscape, and the image of the predicted landscape is obtained. By matching with the image of the landscape actually photographed, the description of the target object in the landscape can be displayed at an accurate position in the photographed image.

【0027】したがって、ユーザは、詳しい情報を知り
たいと考える目的物を撮影することにより、画像内の各
目的物についての情報を容易かつ正確に知ることができ
る。また、本発明において必要となるセンサ等の精度
は、従来のものと同様で十分であるため、低コストで適
切な情報を提供することができる。また、本発明によれ
ば、景観として星空を対象とする場合等、時間によって
変動する目的物の場合であっても、時間に関する情報を
取得することで、適切に情報を提供することができる。
Therefore, the user can easily and accurately know the information about each target object in the image by photographing the target object for which detailed information is desired. Further, since the accuracy of the sensor and the like required in the present invention is the same as that of the conventional one and is sufficient, it is possible to provide appropriate information at low cost. Further, according to the present invention, even in the case of a target object that changes with time, such as when a starry sky is targeted as a landscape, it is possible to appropriately provide information by acquiring information regarding time.

【0028】[0028]

【発明の実施の形態】以下、図を参照して本発明に係る
電子双眼鏡の実施の形態を詳細に説明する。本発明に係
る電子双眼鏡は、撮影手段を備え、撮影された目的物に
関する名前等の情報をユーザに提供する装置である。ま
た、このとき、提供する情報を撮影された画像に重ねて
表示したり、撮影された画像に処理を施して、視覚的効
果を創出したりすることが可能である。なお、電子双眼
鏡によって撮影される被写体(情報提供の対象)として
は、山等の地形の場合あるいは星空の場合等、種々の場
合が想定されるが、以下、山の景色が撮影される場合を
例にあげて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the electronic binoculars according to the present invention will be described in detail below with reference to the drawings. The electronic binoculars according to the present invention is a device that includes a photographing means and provides a user with information such as a name regarding the photographed object. In addition, at this time, it is possible to display the information to be provided so as to be superimposed on the captured image, or to process the captured image to create a visual effect. It should be noted that various subjects such as topography such as mountains or a starry sky can be assumed as subjects (targets of information provision) captured by the electronic binoculars. An example will be explained.

【0029】まず、構成を説明する。図1は、電子双眼
鏡1の機能構成を示すブロック図である。また、図2
は、電子カメラ1の斜視図および断面図である。図1に
おいて、電子双眼鏡1は、CPU(Central Processing
Unit)11と、CCD(Charge Coupled Diode)カメ
ラ12と、リアルタイムクロック部13と、GPS(Gl
obal Positioning System)機能部14と、仰角センサ
15と、電子方位計16と、RAM(Random Access Me
mory)17と、フラッシュROM(Read Only Memory)
18と、プログラムROM19と、LCD(Liquid Cry
stal Display)20とを含んで構成される。
First, the structure will be described. FIG. 1 is a block diagram showing a functional configuration of the electronic binoculars 1. Also, FIG.
FIG. 3A is a perspective view and a sectional view of the electronic camera 1. In FIG. 1, electronic binoculars 1 include a CPU (Central Processing).
Unit) 11, CCD (Charge Coupled Diode) camera 12, real-time clock unit 13, GPS (Gl
obal Positioning System) function section 14, elevation angle sensor 15, electronic compass 16, and RAM (Random Access Me
mory) 17 and flash ROM (Read Only Memory)
18, program ROM 19, LCD (Liquid Cry)
stal display) 20.

【0030】CPU11は、電子双眼鏡1全体を制御す
るもので、被写体の撮影時に押下されるシャッタボタン
の押下信号等、各種の指示信号に従って、フラッシュR
OM16あるいはプログラムROM19に記憶された各
種処理に関するプログラムを読み出して実行する。例え
ば、CPU11は、CCDカメラ12によって撮影が行
われた場合に、情報提供処理プログラムを読み出して実
行する。そして、CPU11は、各種プログラムあるい
は制御を実行した処理結果をRAM15やフラッシュR
OM16の所定の領域に格納したり、LCD20に表示
させたりする。
The CPU 11 controls the entire electronic binoculars 1, and the flash R is operated in accordance with various instruction signals such as a shutter button depression signal which is depressed when a subject is photographed.
The programs related to various processes stored in the OM 16 or the program ROM 19 are read and executed. For example, the CPU 11 reads out and executes the information providing processing program when the CCD camera 12 takes an image. Then, the CPU 11 outputs the processing results of executing various programs or controls to the RAM 15 or the flash R.
It is stored in a predetermined area of the OM 16 or displayed on the LCD 20.

【0031】CCDカメラ12は、CCDセンサを備
え、シャッタボタンが押下されることに対応して被写体
を撮影し、デジタル画像データ化する。リアルタイムク
ロック部13は、現在時刻を計時する手段を備えてお
り、CPU11に対し、現在時刻を出力する。また、リ
アルタイムクロック部13は、シャッタボタンが押下さ
れたことに対応して、その時の時刻をCPU11の指示
に従ってRAM15に出力する。
The CCD camera 12 is equipped with a CCD sensor and photographs a subject in response to the depression of a shutter button to convert it into digital image data. The real-time clock unit 13 includes means for measuring the current time, and outputs the current time to the CPU 11. Further, the real-time clock unit 13 outputs the time at that time to the RAM 15 according to the instruction of the CPU 11 in response to the pressing of the shutter button.

【0032】GPS機能部14は、GPS衛星からの電
波を受信し、それらに基づいて自装置の現在位置、高度
を割り出す機能を有する。そして、GPS機能部14
は、シャッタボタンが押下されたことに対応して、その
時の電子双眼鏡1の位置、高度を割り出し、割り出され
た位置、高度(以下、「位置情報」と言う。)をCPU
11の指示に従ってRAM17に出力する。
The GPS function unit 14 has a function of receiving radio waves from GPS satellites and calculating the current position and altitude of the own device based on the received radio waves. Then, the GPS function unit 14
The CPU determines the position and altitude of the electronic binoculars 1 at that time in response to the shutter button being pressed, and the calculated position and altitude (hereinafter referred to as “position information”) to be CPU.
It is output to the RAM 17 in accordance with the instruction of 11.

【0033】仰角センサ15は、電子双眼鏡1の姿勢
が、水平からどのくらい傾いているか(正確には、CC
Dカメラ12の光軸の仰角)を検出するセンサであり、
検出した仰角をCPU11の指示に従ってRAM17に
出力する。電子方位計16は、電子双眼鏡1の向いてい
る方向(正確には、CCDカメラ12の光軸の方向)を
検出する装置であり、検出した方向をCPU11の指示
に従ってRAM17に出力する。
The elevation sensor 15 determines how much the posture of the electronic binoculars 1 is inclined from the horizontal (more precisely, CC
A sensor for detecting the elevation angle of the optical axis of the D camera 12,
The detected elevation angle is output to the RAM 17 according to the instruction of the CPU 11. The electronic azimuth meter 16 is a device that detects the direction in which the electronic binoculars 1 are facing (to be precise, the direction of the optical axis of the CCD camera 12), and outputs the detected direction to the RAM 17 according to the instruction of the CPU 11.

【0034】RAM17は、CPU11により実行され
る情報提供処理(後述)等の各種処理において生成され
た各種データを一時的に記憶するワークエリアを有す
る。フラッシュROM18は、不揮発性の記憶装置であ
り、情報提供処理プログラムおよび電子双眼鏡1の制御
のための各種処理に関するプログラムを記憶する。ま
た、フラッシュROM18は、情報提供処理において参
照される種々の景観に関する情報を格納したデータベー
ス(以下、「景観データベース」と言う。)を記憶して
いる。
The RAM 17 has a work area for temporarily storing various data generated by various processes such as information providing process (described later) executed by the CPU 11. The flash ROM 18 is a non-volatile storage device, and stores an information providing processing program and programs related to various processings for controlling the electronic binoculars 1. The flash ROM 18 also stores a database (hereinafter, referred to as “landscape database”) that stores information regarding various landscapes referred to in the information providing process.

【0035】景観データベースは、地形図と、地形図の
所定点に対応する情報(山あるいは川の名前、名所の名
称およびそれに関連する情報等)を格納したデータベー
スである。なお、景観データベースには、その他にも、
星図と、各星座あるいは星の名前およびそれに関連する
情報といった種々の景観に関するデータを格納すること
が可能である。
The landscape database is a database that stores a topographic map and information (names of mountains or rivers, names of famous places and information related thereto) corresponding to predetermined points on the topographic map. In addition, in the landscape database,
It is possible to store data about various landscapes, such as star charts and the name of each constellation or star and related information.

【0036】また、フラッシュROM18は、情報提供
処理において、地形画像を合成するための緯度・経度お
よび標高に関するマトリクスデータ(図11参照)を記
憶している。プログラムROM19は、不揮発性の記憶
装置であり、電子双眼鏡1の制御プログラムあるいは所
定のデータ等を記憶する。なお、上述のフラッシュRO
M18が記憶するデータをプログラムROM19が記憶
することも可能である。
The flash ROM 18 also stores matrix data (see FIG. 11) relating to latitude / longitude and altitude for synthesizing the topographic image in the information providing process. The program ROM 19 is a non-volatile storage device, and stores a control program of the electronic binoculars 1, predetermined data, or the like. The flash RO described above
It is also possible for the program ROM 19 to store the data stored in the M18.

【0037】LCD20は、CPU11の指示に従っ
て、撮影された景観(目的物)の画像、目的物に関する
情報等の各種処理結果、ユーザに対するメッセージとい
った各種データを表示する。次に、動作を説明する。図
3は、CPU11が実行する情報提供処理を示すフロー
チャートである。情報提供処理は、電子双眼鏡1の電源
投入と共に実行される。
The LCD 20 displays various data such as an image of a photographed landscape (object), various processing results such as information about the object, and a message to the user according to an instruction from the CPU 11. Next, the operation will be described. FIG. 3 is a flowchart showing the information providing process executed by the CPU 11. The information providing process is executed when the power of the electronic binoculars 1 is turned on.

【0038】図3において、情報提供処理が開始される
と、CPU11は、電子双眼鏡1の各部分を初期化し
(ステップS1)、CCDカメラ12が現在撮影してい
る画像をLCD20あるいはファインダーに表示する
(ステップS2)。次に、CPU11は、シャッタボタ
ンが押下されたか否かの判定を行い(ステップS3)、
シャッタボタンが押下されていないと判定した場合、ス
テップS2の処理に移行する。
In FIG. 3, when the information providing process is started, the CPU 11 initializes each part of the electronic binoculars 1 (step S1) and displays the image currently taken by the CCD camera 12 on the LCD 20 or the viewfinder. (Step S2). Next, the CPU 11 determines whether or not the shutter button has been pressed (step S3),
If it is determined that the shutter button has not been pressed, the process proceeds to step S2.

【0039】ステップS3において、シャッタボタンが
押下されたと判定した場合、CPU11は、CCDカメ
ラ12により被写体を撮影する処理(以下、「画像撮影
処理」と言う。)を行い(ステップS4)、撮影された
画像(図4参照)を表示する(ステップS5)。次い
で、CPU11は、撮影された画像に関する情報を提供
しないモード(以下、「通常モード」と言う。)もしく
は撮影された画像に関する情報を提供するモード(以
下、「ガイドモード」と言う。)を選択させるメニュー
画面を表示する(ステップS6)。
When it is determined in step S3 that the shutter button has been pressed, the CPU 11 performs a process of photographing a subject with the CCD camera 12 (hereinafter referred to as "image photographing process") (step S4), and photographing is performed. The displayed image (see FIG. 4) is displayed (step S5). Next, the CPU 11 selects a mode that does not provide information regarding the captured image (hereinafter referred to as “normal mode”) or a mode that provides information regarding the captured image (hereinafter referred to as “guide mode”). A menu screen to be displayed is displayed (step S6).

【0040】次に、CPU11は、メニュー画面におい
て、いずれかのメニューが選択されたか否かの判定を行
い(ステップS7)、いずれのメニューも選択されてい
ないと判定した場合、ステップS6の処理に移行する。
一方、ステップS7において、いずれかのメニューが選
択されたと判定した場合、CPU11は、通常モードが
選択されたか否かの判定を行い(ステップS8)、通常
モードが選択されたと判定した場合、ステップS2の処
理に移行する。
Next, the CPU 11 determines whether or not any menu is selected on the menu screen (step S7). If it is determined that no menu is selected, the CPU 11 proceeds to the processing of step S6. Transition.
On the other hand, in step S7, when it is determined that any menu is selected, the CPU 11 determines whether the normal mode is selected (step S8), and when it is determined that the normal mode is selected, step S2 Process shifts to.

【0041】一方、ステップS8において、通常モード
が選択されていないと判定した場合、CPU11は、位
置情報、仰角、方向および景観データベースの情報に基
づいて、被写体である地形を予測(画像化)し、対応す
る地形画像を合成する処理(以下、「地形画像合成処
理」と言う。)を行う(ステップS9)。図5は、合成
された地形の見取り図(地形画像)を示す図である。
On the other hand, when it is determined in step S8 that the normal mode is not selected, the CPU 11 predicts (images) the terrain, which is the subject, based on the position information, the elevation angle, the direction, and the information of the landscape database. , Processing for synthesizing corresponding topographic images (hereinafter referred to as “terrain image synthesizing processing”) is performed (step S9). FIG. 5 is a diagram showing a sketch of a synthesized terrain (terrain image).

【0042】次に、CPU11は、撮影された画像にお
いて地形の特徴を抽出する処理(以下、「特徴抽出処
理」と言う。)を行う(ステップS10)。図6は、実
際に撮影された画像においてエッジ検出が行われた結果
の画像を示す図である。そして、ステップS9において
合成された地形画像(図5参照)と、ステップS10に
おいて特徴を抽出された画像とをマッチングして画面に
おける位置を調整する処理(以下、「マッチング処理」
と言う。)を実行する(ステップS11)。
Next, the CPU 11 performs a process of extracting the feature of the terrain in the photographed image (hereinafter referred to as "feature extraction process") (step S10). FIG. 6 is a diagram showing an image as a result of edge detection performed on an actually photographed image. Then, the process of adjusting the position on the screen by matching the topographic image (see FIG. 5) synthesized in step S9 with the image of which the feature is extracted in step S10 (hereinafter, referred to as "matching process").
Say ) Is executed (step S11).

【0043】次いで、CPU11は、メニュー画面にお
いて、地形の説明を画像に付加するモード(以下、「説
明付加モード」と言う。)が選択されたか否かの判定を
行い(ステップS12)、説明付加モードが選択された
と判定した場合、撮影された画像を表示する(ステップ
S13)。そして、CPU11は、マッチング処理の結
果に基づいて、山の名前等の情報を画像上の所定位置に
表示し(ステップS14)、所定の入力指示(いずれか
のキー入力操作等)が行われたか否かの判定を行う(ス
テップS15)。
Next, the CPU 11 determines whether or not a mode for adding the explanation of the terrain to the image (hereinafter referred to as "explanation addition mode") is selected on the menu screen (step S12), and adds the explanation. When it is determined that the mode is selected, the captured image is displayed (step S13). Then, the CPU 11 displays information such as the name of the mountain at a predetermined position on the image based on the result of the matching process (step S14), and a predetermined input instruction (any key input operation or the like) is performed. It is determined whether or not (step S15).

【0044】ステップS15において、所定の入力指示
が行われていないと判定した場合、CPU11は、ステ
ップS15の処理を繰り返し、所定の入力指示が行われ
たと判定した場合、CPU11は、ステップS5の処理
に移行する。また、ステップS12において、説明付加
モードが選択されていないと判定した場合、CPU11
は、撮影された画像に、合成された地形画像を加えて表
示するモード(以下、「画像合成モード」と言う。)が
選択されたか否かの判定を行う(ステップS16)。
If it is determined in step S15 that the predetermined input instruction has not been issued, the CPU 11 repeats the processing of step S15. If it is determined that the predetermined input instruction has been issued, the CPU 11 performs the processing of step S5. Move to. If it is determined in step S12 that the explanation addition mode is not selected, the CPU 11
Determines whether or not a mode in which a synthesized topographic image is added to a captured image and displayed (hereinafter referred to as "image synthesis mode") has been selected (step S16).

【0045】ステップS16において、画像合成モード
が選択されたと判定した場合、CPU11は、撮影され
た画像を表示し(ステップS17)、合成された地形画
像のエッジ部分を抽出して撮影された画像に重ねて表示
する(ステップS18)。そして、CPU11は、ステ
ップS15の処理に移行する。また、ステップS16に
おいて、画像合成モードが選択されていないと判定した
場合、合成された地形画像に基づき画像処理された強調
画像を表示する強調画像表示モードが選択されたことと
なり、CPU11は、強調画像を表示し(ステップS1
9)、ステップS15の処理に移行する。
When it is determined in step S16 that the image synthesizing mode is selected, the CPU 11 displays the photographed image (step S17) and extracts the edge portion of the synthesized terrain image to obtain the image photographed. The images are overlaid and displayed (step S18). Then, the CPU 11 shifts to the processing of step S15. If it is determined in step S16 that the image combining mode is not selected, it means that the emphasized image display mode for displaying the emphasized image that has been subjected to the image processing based on the combined topographic image is selected, and the CPU 11 causes the emphasizing Display the image (step S1
9) and shifts to the processing of step S15.

【0046】続いて、図7〜図10を参照し、図3に示
す情報提供処理のサブルーチンである各処理について説
明する。初めに、情報提供処理のステップS4において
実行される画像撮影処理について説明する。図7は、画
像撮影処理を示すフローチャートである。
Next, each processing which is a subroutine of the information providing processing shown in FIG. 3 will be described with reference to FIGS. First, the image capturing process executed in step S4 of the information providing process will be described. FIG. 7 is a flowchart showing the image capturing process.

【0047】画像撮影処理が開始されると、CPU11
は、CCDカメラ12によって被写体を撮影し(ステッ
プS101)、GPS機能部14によって撮影時の位置
(緯度、経度、高度)を測定する(ステップS10
2)。次いで、CPU11は、電子方位計16によって
撮影時の方向を検出し(ステップS103)、仰角セン
サ15によって撮影時の仰角を検出する(ステップS1
04)。
When the image photographing process is started, the CPU 11
Takes an image of an object with the CCD camera 12 (step S101), and measures the position (latitude, longitude, altitude) at the time of image taking with the GPS function unit 14 (step S10).
2). Next, the CPU 11 detects the shooting direction with the electronic azimuth meter 16 (step S103), and detects the shooting angle with the elevation angle sensor 15 (step S1).
04).

【0048】そして、CPU11は、情報提供処理のメ
インルーチンに戻る。次に、地形画像合成処理について
説明する。図8は、地形画像合成処理を示すフローチャ
ートである。地形画像合成処理が開始されると、CPU
11は、図11に示す地形データ(緯度・経度に対する
高度を示す2次元マトリクスデータ)を参照し地形の見
取り図を作成する(ステップS201)(図5参照)。
Then, the CPU 11 returns to the main routine of the information providing process. Next, the terrain image synthesis processing will be described. FIG. 8 is a flowchart showing the terrain image synthesis processing. When the terrain image synthesis processing is started, the CPU
The reference numeral 11 refers to the terrain data (two-dimensional matrix data indicating altitude with respect to latitude / longitude) shown in FIG. 11 to create a terrain sketch (step S201) (see FIG. 5).

【0049】次いで、CPU11は、作成した見取り図
から、山等の地形のエッジ部を抽出し(ステップS20
2)、情報提供処理のメインルーチンに戻る。図12
は、合成された地形画像においてエッジ検出が行われた
結果の画像を示す図である。次に、特徴抽出処理につい
て説明する。
Next, the CPU 11 extracts the edge portion of the terrain such as mountains from the created sketch (step S20).
2) Return to the main routine of the information providing process. 12
FIG. 8 is a diagram showing an image resulting from edge detection in the combined topographic image. Next, the feature extraction process will be described.

【0050】図9は、特徴抽出処理を示すフローチャー
トである。特徴抽出処理が開始されると、CPU11
は、撮影された画像に対し、画素データを走査すること
によりエッジ検出(図6参照)を行い(ステップS30
1)、情報提供処理のメインルーチンに戻る。次に、マ
ッチング処理について説明する。
FIG. 9 is a flowchart showing the feature extraction processing. When the feature extraction process is started, the CPU 11
Performs edge detection (see FIG. 6) on the photographed image by scanning pixel data (step S30).
1) Return to the main routine of the information providing process. Next, the matching process will be described.

【0051】図10は、マッチング処理を示すフローチ
ャートである。合成された地形画像と、撮影された画像
のアングルは、厳密に正確ではなく、ある程度の誤差を
含んでいる(図4および図5参照)。そのため、マッチ
ング処理は、合成された地形画像のエッジと、撮影され
た画像のエッジをマッチングすることにより、地形の説
明を表示する位置をより正確なものとする処理である。
FIG. 10 is a flowchart showing the matching process. The angles of the synthesized topographic image and the captured image are not strictly accurate and include some error (see FIGS. 4 and 5). Therefore, the matching process is a process for making the position of displaying the explanation of the terrain more accurate by matching the edge of the synthesized terrain image and the edge of the captured image.

【0052】マッチング処理が開始されると、CPU1
1は、撮影された画像のエッジと、合成された地形画像
のエッジとのパターンマッチングによるこれらの画像の
位置の整合を行い(ステップS401)、情報提供処理
のメインルーチンに戻る。これらの処理の結果、ユーザ
は、通常モードを選択した場合、図13に示すように、
撮影された実際の景観の画像を見ることができる。ま
た、ユーザは、説明付加モードを選択した場合、図14
に示すように、撮影された実際の景観の画像に対し、正
確な位置に、その地形の説明が表示された画像を見るこ
とができる。さらに、ユーザは、強調画像表示モードを
選択した場合、図15に示すように、撮影された画像に
画像処理が施された強調画像に対し、その地形の説明が
表示された画像を見ることができる。
When the matching process is started, the CPU 1
In step 1, the edges of the captured image and the edges of the synthesized topographic image are matched by pattern matching (step S401), and the process returns to the main routine of the information providing process. As a result of these processes, when the user selects the normal mode, as shown in FIG.
You can see the image of the actual landscape taken. In addition, when the user selects the explanation addition mode, FIG.
As shown in, it is possible to see an image in which an explanation of the topography is displayed at an accurate position with respect to the captured image of the actual landscape. Furthermore, when the user selects the emphasized image display mode, the user can see the image in which the explanation of the topography is displayed for the emphasized image obtained by performing the image processing on the captured image, as shown in FIG. it can.

【0053】なお、強調画像には、撮影された画像のう
ち、雲や霧で隠れた部分を補間する合成や、撮影された
画像を強調する処理(例えば、山はそのままで空を青く
する、背景を黒くする、星を鮮やかな色で表示する等)
が施されている。強調画像を表示することにより、雲や
霧で山の一部が隠れて見えない状況でも、ユーザは、本
来の山の姿を確認することができる。また、背景と見た
いものとの区別がつき難い場合(例えば、星と背景の夜
空、山と背景の青空等)にも、画像処理によってコント
ラストを高めるといった処理が可能であるため、ユーザ
は、目的物を確認しやすくなる。
In the emphasized image, a synthesis for interpolating a portion hidden by clouds or fog in the photographed image, or a process for emphasizing the photographed image (for example, the sky is blue while the mountains are the same, (The background is blackened, stars are displayed in bright colors, etc.)
Has been applied. By displaying the emphasized image, the user can confirm the original appearance of the mountain even when a part of the mountain is hidden by clouds or fog and cannot be seen. In addition, even when it is difficult to distinguish the background from what you want to see (for example, stars and background night sky, mountains and background blue sky, etc.), it is possible to increase the contrast by image processing. It becomes easier to confirm the target object.

【0054】以上のように、本発明を適用した電子双眼
鏡1は、撮影された被写体を、撮影時の位置情報および
方向と、景観データベースの情報とによって予測し、予
測した景観の画像と実際に撮影された景観の画像とをマ
ッチングすることにより、撮影された画像において、正
確な位置に、目的物の説明を表示することができる。し
たがって、ユーザは、詳しい情報を知りたいと考える目
的物を電子双眼鏡1で撮影することにより、画像内の各
目的物についての情報を容易かつ正確に知ることができ
る。
As described above, the electronic binoculars 1 to which the present invention is applied predicts a photographed subject based on the position information and direction at the time of photographing and the information of the landscape database, and actually predicts the image of the predicted landscape. By matching the captured image of the landscape with the captured image, the description of the target object can be displayed at an accurate position in the captured image. Therefore, the user can easily and accurately know the information about each target object in the image by shooting the target object whose detailed information is desired to be captured with the electronic binoculars 1.

【0055】また、電子双眼鏡1に用いられるセンサ等
の装置は、従来のものと同様の精度で十分であるため、
適切な情報を提供可能な電子双眼鏡を低コストで実現す
ることができる。なお、本発明において、景観として星
空を対象とする場合等、時間によって変動する目的物の
場合、リアルタイムクロック部13により現在時刻を取
得することで、上述のような機能が実現できる。
Since the devices such as the sensors used in the electronic binoculars 1 have the same accuracy as the conventional ones,
Electronic binoculars capable of providing appropriate information can be realized at low cost. In the present invention, in the case of a target object that changes with time, such as when a starry sky is targeted as a landscape, the above-described function can be realized by acquiring the current time with the real-time clock unit 13.

【0056】また、本発明は、電子双眼鏡としての形態
のほか、携帯情報端末装置の形態(図16参照)、単眼
式あるいは双眼式の望遠鏡の形態(電子望遠鏡)、顕微
鏡の形態(電子顕微鏡)、カメラの形態(電子カメラ)
といった形態が可能である。また、本実施の形態におい
ては、被写体の画像の撮影、地形画像の合成処理、被写
体の画像と合成された地形画像とのマッチング、景観に
関する情報の表示等の処理を全て電子双眼鏡1によって
行うこととして説明したが、電子双眼鏡1の機能を分割
してそれぞれ異なる装置により実現することも可能であ
る。例えば、被写体を撮影する機能および撮影時の場
所、方向、日時を取得する機能をデジタルカメラ等によ
り実現し、他の情報処理装置により、地形画像を合成す
る機能、その合成した地形画像と、デジタルカメラ等に
より撮影された画像と、撮影時の場所、方向、日時とに
基づいて、画像のマッチング、景観に関する情報の表示
等を行う機能を備えることも可能である。
In addition to the form of the electronic binoculars, the present invention forms the form of a portable information terminal device (see FIG. 16), the form of a monocular or binocular telescope (electronic telescope), and the form of a microscope (electron microscope). , Camera type (electronic camera)
Such a form is possible. Further, in the present embodiment, the electronic binoculars 1 perform all processing such as capturing an image of a subject, terrain image synthesizing processing, matching between the subject image and the synthesized terrain image, and displaying information related to the landscape. However, it is also possible to divide the functions of the electronic binoculars 1 and realize them by different devices. For example, a function of photographing a subject and a function of acquiring a place, direction, and date and time at the time of photographing are realized by a digital camera or the like, and a function of synthesizing a terrain image by another information processing device, the synthesized terrain image and It is also possible to provide a function of performing image matching, displaying information regarding a landscape, and the like based on an image captured by a camera or the like and a location, direction, date and time at the time of capturing.

【0057】[0057]

【発明の効果】本発明によれば、撮影された被写体を、
撮影時の場所および撮影の方向と、景観を擬似的に画像
化するための情報とによって予測(画像化)し、予測し
た景観の画像と実際に撮影された景観の画像とをマッチ
ングすることにより、撮影された画像において、正確な
位置に、景観内の目的物の説明を表示することができ
る。
According to the present invention, the photographed subject is
By predicting (imaging) with the location and direction of shooting and the information for pseudo-imaging the landscape, and matching the predicted landscape image with the actually captured landscape image , It is possible to display the description of the object in the landscape at the correct position in the captured image.

【0058】したがって、ユーザは、詳しい情報を知り
たいと考える目的物を撮影することにより、画像内の各
目的物についての情報を容易かつ正確に知ることができ
る。また、本発明において必要となるセンサ等の精度
は、従来のものと同様で十分であるため、低コストで適
切な情報を提供することができる。また、本発明によれ
ば、景観として星空を対象とする場合等、時間によって
変動する目的物の場合であっても、時間に関する情報を
取得することで、適切に情報を提供することができる。
Therefore, the user can easily and accurately know the information about each target object in the image by photographing the target object for which detailed information is desired. Further, since the accuracy of the sensor and the like required in the present invention is the same as that of the conventional one and is sufficient, it is possible to provide appropriate information at low cost. Further, according to the present invention, even in the case of a target object that changes with time, such as when a starry sky is targeted as a landscape, it is possible to appropriately provide information by acquiring information regarding time.

【図面の簡単な説明】[Brief description of drawings]

【図1】電子双眼鏡1の機能構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a functional configuration of electronic binoculars 1.

【図2】電子カメラ1の斜視図および断面図である。FIG. 2 is a perspective view and a cross-sectional view of the electronic camera 1.

【図3】CPU11が実行する情報提供処理を示すフロ
ーチャートである。
FIG. 3 is a flowchart showing an information providing process executed by a CPU 11.

【図4】撮影された被写体の画像を示す図である。FIG. 4 is a diagram showing an image of a photographed subject.

【図5】合成された地形の見取り図(地形画像)を示す
図である。
FIG. 5 is a diagram showing a sketch of a synthesized terrain (terrain image).

【図6】実際に撮影された画像においてエッジ検出が行
われた結果の画像を示す図である。
FIG. 6 is a diagram showing an image as a result of edge detection performed on an actually photographed image.

【図7】画像撮影処理を示すフローチャートである。FIG. 7 is a flowchart showing an image capturing process.

【図8】地形画像合成処理を示すフローチャートであ
る。
FIG. 8 is a flowchart showing a terrain image synthesizing process.

【図9】特徴抽出処理を示すフローチャートである。FIG. 9 is a flowchart showing a feature extraction process.

【図10】マッチング処理を示すフローチャートであ
る。
FIG. 10 is a flowchart showing a matching process.

【図11】緯度・経度に対する高度を示す2次元マトリ
クスデータを示す図である。
FIG. 11 is a diagram showing two-dimensional matrix data showing altitude with respect to latitude / longitude.

【図12】合成された地形画像においてエッジ検出が行
われた結果の画像を示す図である。
FIG. 12 is a diagram showing an image as a result of edge detection performed on a combined topographic image.

【図13】撮影された実際の景観の画像を示す図であ
る。
FIG. 13 is a diagram showing an image of an actually photographed landscape.

【図14】撮影された実際の景観の画像に対し、正確な
位置に、その地形の説明が表示された画像を示す図であ
る。
FIG. 14 is a diagram showing an image in which an explanation of the topography is displayed at an accurate position with respect to an image of an actual landscape taken.

【図15】撮影された画像に画像処理が施された強調画
像に対し、その地形の説明が表示された画像を示す図で
ある。
FIG. 15 is a diagram showing an image in which a description of the topography is displayed for an emphasized image obtained by performing image processing on a captured image.

【図16】携帯情報端末装置として本発明を実現した場
合の例を示す図である。
FIG. 16 is a diagram showing an example in which the present invention is realized as a mobile information terminal device.

【符号の説明】[Explanation of symbols]

1 電子双眼鏡 11 CPU 12 CCDカメラ 13 リアルタイムクロック部 14 GPS機能部 15 仰角センサ 16 電子方位計 17 RAM 18 フラッシュROM 19 プログラムROM 20 LCD 1 electronic binoculars 11 CPU 12 CCD camera 13 Real-time clock section 14 GPS function section 15 Elevation sensor 16 Electronic compass 17 RAM 18 Flash ROM 19 Program ROM 20 LCD

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B075 ND02 ND06 NK07 PQ32 PR06 UU40 5C022 AA00 AB62 AC01 AC13 AC69 CA00 5C053 FA09 FA14 GB12 HA30 JA16 KA05 KA22 KA24 LA01    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 5B075 ND02 ND06 NK07 PQ32 PR06                       UU40                 5C022 AA00 AB62 AC01 AC13 AC69                       CA00                 5C053 FA09 FA14 GB12 HA30 JA16                       KA05 KA22 KA24 LA01

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 景観に関連する所定の情報を格納する景
観情報格納手段を含み、該情報格納手段から表示対象で
ある情報を検索して提供する情報提供装置であって、 関連する所定の情報の表示対象である被写体を撮影する
撮影手段と、 被写体が撮影された場所に関する情報を取得する場所情
報取得手段と、 被写体が撮影された方向に関する情報を取得する方向情
報取得手段と、 景観を擬似的に画像化するための情報を格納する擬似景
観情報格納手段と、 前記撮影された場所と、前記撮影された方向と、前記擬
似景観情報格納手段に格納された情報とに基づいて、前
記撮影手段によって撮影された被写体の擬似的な画像を
生成する擬似景観生成手段と、 前記撮影手段によって撮影された被写体の画像と、前記
擬似景観生成手段によって生成された擬似的な画像とを
マッチングし、該被写体の画像と、該擬似的な画像との
対応関係に基づいて、前記撮影された画像の所定位置
に、景観に関連する所定の情報を表示する情報表示手段
と、 を含むことを特徴とする情報提供装置。
1. An information providing apparatus, comprising landscape information storage means for storing predetermined information related to a landscape, for searching and providing information to be displayed from the information storage means, the predetermined information being related , A location information acquisition unit that acquires information about the location where the subject was captured, a direction information acquisition unit that acquires information about the direction in which the subject was captured, and a simulated landscape. Based on the information stored in the pseudo landscape information storage means, the location where the image was captured, the direction in which the image was captured, and the information stored in the pseudo landscape information storage means. Pseudo landscape generating means for generating a pseudo image of the subject photographed by the means, an image of the subject photographed by the photographing means, and a pseudo landscape generating means A predetermined image related to the landscape is displayed at a predetermined position of the photographed image based on the correspondence between the image of the subject and the pseudo image. An information providing device comprising: an information display unit.
【請求項2】 被写体が撮影された時間に関する情報を
取得する時間情報取得手段をさらに含み、前記擬似景観
生成手段は、該時間に関する情報と、前記撮影された場
所と、前記撮影された方向と、前記擬似景観情報格納手
段に格納された情報とに基づいて、前記撮影手段によっ
て撮影された被写体の擬似的な画像を生成することを特
徴とする請求項1記載の情報提供装置。
2. The information processing apparatus further includes time information acquisition means for acquiring information about a time when the subject was photographed, wherein the pseudo landscape generation means includes information about the time, the place where the photograph was taken, and the direction where the photograph was taken. The information providing apparatus according to claim 1, wherein a pseudo image of the subject photographed by the photographing unit is generated based on the information stored in the pseudo landscape information storage unit.
【請求項3】 前記情報表示手段は、前記擬似景観生成
手段によって生成された被写体の擬似的な画像に基づい
て、前記撮影手段によって撮影された被写体の画像を補
正して表示することを特徴とする請求項1または2記載
の情報提供装置。
3. The information display means corrects and displays the image of the subject photographed by the photographing means on the basis of the pseudo image of the subject generated by the pseudo landscape generating means. The information providing device according to claim 1 or 2.
【請求項4】 前記情報表示手段は、前記被写体の画像
および前記擬似的な画像それぞれのエッジを抽出し、エ
ッジのパターンマッチングにより、前記被写体の画像と
前記擬似的な画像とのマッチングを行うことを特徴とす
る請求項1〜3のいずれかに記載の情報提供装置。
4. The information display means extracts edges of the image of the subject and the pseudo image, and performs pattern matching of the edges to perform matching between the image of the subject and the pseudo image. The information providing device according to any one of claims 1 to 3, characterized in that:
【請求項5】 前記景観に関連する所定の情報は、地形
に関連する情報を含み、前記擬似景観情報格納手段は、
地形図を画像化するための情報を格納することを特徴と
する請求項1〜4のいずれかに記載の情報提供装置。
5. The predetermined information related to the landscape includes information related to the terrain, and the pseudo landscape information storage means includes:
The information providing apparatus according to any one of claims 1 to 4, wherein information for imaging a topographic map is stored.
【請求項6】 前記景観に関連する所定の情報は、星空
に関連する情報を含み、前記擬似景観情報格納手段は、
星図を画像化するための情報を格納することを特徴とす
る請求項1〜4のいずれかに記載の情報提供装置。
6. The predetermined information related to the landscape includes information related to a starry sky, and the pseudo-scene information storage means,
The information providing device according to any one of claims 1 to 4, wherein information for imaging a star map is stored.
【請求項7】 双眼鏡の形態をなし、前記撮影手段を対
物側に設け、前記情報表示手段が前記撮影された画像お
よび景観に関連する所定の情報を表示する画像表示装置
を接眼側に設けたことを特徴とする請求項1〜6のいず
れかに記載の情報提供装置。
7. An image display device in the form of binoculars is provided on the objective side, and the information display means is provided on the eyepiece side for displaying predetermined information related to the photographed image and the landscape. The information providing device according to any one of claims 1 to 6, characterized in that:
【請求項8】 携帯情報端末装置の形態をなし、前記撮
影手段としてのカメラを設け、前記情報表示手段は、携
帯情報端末装置の表示機能部である画像表示装置に、前
記撮影された画像および景観に関連する所定の情報を表
示することを特徴とする請求項1〜6のいずれかに記載
の情報提供装置。
8. A portable information terminal device is provided, a camera is provided as the photographing means, and the information display means causes an image display device, which is a display function unit of the portable information terminal device, to display the photographed image and The information providing device according to any one of claims 1 to 6, wherein predetermined information related to the scenery is displayed.
【請求項9】 景観に関連する所定の情報を格納する景
観情報格納手段を含み、該情報格納手段から表示対象で
ある情報を検索して提供する情報提供装置における情報
提供方法であって、 景観を擬似的に画像化するための擬似景観情報を格納し
ておき、関連する所定の情報の表示対象である被写体を
撮影し、被写体が撮影された場所に関する情報と、被写
体が撮影された方向に関する情報とを取得し、前記撮影
された場所と、前記撮影された方向と、前記擬似景観情
報とに基づいて、前記撮影された被写体の擬似的な画像
を生成し、前記被写体の画像と、前記擬似的な画像とを
マッチングし、該被写体の画像と、該擬似的な画像との
対応関係に基づいて、前記撮影された画像の所定位置
に、景観に関連する所定の情報を表示することを特徴と
する情報提供方法。
9. An information providing method in an information providing apparatus which includes landscape information storage means for storing predetermined information related to a landscape, and which retrieves and provides information to be displayed from the information storage means. Pseudo landscape information for pseudo-imaging is stored, a subject that is a display target of related predetermined information is photographed, and information regarding a place where the subject is photographed and a direction where the subject is photographed are stored. Information is acquired, a pseudo image of the photographed subject is generated based on the photographed place, the photographed direction, and the pseudo landscape information, and the image of the subject and the Matching a pseudo image, and displaying predetermined information related to a landscape at a predetermined position of the photographed image based on the correspondence between the image of the subject and the pseudo image. Features and Information provided how.
【請求項10】 被写体が撮影された時間に関する情報
をさらに取得し、該時間に関する情報と、前記撮影され
た場所と、前記撮影された方向と、前記擬似景観情報と
に基づいて、前記撮影された被写体の擬似的な画像を生
成することを特徴とする請求項9記載の情報提供方法。
10. The image pickup device further obtains information on a time when the subject was photographed, and based on the information on the time, the photographed place, the photographed direction, and the pseudo landscape information. The information providing method according to claim 9, wherein a pseudo image of the subject is generated.
【請求項11】 前記生成された被写体の擬似的な画像
に基づいて、前記撮影された被写体の画像を補正して表
示することを特徴とする請求項9または10記載の情報
提供方法。
11. The information providing method according to claim 9, wherein the captured image of the subject is corrected and displayed based on the generated pseudo image of the subject.
【請求項12】 前記被写体の画像および前記擬似的な
画像それぞれのエッジを抽出し、エッジのパターンマッ
チングにより、前記被写体の画像と前記擬似的な画像と
のマッチングを行うことを特徴とする請求項9〜11の
いずれかに記載の情報提供方法。
12. The edge of each of the image of the subject and the pseudo image is extracted, and the pattern of the edge is matched to perform the matching between the image of the subject and the pseudo image. The information providing method according to any one of 9 to 11.
【請求項13】 前記景観に関連する所定の情報は、地
形に関連する情報を含み、前記擬似景観情報として、地
形図を画像化するための情報を格納することを特徴とす
る請求項9〜12のいずれかに記載の情報提供方法。
13. The predetermined information related to the landscape includes information related to the terrain, and the information for imaging the topographic map is stored as the pseudo landscape information. 12. The information providing method according to any one of 12.
【請求項14】 前記景観に関連する所定の情報は、星
空に関連する情報を含み、前記擬似景観情報として、星
図を画像化するための情報を格納することを特徴とする
請求項9〜12のいずれかに記載の情報提供方法。
14. The predetermined information related to the landscape includes information related to a starry sky, and information for imaging a star map is stored as the pseudo landscape information. The information provision method described in any of the above.
【請求項15】 前記情報提供装置は双眼鏡の形態をな
し、対物側で被写体を撮影し、前記撮影された画像およ
び景観に関連する所定の情報を接眼側で表示することを
特徴とする請求項9〜14のいずれかに記載の情報提供
方法。
15. The information providing device is in the form of binoculars, photographs a subject on the object side, and displays predetermined information related to the photographed image and landscape on the eyepiece side. The information providing method according to any one of 9 to 14.
【請求項16】 前記情報提供装置は携帯情報端末装置
の形態をなし、備えられたカメラにより被写体を撮影
し、携帯情報端末の表示機能部である画像表示装置に、
前記撮影された画像および景観に関連する所定の情報を
表示することを特徴とする請求項9〜14のいずれかに
記載の情報提供方法。
16. The information providing device is in the form of a mobile information terminal device, an object is photographed by a camera provided, and an image display device, which is a display function unit of the mobile information terminal, is provided.
15. The information providing method according to claim 9, wherein predetermined information related to the photographed image and the landscape is displayed.
【請求項17】 景観に関連する所定の情報を格納する
景観情報格納手段を含み、該情報格納手段から表示対象
である情報を検索して提供する情報提供装置のための情
報処理プログラムであって、 関連する所定の情報の表示対象である被写体が撮影され
た場所に関する情報と、該被写体が撮影された方向に関
する情報と、景観を擬似的に画像化するための情報とに
基づいて、該被写体の擬似的な画像を生成する擬似景観
生成機能と、 該被写体の画像と、該被写体の擬似的な画像とをマッチ
ングし、その対応関係に基づいて、該被写体の画像の所
定位置に、景観に関連する所定の情報を表示する情報表
示機能と、 を実現させることを特徴とする情報処理プログラム。
17. An information processing program for an information providing device, comprising landscape information storage means for storing predetermined information relating to a landscape, for searching and providing information to be displayed from the information storage means. , Based on information about a place where a subject, which is a display target of related predetermined information, is photographed, information about a direction in which the subject is photographed, and information for pseudo-imaging a landscape A pseudo-scene generation function for generating a pseudo-image of the subject, the image of the subject is matched with the pseudo-image of the subject, and based on the corresponding relationship, a landscape is created at a predetermined position of the image of the subject. An information processing program that realizes an information display function of displaying related predetermined information.
【請求項18】 前記擬似景観生成機能は、被写体が撮
影された時間に関する情報と、前記撮影された場所と、
前記撮影された方向と、前記景観を擬似的に画像化する
ための情報とに基づいて、前記被写体の擬似的な画像を
生成することを特徴とする請求項17記載の情報処理プ
ログラム。
18. The pseudo-scene generation function includes information about a time when a subject is photographed, a place where the subject is photographed,
18. The information processing program according to claim 17, wherein the pseudo image of the subject is generated based on the shooting direction and information for pseudo imaging the landscape.
【請求項19】 前記情報表示機能は、前記擬似景観生
成機能によって生成された被写体の擬似的な画像に基づ
いて、前記被写体の画像を補正して表示することを特徴
とする請求項17または18記載の情報処理プログラ
ム。
19. The information display function corrects and displays the image of the subject based on the pseudo image of the subject generated by the pseudo landscape generation function. Information processing program described.
【請求項20】 前記情報表示機能は、前記被写体の画
像および前記擬似的な画像それぞれのエッジを抽出し、
エッジのパターンマッチングにより、前記被写体の画像
と前記擬似的な画像とのマッチングを行うことを特徴と
する請求項17〜19のいずれかに記載の情報処理プロ
グラム。
20. The information display function extracts an edge of each of the image of the subject and the pseudo image,
The information processing program according to any one of claims 17 to 19, wherein the image of the subject and the pseudo image are matched by edge pattern matching.
【請求項21】 前記景観に関連する所定の情報は、地
形に関連する情報を含み、前記景観を擬似的に画像化す
るための情報は、地形図を画像化するための情報である
ことを特徴とする請求項17〜20のいずれかに記載の
情報処理プログラム。
21. The predetermined information related to the landscape includes information related to topography, and the information for pseudo-imaging the landscape is information for imaging a topographic map. The information processing program according to any one of claims 17 to 20, which is characterized in that.
【請求項22】 前記景観に関連する所定の情報は、星
空に関連する情報を含み、前記景観を擬似的に画像化す
るための情報は、星図を画像化するための情報であるこ
とを特徴とする請求項17〜20のいずれかに記載の情
報処理プログラム。
22. The predetermined information related to the landscape includes information related to a starry sky, and the information for pseudo-imaging the landscape is information for imaging a star map. The information processing program according to any one of claims 17 to 20.
JP2002097294A 2002-03-29 2002-03-29 Information providing device, information providing method and information processing program Withdrawn JP2003296329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002097294A JP2003296329A (en) 2002-03-29 2002-03-29 Information providing device, information providing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002097294A JP2003296329A (en) 2002-03-29 2002-03-29 Information providing device, information providing method and information processing program

Publications (1)

Publication Number Publication Date
JP2003296329A true JP2003296329A (en) 2003-10-17

Family

ID=29387668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002097294A Withdrawn JP2003296329A (en) 2002-03-29 2002-03-29 Information providing device, information providing method and information processing program

Country Status (1)

Country Link
JP (1) JP2003296329A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020166A (en) * 2004-07-02 2006-01-19 Fuji Photo Film Co Ltd Map display system and digital camera
JP2007018456A (en) * 2005-07-11 2007-01-25 Nikon Corp Information display device and information display method
JP2007251700A (en) * 2006-03-17 2007-09-27 Casio Comput Co Ltd Digital camera and image processing program
WO2010150643A1 (en) * 2009-06-22 2010-12-29 兵庫県 Information system, server device, terminal device, information-processing method, and program
CN105025227A (en) * 2015-07-10 2015-11-04 深圳市金立通信设备有限公司 Image processing method and terminal
CN105516607A (en) * 2016-01-26 2016-04-20 北京小米移动软件有限公司 Recommendation method and device for shooting parameters and equipment
JP2016208096A (en) * 2015-04-15 2016-12-08 キヤノン株式会社 Information processing device, information processing method, and image transfer system
JP2019149183A (en) * 2009-02-20 2019-09-05 株式会社ニコン Portable terminal, information acquisition system, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020166A (en) * 2004-07-02 2006-01-19 Fuji Photo Film Co Ltd Map display system and digital camera
JP2007018456A (en) * 2005-07-11 2007-01-25 Nikon Corp Information display device and information display method
JP2007251700A (en) * 2006-03-17 2007-09-27 Casio Comput Co Ltd Digital camera and image processing program
JP4631760B2 (en) * 2006-03-17 2011-02-16 カシオ計算機株式会社 Digital camera, image processing method and program
US7961241B2 (en) 2006-03-17 2011-06-14 Casio Computer Co., Ltd. Image correcting apparatus, picked-up image correcting method, and computer readable recording medium
JP2019149183A (en) * 2009-02-20 2019-09-05 株式会社ニコン Portable terminal, information acquisition system, and program
WO2010150643A1 (en) * 2009-06-22 2010-12-29 兵庫県 Information system, server device, terminal device, information-processing method, and program
JP5357966B2 (en) * 2009-06-22 2013-12-04 株式会社 ミックウェア Information system, server device, terminal device, information processing method, and program
JP2016208096A (en) * 2015-04-15 2016-12-08 キヤノン株式会社 Information processing device, information processing method, and image transfer system
CN105025227A (en) * 2015-07-10 2015-11-04 深圳市金立通信设备有限公司 Image processing method and terminal
CN105516607A (en) * 2016-01-26 2016-04-20 北京小米移动软件有限公司 Recommendation method and device for shooting parameters and equipment
CN105516607B (en) * 2016-01-26 2019-05-21 北京小米移动软件有限公司 The recommended method of acquisition parameters, apparatus and system

Similar Documents

Publication Publication Date Title
US10578452B2 (en) Method and apparatus for providing service using a sensor and image recognition in a portable terminal
KR101885356B1 (en) Apparatus for determining position information of object and method thereof
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
JP2009210875A (en) Celestial body observation apparatus
JP4775205B2 (en) Imaging apparatus, imaging method, and program
JP5738657B2 (en) Imaging device
WO2005124594A1 (en) Automatic, real-time, superimposed labeling of points and objects of interest within a view
JP2007017406A (en) Geographic data collection device
US8339477B2 (en) Digital camera capable of detecting name of captured landmark and method thereof
EP2733675A1 (en) Object display device, object display method, and object display program
JP5812509B2 (en) Map display device, map display method and program
JP2003296329A (en) Information providing device, information providing method and information processing program
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
CN108492334A (en) A method of realizing commercial camera photo geographical calibration based on positioning and directing data
WO2018214401A1 (en) Mobile platform, flying object, support apparatus, portable terminal, method for assisting in photography, program and recording medium
JP4468794B2 (en) Display control apparatus, camera, and display control method
JP6532370B2 (en) Imaging system, composition setting device, and composition setting program
JP5649842B2 (en) Information providing apparatus, information providing method, and program
JP2003244488A (en) Image information adding apparatus and system
JP5115375B2 (en) Image display device and electronic camera
JP4037274B2 (en) Optical device with digital camera function and recording medium thereof
CN112887619A (en) Shooting method and device and electronic equipment
JP2012227717A (en) Display device, display program, and display method
JP2008011346A (en) Imaging system
JP2011193170A (en) Imaged image display device, imaged image display method, and electronic map output by the same

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607