JP5718264B2 - Map survey device, map survey method, and map survey program - Google Patents

Map survey device, map survey method, and map survey program Download PDF

Info

Publication number
JP5718264B2
JP5718264B2 JP2012064666A JP2012064666A JP5718264B2 JP 5718264 B2 JP5718264 B2 JP 5718264B2 JP 2012064666 A JP2012064666 A JP 2012064666A JP 2012064666 A JP2012064666 A JP 2012064666A JP 5718264 B2 JP5718264 B2 JP 5718264B2
Authority
JP
Japan
Prior art keywords
information
map
image
survey
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012064666A
Other languages
Japanese (ja)
Other versions
JP2013195863A (en
Inventor
光昭 小関
光昭 小関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Datacom Co Ltd
Original Assignee
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Datacom Co Ltd filed Critical Zenrin Datacom Co Ltd
Priority to JP2012064666A priority Critical patent/JP5718264B2/en
Publication of JP2013195863A publication Critical patent/JP2013195863A/en
Application granted granted Critical
Publication of JP5718264B2 publication Critical patent/JP5718264B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

この発明は、例えば、住宅地図調査において、調査内容をできるだけ人の手を煩わせることなく電子化して把握できるようにする装置、方法、プログラムに関する。   The present invention relates to, for example, an apparatus, method, and program for making it possible to digitize and grasp the contents of a survey in a house map survey with as little trouble as possible.

詳細で正確な住宅地図が提供されるようになり、様々なところで活用されている。住宅地図は、できるだけ最新の情報が反映されていることが好ましく、適切なタイミングで再調査を行って地図情報を更新して行くことが重要になる。通常、地図の再調査は、印刷した前回調査時の地図(前回調査を反映させた直近の地図)に基づいて、調査員が1軒1軒確認しながら前回と異なる部分(差異部分)を探し出し、当該差異部分についての情報を当該地図に手書きで記入することにより行われる。そして、地図の制作部門では、再調査結果が手書きで記入された地図を原稿とし、当該原稿の記入事項にしたがって、地図原本を更新する処理を行う。   Detailed and accurate housing maps are now provided and used in various places. It is preferable that the latest information is reflected on the house map as much as possible, and it is important to re-investigate and update the map information at an appropriate timing. Usually, the re-investigation of the map is based on the printed map at the time of the previous survey (the most recent map reflecting the previous survey), and the investigator finds a different part (difference part) from the previous one while checking each house. This is done by manually writing information on the difference portion on the map. In the map production department, a map on which the re-survey result is handwritten is used as a manuscript, and the original map is updated in accordance with the items entered in the manuscript.

このように地図の再調査は紙ベースで行われており、調査結果の記入をはじめ、調査結果の検査や入力も全て人力に依っている。このため地図の再調査は手間がかかるという問題がある。また、上述したように前回と異なる部分は調査員が前回調査時の地図に基づいて1軒1軒確認しながら探し出している。このため、調査員の負荷が大きい。前者の問題については、携帯型の情報処理装置を利用することが考えられる。また、後者の問題については、後に記す特許文献1に記載の発明のように、調査地の画像データを撮影位置と撮影方向とに対応付けて記憶しておき、次回の調査時において調査員が前回の調査時に撮影した画像と現在の状況とを比較し、建物などが変わっている部分を特定して、その部分を調査の対象とすることが考えられる。   In this way, the map is re-investigated on a paper basis. In addition to entering the survey results, all inspections and input of the survey results depend on human power. For this reason, there is a problem that re-investigation of the map takes time. In addition, as described above, the investigator searches for different parts from the previous time while checking each house based on the map at the previous time. For this reason, the burden on investigators is large. Regarding the former problem, it is conceivable to use a portable information processing apparatus. As for the latter problem, as in the invention described in Patent Document 1 described later, the image data of the survey location is stored in association with the shooting position and the shooting direction, and the investigator It is conceivable that an image taken at the previous survey is compared with the current situation, a portion where a building or the like has changed is identified, and that portion is the subject of the survey.

特開平09−200666号公報Japanese Patent Application Laid-Open No. 09-200366

しかしながら、上述した特許文献1に記載の技術を利用し、前回の調査時に撮影した過去の画像と、当該過去の画像を撮影したときと同じ位置で同じ方向を見た場合の状況(画像)とで形状が異なる部分が分かっても、地図調査には有効でない場合も多い。例えば、建物の形状が変わっていても、居住者は変わらずに、単に建物を建替え、改築、増築したにすぎないといった場合も多い。逆に、建物の形状は変わらないのに、居住者が変わっているということはよくあり、このような居住者の変化を調べることが地図の再調査における重要事項の1つである。   However, using the technique described in Patent Document 1 described above, a past image captured at the time of the previous survey, and a situation (image) when viewing the same direction at the same position as when the past image was captured, In many cases, however, it is not effective for map surveys even if parts with different shapes are known. For example, even if the shape of the building has changed, there are many cases in which the resident has not changed, but has simply been rebuilt, renovated, or expanded. On the contrary, it is often the case that the occupants have changed even though the shape of the building has not changed, and examining such changes in the occupants is one of the important matters in the review of the map.

以上の点に鑑み、この発明は、例えば、住宅地図調査において、調査内容をできるだけ人の手を煩わせることなく電子化して把握すると共に、調査員を強力に支援することを目的とする。   In view of the above points, an object of the present invention is to, for example, digitize and grasp as much as possible the contents of a survey in a house map survey, and to strongly support the investigator.

上記課題を解決するため、請求項1に記載の発明の地図調査装置は、
地図の調査地において撮影され、撮影位置と撮影方向とが対応付けられた新たな画像情報を解析し、当該新たな画像情報に含まれる文字情報を当該画像上の位置と共に抽出する抽出手段と、
撮影位置と撮影方向とが同じである過去の画像情報が存在する場合に、前記新たな画像情報から抽出された前記文字情報と当該過去の画像情報を解析することにより抽出された文字情報との内容及び画像上の位置とを比較する比較手段と、
比較の結果判明した差異部分を表示手段に表示する表示処理手段と、
前記差異部分の選択入力を受け付ける選択入力受付手段と、
選択された差異部分についての変更情報の入力を受け付ける変更情報受付手段と、
前記変更情報を変更箇所の位置情報に対応付けて、記録媒体に記録する記録手段と
を備えることを特徴とする。
In order to solve the above-mentioned problem, the map survey device according to the first aspect of the present invention provides:
Extraction means for analyzing new image information captured at a map survey location and associated with a shooting position and a shooting direction, and extracting character information included in the new image information together with a position on the image;
When past image information having the same shooting position and shooting direction exists, the character information extracted from the new image information and the character information extracted by analyzing the past image information A comparison means for comparing content and position on the image;
Display processing means for displaying the difference part found as a result of the comparison on the display means;
Selection input receiving means for receiving a selection input of the difference portion;
Change information receiving means for receiving input of change information for the selected difference portion;
And recording means for recording the change information in a recording medium in association with the position information of the changed portion.

この請求項1に記載の発明の地図調査装置によれば、地図の調査地において撮影され、撮影位置と撮影方向とが対応付けられた新たな画像情報を抽出手段が解析し、当該画像情報に含まれる文字情報を当該画像上の位置と共に抽出する。当該新たな画像情報と撮影位置と撮影方向とが同じである過去の画像情報が存在する場合に、当該新たな画像情報から抽出された文字情報と当該過去の画像情報を解析することにより抽出された文字情報との内容及び画像上の表示位置とを比較手段が比較する。   According to the map survey apparatus of the first aspect of the present invention, the extraction means analyzes new image information that is photographed at a map survey location and is associated with a photographing position and a photographing direction, and the image information is included in the image information. The included character information is extracted together with the position on the image. When there is past image information in which the new image information, the shooting position, and the shooting direction are the same, the new image information is extracted by analyzing the character information extracted from the new image information and the past image information. The comparison means compares the content of the character information and the display position on the image.

この結果、両者で差異のある部分(差異部分)が特定され、表示処理手段が当該差異部分を表示手段に表示する。この後、選択入力受付手段を通じて、差異部分の選択入力を受け付け、この選択された差異部分についての変更情報を、変更情報受付手段を通じて受け付ける。受け付けた変更情報は、変更箇所の位置情報に対応付けて記録手段が記録媒体に記録する。   As a result, a portion (difference portion) that is different between the two is specified, and the display processing means displays the difference portion on the display means. Thereafter, the selection input of the difference portion is received through the selection input receiving means, and the change information about the selected difference portion is received through the change information receiving means. The received change information is recorded on the recording medium by the recording means in association with the position information of the changed portion.

これにより、地図調査における変更情報を電子データとして取得して記憶保持できる。また、同じ撮影位置、同じ撮影方向で撮影された新旧の画像に含まれる文字情報の差異に基づいて、調査すべき場所を調査員に示すことができ、調査員を強力に支援(アシスト)できる。   Thereby, the change information in the map survey can be acquired and stored as electronic data. In addition, based on the difference between the text information contained in the old and new images taken at the same shooting position and the same shooting direction, it is possible to show the investigator where to investigate, and can strongly assist (assist) the investigator. .

この発明によれば、例えば、住宅地図調査において、調査内容をできるだけ人の手を煩わせることなく電子化して把握できる。また、画像に含まれる文字情報に着目した変更箇所の提示により、地図調査を行う調査員を強力に支援できる。   According to the present invention, for example, in a house map survey, it is possible to grasp the contents of the survey by digitizing it with as little trouble as possible. Moreover, the researcher who performs a map survey can be supported strongly by the presentation of the changed part which paid its attention to the character information contained in an image.

実施の形態の地図調査装置1の構成例を説明するためのブロック図である。It is a block diagram for demonstrating the structural example of the map investigation apparatus 1 of embodiment. 過去画像データベース132の格納データの例を説明するための図である。It is a figure for demonstrating the example of the storage data of the past image database. 変更情報ファイル133の格納データの例を説明するための図である。6 is a diagram for explaining an example of data stored in a change information file 133. FIG. 地図調査装置1で行われる地図調査支援処理について説明するためのフローチャートである。It is a flowchart for demonstrating the map investigation assistance process performed with the map investigation apparatus. 図4に続くフローチャートである。It is a flowchart following FIG. 表示部123に表示される表示画像等の表示例を示す図である。6 is a diagram illustrating a display example of a display image displayed on the display unit 123. FIG. 表示部123に表示される表示画像等の表示例を示す図である。6 is a diagram illustrating a display example of a display image displayed on the display unit 123. FIG. 表示部123に表示される表示画像等の表示例を示す図である。6 is a diagram illustrating a display example of a display image displayed on the display unit 123. FIG. 表示部123に表示される表示画像等の表示例を示す図である。6 is a diagram illustrating a display example of a display image displayed on the display unit 123. FIG. 表示部123に表示される表示画像等の表示例を示す図である。6 is a diagram illustrating a display example of a display image displayed on the display unit 123. FIG. 表示部123に表示される表示画像等の表示例を示す図である。6 is a diagram illustrating a display example of a display image displayed on the display unit 123. FIG.

以下、図を参照しながら、この発明の装置、方法、プログラムの一実施の形態について説明する。なお、この発明は、世界各国で実施される地図調査において同様に実施可能なものである。しかし、以下においては説明を簡単にするため、日本国内で地図調査を行う場合を例にして説明する。   Hereinafter, embodiments of the apparatus, method, and program of the present invention will be described with reference to the drawings. The present invention can be similarly implemented in map surveys carried out in various countries around the world. However, in the following, for the sake of simplicity, a case where a map survey is performed in Japan will be described as an example.

[地図調査装置1の構成例]
図1は、この実施の形態の地図調査装置1の構成例を説明するためのブロック図である。この実施の形態の地図調査装置1は、タブレット型PCあるいはパッド型情報端末などと呼ばれる携帯型情報端末として実現される。なお、「PC」との文言は、パーソナルコンピュータの略称である。まず、地図調査装置1を構成する各部について説明する。
[Configuration Example of Map Survey Device 1]
FIG. 1 is a block diagram for explaining a configuration example of the map survey device 1 of this embodiment. The map survey device 1 of this embodiment is realized as a portable information terminal called a tablet PC or a pad type information terminal. The term “PC” is an abbreviation for personal computer. First, each part which comprises the map investigation apparatus 1 is demonstrated.

[地図調査装置1の基本構成部分について]
制御部100は、地図調査装置1の各部を制御するものであり、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103がCPUバス104を通じて接続されたコンピュータ装置である。記憶装置110は、記録媒体としてハードディスクあるいは不揮発性メモリを備え、種々のアプリケーションプログラムや種々の処理により得られたデータ等の当該記録媒体への書込み/記録保持/読み出し/削除を行う。なお、記憶装置110の記録媒体には、画像認識により文字情報を抽出する場合に用いる文字データ等の情報も記憶されている。
[Basic components of the map survey device 1]
The control unit 100 controls each unit of the map survey apparatus 1, and is a computer in which a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 are connected through a CPU bus 104. Device. The storage device 110 includes a hard disk or a non-volatile memory as a recording medium, and performs writing / recording holding / reading / deleting various application programs and data obtained by various processes to the recording medium. The recording medium of the storage device 110 also stores information such as character data used when character information is extracted by image recognition.

送受信アンテナ111、無線通信部112は、携帯電話網やインターネットなどの広域ネットワークを通じて通信を行う機能を実現する。すなわち、無線通信部112は、インターネットに接続し、インターネットを通じてのデータの送受信を可能にし、電子メールの送受信やインターネット上に開示されたWebページの閲覧等を可能にする。時間制御部120は、現在年月日、現在曜日、現在時刻を管理する。   The transmission / reception antenna 111 and the wireless communication unit 112 realize a function of performing communication through a wide area network such as a mobile phone network or the Internet. That is, the wireless communication unit 112 connects to the Internet, enables transmission / reception of data through the Internet, enables transmission / reception of electronic mail, browsing of Web pages disclosed on the Internet, and the like. The time control unit 120 manages the current date, current day, and current time.

キー操作部121は、地図調査装置1に設けられたハードウェアキーからなり、ユーザーからの操作入力を受け付ける。表示処理部122と表示部123とは、種々の映像(画像)や表示メッセージなどの表示情報を表示するためのものである。タッチパネル124は、表示部123の表示画面に貼付され、ユーザーの指等の指示体による接触位置(接触座標)を検出し、これを制御部100に通知する。したがって、タッチパネル124は、制御部100によって表示位置が制御される表示部123の表示画面に表示される表示情報と共に入力インターフェースを構成する。音声出力部125とスピーカ126とは、種々の音声情報を出力するためのものである。   The key operation unit 121 includes hardware keys provided in the map survey device 1 and accepts an operation input from a user. The display processing unit 122 and the display unit 123 are for displaying display information such as various videos (images) and display messages. The touch panel 124 is affixed to the display screen of the display unit 123, detects a contact position (contact coordinates) by an indicator such as a user's finger, and notifies the control unit 100 of this. Therefore, the touch panel 124 constitutes an input interface together with display information displayed on the display screen of the display unit 123 whose display position is controlled by the control unit 100. The audio output unit 125 and the speaker 126 are for outputting various audio information.

カメラ部127は、撮像レンズ、撮像素子、カメラ信号処理回路などを備え、被写体の映像を撮影し、これをデジタル信号の映像(画像)データとして取り込む機能を有する。なお、撮影時においては、カメラ部127を通じて取り込まれた映像データは、制御部100を通じて表示処理部122に供給にされる。表示処理部122は、これに供給された映像データから表示部123に供給する映像信号を形成し、これを表示部123に供給する。これにより、カメラ部127が捉えている映像が表示部123に表示され、ユーザーは表示部123の表示画像を確認しながら撮影が行える。なお、カメラ部127を通じては、静止画像と動画像のいずれをも撮影可能である。しかし、この実施の形態においては、説明を簡単にするため、例えば地図の調査地においては、静止画像を撮影する場合を例にして説明する。   The camera unit 127 includes an imaging lens, an imaging device, a camera signal processing circuit, and the like, and has a function of capturing an image of a subject and capturing the image as video (image) data of a digital signal. At the time of shooting, the video data captured through the camera unit 127 is supplied to the display processing unit 122 through the control unit 100. The display processing unit 122 forms a video signal to be supplied to the display unit 123 from the video data supplied thereto, and supplies this to the display unit 123. Thus, the video captured by the camera unit 127 is displayed on the display unit 123, and the user can take a picture while confirming the display image on the display unit 123. Note that both a still image and a moving image can be taken through the camera unit 127. However, in this embodiment, in order to simplify the description, for example, a case where a still image is taken in a map survey area will be described.

マイクロホン128および音声入力部129は、例えば、カメラ部127を通じた動画像の撮影時などにおいて、音声を収音し、これをデジタル信号として取り込む機能を有する。そして、キー操作部121やタッチパネル124を通じて、映像の記録指示(録画指示)が入力された場合には、カメラ部127を通じて取り込まれた映像データと、マイクロホン128および音声入力部129を通じて取り込まれた音声データとは、例えば、記憶装置110の記録媒体に記録(録画、録音)できる。   The microphone 128 and the sound input unit 129 have a function of collecting sound and capturing it as a digital signal, for example, when capturing a moving image through the camera unit 127. When a video recording instruction (recording instruction) is input through the key operation unit 121 or the touch panel 124, video data captured through the camera unit 127 and audio captured through the microphone 128 and the audio input unit 129 are displayed. For example, the data can be recorded (recorded or recorded) on a recording medium of the storage device 110.

地図データベース(以下、地図DBと記載する。)131は、例えば、ハードディスクや不揮発性メモリなどの大容量記録媒体に作成され、少なくとも調査対象地域の前回調査時の地図情報(前回調査を反映させた直近の地図情報)を記憶保持する。当該地図情報は、1軒1軒の住宅やビルディングをはじめ、種々の建物、ランドマーク、施設、行政区域、道路等の位置や大きさなどを正確に表すことができるものである。そして、地図DB131は、地図を描画するための例えばベクトルデータやラスタデータ等の地図データ(地図用の描画データ)を緯度・経度情報に対応付けて記憶保持している。また、地図DB131は、地図上に表示する注記データについても、緯度・経度情報に対応付けて記憶保持している。当該注記データは後述する拡張現実(Augmented Reality)技術を用いて表示映像中にガイド表示を行う場合の情報としても利用できる。   A map database (hereinafter referred to as a map DB) 131 is created on a large-capacity recording medium such as a hard disk or a non-volatile memory, for example, and at least the map information at the time of the previous survey in the survey area (reflecting the previous survey) The latest map information) is stored and held. The map information can accurately represent the positions and sizes of various houses, buildings, landmarks, facilities, administrative districts, roads, etc. as well as one house or building. The map DB 131 stores map data (map drawing data) such as vector data and raster data for drawing a map in association with latitude / longitude information. The map DB 131 also stores and holds note data displayed on the map in association with latitude / longitude information. The annotation data can also be used as information when a guide display is performed in a display image using augmented reality technology described later.

過去画像データベース(以下、過去画像DBと記載する。)132は、例えば、ハードディスクや不揮発性メモリなどの大容量記録媒体に作成され、地図の調査地において、カメラ部127を通じて撮像することにより得られた静止画像の画像データ(画像情報)を記憶保持する。図2は、過去画像DB132に例えばファイル形式で格納される格納データ(画像データファイル)の例を説明するための図である。図2に示すように、過去画像DB132に格納される格納データは、ファイル名、撮影日時、撮影位置、撮影方向、その他の撮影情報、画像データ、表示位置、認識した文字情報を有する。   The past image database (hereinafter referred to as past image DB) 132 is created on, for example, a large-capacity recording medium such as a hard disk or a non-volatile memory, and is obtained by taking an image through the camera unit 127 at a map survey site. The image data (image information) of the still image is stored and held. FIG. 2 is a diagram for explaining an example of stored data (image data file) stored in the past image DB 132 in a file format, for example. As shown in FIG. 2, the stored data stored in the past image DB 132 includes a file name, shooting date / time, shooting position, shooting direction, other shooting information, image data, display position, and recognized character information.

図2において、ファイル名は、当該格納データの形成時に地図調査装置1において自動的生成されて付与されるものである。撮影日時は、撮影時に取得され、撮影した日時を特定する情報である。撮影位置は、撮影時に取得され、撮影した位置(場所)を特定する情報である。撮影方向は、撮影時に取得され、撮影した方向を特定する情報である。なお、撮影日時は時間制御部120から取得され、撮影位置は後述するGPS部142等から取得可能であり、また、撮影方向は後述するセンサ部141の方位センサから取得可能な情報である。その他の撮影情報は、撮影時に取得可能な種々の撮影情報であり、例えば、Exif(Exchangeable Image File Format)に準拠した種々のメタデータである。また、画像データは、撮影することにより得られた被写体画像を形成するデジタルデータであり、カメラ部127を通じて取り込まれる情報である。   In FIG. 2, the file name is automatically generated and assigned by the map surveying apparatus 1 when the stored data is formed. The shooting date and time is information that is acquired at the time of shooting and specifies the shooting date and time. The shooting position is information that is acquired at the time of shooting and identifies the shooting position (location). The shooting direction is information that is acquired at the time of shooting and specifies the shooting direction. The shooting date and time is acquired from the time control unit 120, the shooting position can be acquired from the GPS unit 142 and the like described later, and the shooting direction is information that can be acquired from the direction sensor of the sensor unit 141 and described later. The other shooting information is various shooting information that can be acquired at the time of shooting, and is, for example, various metadata that conforms to Exif (Exchangeable Image File Format). The image data is digital data for forming a subject image obtained by photographing, and is information captured through the camera unit 127.

そして、図2において、表示位置および認識した文字情報は、詳しくは後述するが、撮影することにより得られた画像データを解析(画像認識処理)することにより得られる情報である。このうち、認識した文字情報は、当該画像データによって形成される画像に含まれる文字情報であり、表示位置は、当該認識した文字情報の当該画像上における位置を示す情報である。これらの情報により、当該ファイル名により特定される画像データは、何時(撮影日時)、何処で(撮影位置)、どの方向を向いて(撮影方向)撮影したものであるかが明確に特定できる。さらに、当該画像データが形成する画像には、どのような文字情報(認識した文字情報)が存在し、当該文字情報は当該画像上のどの位置(X(横)方向とY(縦)方向で特定される位置)に存在している(表示されている)かが明確に特定できる。   In FIG. 2, the display position and the recognized character information are information obtained by analyzing (image recognition processing) image data obtained by photographing, as will be described in detail later. Among these, the recognized character information is character information included in the image formed by the image data, and the display position is information indicating the position of the recognized character information on the image. With this information, the image data specified by the file name can clearly specify when (shooting date and time), where (shooting position), and in which direction (shooting direction) the image was taken. Further, what kind of character information (recognized character information) exists in the image formed by the image data, and the character information is in any position (X (horizontal) direction and Y (vertical) direction) on the image. It can be clearly identified whether it exists (displayed) at the specified position.

変更情報ファイル133は、例えば、ハードディスクや不揮発性メモリなどの大容量記録媒体に作成され、前回の地図調査時と今回の地図調査時とで、異なっている部分についての変更情報を記憶保持する。図3は、変更情報ファイル133に格納される格納データの例を説明するための図である。図3に示すように、変更情報ファイル133に格納される格納データは、管理No.、調査日付、調査員コード、住所コード、更新区分、位置情報、建物名、階数、変更内容からなる。   The change information file 133 is created on a large-capacity recording medium such as a hard disk or a non-volatile memory, for example, and stores and holds change information for different parts between the previous map survey and the current map survey. FIG. 3 is a diagram for explaining an example of stored data stored in the change information file 133. As shown in FIG. 3, the storage data stored in the change information file 133 is the management number. , Survey date, investigator code, address code, update classification, location information, building name, number of floors, change contents.

図3において、管理No.は、当該変更データの形成時に地図調査装置1において自動的に付与されるものである。調査日付は、当該地図調査時に時間制御部120から取得する現在日時であり、調査が行われた日時を特定する情報である。調査員コードは、例えば、地図調査装置1に予め調査員によって設定されている情報であり、当該調査員を特定する情報である。住所コードは、地図調査地の住所を特定する数字情報であり、後述する位置情報に基づいて、地図DB131から取得可能な情報である。更新区分は、新規、変更、削除のいずれかを示す情報であり、基本的に調査時において調査員によって入力される。ここで、「新規」は、前回調査時の地図には無い建物等ができていた場合に用いる。「変更」は、前回調査時の地図において建物は変わらないが入居者が変わった場合などに用いる。また、「削除」は、前回調査時の地図において存在していた建物等が取り壊され、更地にされた場合などに用いる。   In FIG. Is automatically given by the map survey device 1 when the change data is formed. The survey date is the current date and time acquired from the time control unit 120 during the map survey, and is information that specifies the date and time when the survey was performed. The investigator code is, for example, information set in advance by the researcher in the map research apparatus 1 and is information for identifying the researcher. The address code is numeric information that identifies the address of the map survey site, and is information that can be acquired from the map DB 131 based on position information described later. The update category is information indicating either new, changed, or deleted, and is basically input by the investigator at the time of the survey. Here, “new” is used when there is a building or the like that is not on the map at the previous survey. “Change” is used when, for example, the building has not changed on the map of the previous survey, but the occupant has changed. “Delete” is used when a building or the like existing on the map at the previous survey was demolished and cleared.

また、位置情報は、地図上における変更位置を示す経度、緯度情報である。また、建物名は、変更箇所が例えばビルディングなどの中高層の建物である場合には、当該建物に付されている「○○ビル」などの名称である。また、階数は、変更箇所が例えばビルディングなどの中高層の建物である場合の当該変更箇所が何階かを示す情報である。そして、変更内容が、具体的な変更内容を示す情報であり、新たな入居者の名称など、変更後の情報が入力される。   The position information is longitude and latitude information indicating the changed position on the map. Further, the building name is a name such as “XX building” attached to the building when the changed part is a medium-high-rise building such as a building. The number of floors is information indicating how many floors the changed part is when the changed part is a medium-high-rise building such as a building. The change content is information indicating the specific change content, and information after the change such as the name of a new resident is input.

なお、位置情報は、変更情報の入力時において後述するGPS部142を通じて取得する現在位置(緯度・経度)や地図上で位置を指示することにより特定される緯度・経度である。また、建物名、階数、変更内容は、変更情報として入力される情報である。そして、管理No.により特定される当該変更情報は、何時(調査日付)、誰(調査員コード)によって調査されたものかが特定できる。さらに、変更が生じた場所の住所(住所コード)、更新区分(新規、変更、削除)、更新が生じた地図上の正確な位置(位置情報)、当該変更箇所がビルなどである場合には、その建物名と階数が特定できると共に、具体的な変更内容が特定できる。   The position information is a current position (latitude / longitude) acquired through a GPS unit 142 (to be described later) when changing information is input, or a latitude / longitude specified by indicating a position on a map. The building name, the number of floors, and the change content are information input as change information. And management no. The change information specified by can identify when (survey date) and who (survey code) was investigated. In addition, the address (address code) of the place where the change occurred, the update classification (new, changed, deleted), the exact location (location information) on the map where the update occurred, and if the change location is a building, etc. The building name and number of floors can be specified, and specific changes can be specified.

センサ部141は、加速度センサと方位センサとを備える。加速度センサは、例えば、表示部123の上下方向を決定するために地図調査装置1の傾きを検出する。また、方位センサは、地磁気を検出することにより、地図調査装置1がどちらの方向を向いているかを検出する。この方位センサにより、カメラ部127を用いて撮影を行う場合には、どちらの方向を撮影しているのかを検出することができる。GPS部142およびGPSアンテナ143は、自機の現在位置を測位するためのものである。   The sensor unit 141 includes an acceleration sensor and an orientation sensor. The acceleration sensor detects the inclination of the map survey device 1 in order to determine the vertical direction of the display unit 123, for example. In addition, the direction sensor detects which direction the map survey apparatus 1 is facing by detecting geomagnetism. With this azimuth sensor, when shooting is performed using the camera unit 127, it is possible to detect which direction is being shot. The GPS unit 142 and the GPS antenna 143 are for measuring the current position of the own device.

これらの構成を有する地図調査装置1は、調査対象地域の地図を表示部123に表示して、当該表示された地図を確認しながら調査員が地図調査を行う。地図情報に変更が生じている箇所を見つけた場合には、表示部123に表示された地図上において、その変更箇所を、タッチパネル124を通じて指示することで、当該変更箇所を特定する。そして、その変更箇所についての変更情報を入力して、これを電子データとして変更情報ファイル133に記憶保持できる。   The map research apparatus 1 having these configurations displays a map of a survey target area on the display unit 123, and a researcher performs a map survey while confirming the displayed map. When a location where the map information has changed is found, the changed location is specified by instructing the changed location through the touch panel 124 on the map displayed on the display unit 123. Then, change information about the changed portion can be input and stored in the change information file 133 as electronic data.

なお、変更情報の入力は、カメラ部127を通じて撮影した画像を画像認識することにより入力したり、マイクロホン128および音声入力部129を通じて受け付けられる音声情報を音声認識することにより入力したりすることができる。もちろん、表示部123に表示される表示情報とタッチパネル124により構成されるいわゆるソフトウェアキーボードを通じて文字入力を行うことにより変更情報を入力することもできる。   The change information can be input by recognizing an image captured through the camera unit 127 or by recognizing audio information received through the microphone 128 and the audio input unit 129. . Of course, it is also possible to input change information by inputting characters through display information displayed on the display unit 123 and a so-called software keyboard constituted by the touch panel 124.

また、地図調査装置1は、自機が備える無線通信機能により、電子メールの作成や参照を行ったり、インターネットにアクセスして電子メールの送受信を行ったり、Webページを閲覧したりすることもできる。これにより、調査状況等を会社に電子メールにより報告したり、調査地の前回の調査を反映させた地図情報の提供を、インターネットを通じて受けたりするなどのことができる。もちろん、調査地の直近の地図情報は、会社のコンピュータから図示しないデジタルインターフェースを通じて提供を受けて、地図DB131に格納することもできる。   In addition, the map survey device 1 can create and refer to an email, access the Internet to send and receive emails, and browse web pages by using the wireless communication function of the device itself. . As a result, it is possible to report the survey status to the company by e-mail, or to receive map information reflecting the previous survey of the survey site via the Internet. Of course, the latest map information of the survey location can be provided from a company computer through a digital interface (not shown) and stored in the map DB 131.

[地図調査時の調査員の支援機能]
そして、この実施の形態の地図調査装置1は、画像認識技術や拡張現実技術を用いて、地図調査を行う調査員を支援する機能を実現している。この調査員を支援する機能を実現する部分として、文字情報抽出部151、比較処理部152、報知処理部153、拡張現実処理部154を備える。
[Investigator support function during map survey]
The map survey device 1 according to this embodiment implements a function for supporting a researcher who performs a map survey using an image recognition technology or an augmented reality technology. As a part for realizing the function of supporting the investigator, a character information extraction unit 151, a comparison processing unit 152, a notification processing unit 153, and an augmented reality processing unit 154 are provided.

文字情報抽出部151は、調査地において、カメラ部127を通じて撮影することにより得られた画像データについて画像認識技術を用いた解析を行い、当該画像データが形成する画像に含まれる文字情報とその文字情報の画像上における位置(表示位置)とを抽出する。画像に含まれる文字情報は、主に看板、標識、表札等に記載されている情報である。そして、文字情報抽出部151は、今回の撮影と同じ撮影位置、同じ撮影方向で過去に撮影した画像データが過去画像DB132に存在するか否かを確認する。   The character information extraction unit 151 performs analysis using image recognition technology on image data obtained by photographing through the camera unit 127 at the survey site, and character information included in an image formed by the image data and the characters The position of the information on the image (display position) is extracted. The character information included in the image is information described mainly on a signboard, a sign, a nameplate, and the like. Then, the character information extraction unit 151 checks whether or not image data captured in the past at the same shooting position and the same shooting direction as the current shooting exists in the past image DB 132.

この確認の結果、今回の撮影と同じ撮影位置、同じ撮影方向で過去に撮影した画像データが過去画像DB132に存在しなかったとする。この場合、文字情報抽出部151は、今回撮影することにより得られた画像データを含む図2に示した態様の格納データ(画像データファイル)を形成し、これを過去画像DB132に記録する処理を行う。また、確認の結果、今回の撮影と同じ撮影位置、同じ撮影方向で過去に撮影した画像データが過去画像DB132に存在していたとする。この場合、文字情報抽出部151は、制御部100を通じて比較処理部152に過去の画像データが形成する画像に含まれる文字情報と今回撮影することにより得られた画像データ(現在の画像データ)が形成する画像に含まれる文字情報との比較処理を依頼する。   As a result of this confirmation, it is assumed that image data captured in the past at the same shooting position and the same shooting direction as the current shooting does not exist in the past image DB 132. In this case, the character information extracting unit 151 forms storage data (image data file) having the mode shown in FIG. 2 including the image data obtained by photographing this time, and records this in the past image DB 132. Do. Further, as a result of the confirmation, it is assumed that image data captured in the past at the same shooting position and the same shooting direction as the current shooting exist in the past image DB 132. In this case, the character information extraction unit 151 receives the character information included in the image formed by the past image data in the comparison processing unit 152 through the control unit 100 and the image data (current image data) obtained by the current shooting. Requests a comparison process with character information included in the image to be formed.

比較処理部152は、同じ撮影位置、同じ撮影方向で撮影した過去の画像データから抽出された文字情報と直近に撮影して得た現在の画像データから抽出した文字データとの内容及び画像上の位置を比較して、差異部分を特定する。そして、詳しくは後述もするが、比較処理部152は、同じ撮影位置、同じ撮影方向で撮影した過去の画像データに応じた画像と直近に撮影した現在の画像データに応じた画像とを表示部123に表示する。   The comparison processing unit 152 compares the character information extracted from past image data taken at the same shooting position and the same shooting direction with the contents of the character data extracted from the latest image data obtained by the latest shooting and the image data. Compare locations to identify differences. As will be described in detail later, the comparison processing unit 152 displays an image corresponding to past image data captured at the same shooting position and the same shooting direction and an image corresponding to the latest image data captured most recently. 123.

この場合に、比較処理部152は、当該過去の画像データに応じた画像と直近に撮影した当該現在の画像データに応じた画像とで、文字情報に違いのある部分(差異部分)を、例えば現在の画像データに応じた画像中に示して調査員が認識できるようにする。これにより、例えば、前回調査時の過去の画像と今回調査時の現在の画像とで、看板、標識、表札等の内容や位置が変わっている部分を特定し、その部分については地図情報が変化している可能性が高いので、漏らさず調査することを調査員に報知することができる。   In this case, the comparison processing unit 152 determines, for example, a portion (difference portion) in which character information is different between an image corresponding to the past image data and an image corresponding to the current image data captured most recently. It is shown in the image according to the current image data so that the investigator can recognize it. As a result, for example, a part where the content or position of a signboard, a sign, a nameplate, etc. has changed between the past image at the time of the previous survey and the current image at the time of the current survey is identified, and the map information changes for that part Since there is a high possibility that it has been conducted, the investigator can be informed that the investigation is conducted without leakage.

報知処理部153は、前回の調査時において、カメラ部127を通じて撮影することにより得られた画像データを解析することにより把握できた情報に基づいて、調査場所や調査時期などを調査員に報知する処理を行う。例えば、前回の調査時に空き地に立てられていた建築計画のお知らせ看板の画像データを、カメラ部127を通じて撮影することにより得て、過去画像DB132に格納しておいたとする。この場合、当該建築計画のお知らせ看板の画像データを解析することにより得られる文字情報である、「建築敷地の地名地番」に基づいて、必ず調査すべき調査場所(地番地名等)を報知したり、「完了予定」に基づいて、調査時期を報知したりする。   The notification processing unit 153 notifies the investigator of the survey location and the survey time based on the information obtained by analyzing the image data obtained by photographing through the camera unit 127 during the previous survey. Process. For example, it is assumed that the image data of the notice board of the architectural plan set up in the vacant land at the previous survey is obtained by photographing through the camera unit 127 and stored in the past image DB 132. In this case, based on the “place name of the building site”, which is the text information obtained by analyzing the image data of the notice signboard of the building plan, the location to be investigated (location number, etc.) must be reported. Or reporting the survey time based on “scheduled completion”.

なお、建築計画のお知らせ看板に限るものではない。例えば、マンションやアパートなどの入居者募集の看板や店舗等の開店予定を通知する看板など、地図情報に変化が生じることを通知する看板等を撮影し、画像認識により文字情報を抽出して保存しておく。そして、当該文字情報に応じて、場所、入居時期や開店時期などを特定し、調査場所や調査時期を調査員に対して報知することができる。   However, it is not limited to the notice signboard of the architectural plan. For example, a signboard notifying that a change will occur in map information, such as a signboard for occupying a condominium or an apartment, a signboard notifying the opening of a store, etc., is photographed, and character information is extracted and stored by image recognition. Keep it. And according to the said character information, a place, an entering time, a store opening time, etc. can be specified, and an investigation place and an investigation time can be alert | reported to an investigator.

拡張現実処理部154は、上述もしたように、カメラ部127がとらえている画像を、制御部100および表示処理部122を通じて表示部123に表示している場合に、表示画像に対して、地図DB131の注記データを付加して表示する処理を行う。この場合、撮影位置は、GPS部142を通じて特定でき、また、撮影方向はセンサ部141の方位センサにより特定できる。これら撮影位置および撮影方向と、カメラ部127の撮影情報等(カメラ部127を通じて画像をとらえるようにした時に得られる付随情報)を考慮することにより、カメラ部127がとらえている画像範囲を特定することができる。   As described above, the augmented reality processing unit 154 displays an image captured by the camera unit 127 on the display unit 123 through the control unit 100 and the display processing unit 122. Processing for adding and displaying the annotation data of the DB 131 is performed. In this case, the shooting position can be specified through the GPS unit 142, and the shooting direction can be specified by the direction sensor of the sensor unit 141. The image range captured by the camera unit 127 is specified by taking into consideration the shooting position and shooting direction, shooting information of the camera unit 127, and the like (accompanying information obtained when an image is captured through the camera unit 127). be able to.

なお、カメラ部127の撮影情報等は、具体的には、上述もしたExifにしたがって記録される種々の情報である。すなわち、カメラ機能を有するExifに準拠した装置では、例えば、画像の幅、画像の高さ、画像のビットの深さ、圧縮の種類等、種々の情報が取得可能であり、これらの情報をも考慮することにより、カメラ部127がとらえている画像範囲を正確に特定できる。なお、Exif規格の詳細は、例えば、CIPA(Camera & Imaging Products Association:カメラ映像機器工業会)のWebページである、
「http://www.cipa.jp/hyoujunka/kikaku/cipa-kikaku_list.html」等において閲覧可能である。
The shooting information of the camera unit 127 is specifically various information recorded according to the above-described Exif. In other words, an Exif-compliant device having a camera function can acquire various information such as image width, image height, image bit depth, compression type, and so on. By considering this, the image range captured by the camera unit 127 can be accurately specified. The details of the Exif standard are, for example, Web pages of CIPA (Camera & Imaging Products Association).
It can be viewed at “http://www.cipa.jp/hyoujunka/kikaku/cipa-kikaku_list.html”.

そして、拡張現実処理部154は、特定した画像範囲に存在する建物等についての注記データを地図DB131から取得すると共に、それらの表示部123の表示画面上の表示位置を特定する。そして、当該注記データと表示画面上の表示位置とを表示処理部122に供給し、カメラ部127が捉え、表示部123に表示されている画像に対して、ビル名等の注記データを重畳して表示できるようにする。これにより、調査員は、地図情報を一々確認しなくても、カメラ部127がとらえ、表示部123に表示されている画像上において、ビル名、施設名、交差点名等の情報を得ることができ、地図調査を的確に行うことができる。   Then, the augmented reality processing unit 154 acquires annotation data about buildings and the like existing in the specified image range from the map DB 131 and specifies display positions of the display units 123 on the display screen. Then, the annotation data and the display position on the display screen are supplied to the display processing unit 122, and the camera unit 127 captures the annotation data such as the building name on the image displayed on the display unit 123. Can be displayed. As a result, the investigator can obtain information such as the building name, facility name, and intersection name on the image displayed on the display unit 123 by capturing the camera unit 127 without checking the map information one by one. And map survey can be performed accurately.

このように、この実施の形態の地図調査装置1は、前回の調査時に撮影した画像と、今回の調査時に撮影した画像において、文字情報の内容や位置(画像上の位置)が異なっている部分を特定して調査員に示すことができる。これにより、地図情報が変化している可能性の高い場所を調査員に明確に示すことができ、調査員を支援することができる。また、拡張現実技術を用いて、カメラ部127からの画像に注記データ等を表示することができる。これにより、地図調査装置1の表示部123に表示された地図情報だけでなく、カメラ部127を通じてとらえている画像を通じても、調査場所を明確に特定できるなど、調査員を支援することができる。   As described above, the map survey device 1 according to the present embodiment is a portion in which the content and position (position on the image) of the character information are different between the image captured during the previous survey and the image captured during the current survey. Can be identified and shown to the investigator. Thereby, the place where the map information is likely to change can be clearly shown to the investigator, and the investigator can be supported. Also, note data or the like can be displayed on the image from the camera unit 127 using augmented reality technology. Thereby, it is possible to assist the investigator, such as clearly identifying the survey location not only through the map information displayed on the display unit 123 of the map survey apparatus 1 but also through the image captured through the camera unit 127.

[地図調査装置1での地図調査処理について]
次に、図1に示した構成を有するこの実施の形態の地図調査装置1で行われる地図調査支援処理について説明する。図4、図5は、当該地図調査支援処理について説明するためのフローチャートである。また、図6〜図10は、当該地図調査支援処理において、地図調査装置1の表示部123に表示される表示画像等の表示例を示す図である。図4、図5のフローチャートに示す処理は、地図の調査地において地図調査装置1に電源が投入されると制御部100において実行される。
[About the map survey process in the map survey device 1]
Next, a map survey support process performed by the map survey device 1 of this embodiment having the configuration shown in FIG. 1 will be described. 4 and 5 are flowcharts for explaining the map survey support process. 6 to 10 are diagrams illustrating display examples of display images and the like displayed on the display unit 123 of the map survey device 1 in the map survey support process. The processing shown in the flowcharts of FIGS. 4 and 5 is executed by the control unit 100 when the map survey apparatus 1 is turned on at the map survey site.

図4、図5に示す処理が実行されると、制御部100は、まず、GPS部142を制御し、自機の現在位置の測位を開始させる(ステップS101)。そして、制御部100は、ステップS101において測位を開始させたGPS部142からの現在位置に基づいて、当該現在位置を含む地域の地図と、当該地域において過去に画像の撮影を行っている場合には、過去に画像の撮影を行っていることを示す情報とを表示する処理を行う(ステップS102)。   When the processing shown in FIGS. 4 and 5 is executed, the control unit 100 first controls the GPS unit 142 to start positioning of the current position of the own device (step S101). Then, the control unit 100, based on the current position from the GPS unit 142 that has started positioning in step S101, a map of the area including the current position, and when taking an image in the past in the area Performs a process of displaying information indicating that an image has been taken in the past (step S102).

ステップS102において制御部100は、まず、GPS部142からの現在位置を含む地域の地図情報を地図DB131から読み出して、これを表示処理部122を通じて表示部123に表示する。さらに、制御部100は、当該地域において過去に撮影した画像がある場合には、過去画像DB132の格納データ(画像データファイル)を利用して、当該画像の縮小画像を表示した地図上に表示する。また、現在位置を示すマークも地図上に表示する。   In step S <b> 102, the control unit 100 first reads out the map information of the area including the current position from the GPS unit 142 from the map DB 131 and displays it on the display unit 123 through the display processing unit 122. Furthermore, when there is an image captured in the past in the area, the control unit 100 displays the reduced image of the image on the map using the data stored in the past image DB 132 (image data file). . A mark indicating the current position is also displayed on the map.

このステップS102の処理により、表示部123の表示画面123Gには、例えば、図6に示すように、現在位置を含む地域の地図が表示される。なお、現在位置は、黒四角印で示されている。また、図6に示すように、過去に画像の撮影を行った場所については、当該過去の画像の縮小画像が表示される。図6に示した例の場合には、「○○ビル」と「△○△不動産」について、内部に設置されている各階案内板の過去に撮影した画像が存在していることが表示されている。   By the processing in step S102, a map of the area including the current position is displayed on the display screen 123G of the display unit 123, for example, as shown in FIG. The current position is indicated by a black square mark. Also, as shown in FIG. 6, a reduced image of the past image is displayed for a place where the image has been taken in the past. In the case of the example shown in FIG. 6, it is displayed that there are images taken in the past of each floor information board installed for “XXX building” and “△ XXX real estate”. Yes.

なお、過去の画像を縮小して表示する場合でも、近隣において撮影した画像が重なり合ってそのそれぞれが認識できなくなる場合もあると考えられる。このこのため、過去画像DB132の格納データの撮影位置、撮影方向を参照し、当該地域において過去に撮影した画像がある場合には、まず簡単な記号によって、過去に撮影した画像の撮影位置と撮影方向とを表示する。図6に示した例の場合には、当該地図上において黒丸印と矢印とによって、当該地域において過去に画像の撮影を行った場所(撮影位置)と方向(撮影方向)とを示している。そして、地図上に示した黒丸印と矢印とが表示されている位置のタッチパネル124上に指等を接触させて指示した場合に、その場所で過去に撮影した画像の縮小画像を、過去画像DB132の格納データに基づいて形成し、これを表示する態様とすることもできる。   Even when past images are reduced and displayed, it is considered that images taken in the vicinity may overlap and become unrecognizable. For this reason, referring to the shooting position and shooting direction of the stored data in the past image DB 132, when there is an image shot in the past in the area, first, the shooting position and shooting of the image shot in the past are first represented by simple symbols. Display direction. In the case of the example shown in FIG. 6, a black circle mark and an arrow on the map indicate a place (photographing position) and a direction (photographing direction) where an image has been taken in the past in the area. Then, when an instruction is made by bringing a finger or the like into contact with the touch panel 124 at the position where the black circle mark and the arrow shown on the map are displayed, a reduced image of an image captured in the past at that location is displayed in the past image DB 132. It is also possible to form based on the stored data and display it.

この後、制御部100は、タッチパネル124やキー操作部121を通じてユーザーからの操作入力を受け付け(ステップS103)、受け付けた操作入力は、カメラ部127の起動を指示するものか否かを判別する(ステップS104)。ステップS104の判別処理において、カメラ部127の起動を指示するものではないと判別したときには、制御部100は、受け付けた操作入力は、地図調査支援処理の終了指示か否かを判別する(ステップS105)。ステップS105の判別処理において、終了指示を受け付けたと判別したときには、制御部100は、GPS部142の動作を終了させ、電源を落とすなどの所定の終了処理を行って(ステップS106)、この図4、図5に示す処理を終了する。   Thereafter, the control unit 100 accepts an operation input from the user through the touch panel 124 or the key operation unit 121 (step S103), and determines whether or not the accepted operation input instructs activation of the camera unit 127 ( Step S104). When it is determined in the determination process in step S104 that the camera unit 127 is not instructed to start, the control unit 100 determines whether or not the received operation input is an instruction to end the map survey support process (step S105). ). When it is determined in the determination process in step S105 that the end instruction has been received, the control unit 100 performs a predetermined end process such as ending the operation of the GPS unit 142 and turning off the power (step S106). Then, the process shown in FIG.

また、ステップS105の判別処理において、終了指示を受け付けていないと判別したときには、制御部100は、受け付けた操作入力に応じた処理を行い(ステップS107)、この後、ステップS102からの処理を繰り返す。なお、ステップS107においては、例えば、変更が生じた場所の指示入力を受け付けたり、変更情報の入力を受け付けたりするなど、通常の変更情報の入力処理などが行われる。   If it is determined in the determination process in step S105 that an end instruction has not been received, the control unit 100 performs a process according to the received operation input (step S107), and thereafter repeats the process from step S102. . In step S107, normal change information input processing, such as receiving an instruction input of a place where the change has occurred, or receiving an input of change information, is performed.

そして、ステップS104の判別処理において、ステップS103で受け付けた操作入力はカメラ部127の起動を指示するものであると判別したとする。この場合、制御部100は、カメラ部127を起動させ、カメラ部127からの映像を表示部123に表示すると共に、拡張現実処理部154を制御して、表示部123に表示された映像にガイド表示を重畳表示する処理を行う(ステップS108)。ステップS108において制御部100は、カメラ部127を起動させ、カメラ部127からの映像データを、制御部100を通じて表示処理部122に供給する。これにより、カメラ部127がとらえている映像を表示部123に表示させることができる。   Then, in the determination process in step S104, it is determined that the operation input received in step S103 is an instruction to start the camera unit 127. In this case, the control unit 100 activates the camera unit 127 to display the video from the camera unit 127 on the display unit 123 and controls the augmented reality processing unit 154 to guide the video displayed on the display unit 123. A process of superimposing the display is performed (step S108). In step S <b> 108, the control unit 100 activates the camera unit 127 and supplies video data from the camera unit 127 to the display processing unit 122 through the control unit 100. Thereby, the video captured by the camera unit 127 can be displayed on the display unit 123.

さらに、ステップS108においては、拡張現実処理部154が機能し、GPS部142からの現在位置と、センサ部141の方位センサからの撮影方向と、カメラ部127の撮影情報等に基づいて、カメラ部127がとらえている画像範囲を特定する。そして、拡張現実処理部154は、特定した画像範囲に存在する建物等についての注記データを地図DB131から取得し、それらの表示画面上の表示位置を特定する。そして、拡張現実処理部154は、当該注記データと表示画面上の表示位置とを制御部100を通じて表示処理部122に供給する。   Furthermore, in step S108, the augmented reality processing unit 154 functions, and based on the current position from the GPS unit 142, the shooting direction from the orientation sensor of the sensor unit 141, the shooting information of the camera unit 127, and the like, An image range captured by 127 is specified. Then, the augmented reality processing unit 154 acquires note data about buildings and the like existing in the specified image range from the map DB 131, and specifies the display positions on the display screen. Then, the augmented reality processing unit 154 supplies the annotation data and the display position on the display screen to the display processing unit 122 through the control unit 100.

これにより、例えば、図7に示すように、カメラ部127がとらえ、表示部123の表示画面123Gに表示されている映像に対して、ビル名等の注記データが重畳して表示される。すなわち、地図調査装置1を持った調査員は、図6において黒四角印Pが示す位置におり、この位置から点線矢印で示す方向を、カメラ部127を通じてとらえているとする。この場合には、図7に示すように、表示部123の表示画面123Gには、カメラ部127がとらえている映像が表示される。そして、拡張現実技術が利用され、左側手前の建物は「△○△不動産」、左側奥の建物は「XXXビル」、右側手前の建物は「○○ビル」、右側奥の建物は「□□ビル」というように、注釈データ等が重畳表示される。これにより、調査員は、地図を確認するまでもなく調査地における近隣の建物の名称等を、カメラ部127を通じてとらえている映像において正確に把握できる。   Thus, for example, as shown in FIG. 7, the camera unit 127 captures and displays the annotation data such as the building name superimposed on the video displayed on the display screen 123 </ b> G of the display unit 123. In other words, it is assumed that the investigator who has the map survey device 1 is at the position indicated by the black square mark P in FIG. 6 and captures the direction indicated by the dotted arrow from this position through the camera unit 127. In this case, as shown in FIG. 7, an image captured by the camera unit 127 is displayed on the display screen 123 </ b> G of the display unit 123. And augmented reality technology is used, the building on the left side is “△ ○ △ Real Estate”, the building on the left side is “XXX Building”, the building on the right side is “XX Building”, and the building on the right side is “□□” Annotation data and the like are superimposed and displayed as “building”. Thus, the investigator can accurately grasp the names of neighboring buildings in the survey area in the video captured through the camera unit 127 without checking the map.

この後、制御部100は、タッチパネル124やキー操作部121を通じてユーザーからの操作入力を受け付け(ステップS109)、受け付けた操作入力は、撮影を行うことを指示する操作(シャッター操作)か否かを判別する(ステップS110)。ステップS110の判別処理において、撮影を行うことを指示する操作ではないと判別したときには、制御部100は、受け付けた操作入力は、地図調査支援処理の終了指示か否かを判別する(ステップS111)。   Thereafter, the control unit 100 receives an operation input from the user through the touch panel 124 or the key operation unit 121 (step S109), and determines whether or not the received operation input is an operation (shutter operation) instructing to perform shooting. It discriminate | determines (step S110). When it is determined in the determination process of step S110 that the operation is not an instruction to perform shooting, the control unit 100 determines whether or not the received operation input is an instruction to end the map survey support process (step S111). .

ステップS111の判別処理において、終了指示を受け付けたと判別したときには、制御部100は、GPS部142の動作を終了させ、電源を落とすようにするなどの所定の終了処理を行うことにより(ステップS112)、この図4、図5に示す処理を終了する。また、ステップS111の判別処理において、終了指示を受け付けていないと判別したときには、有効な操作入力は受け付けていないので、制御部100はステップS108からの処理を繰り返す。   When it is determined in the determination process of step S111 that the end instruction has been received, the control unit 100 performs a predetermined end process such as stopping the operation of the GPS unit 142 and turning off the power (step S112). Then, the processing shown in FIGS. 4 and 5 ends. If it is determined in the determination process in step S111 that an end instruction has not been received, a valid operation input has not been received, and the control unit 100 repeats the process from step S108.

また、ステップS110の判別処理において、受け付けた操作入力は、撮影を行うことを指示する操作であると判別したときには、制御部100は、撮影処理を実行する(ステップS113)。ステップS113において制御部100は、カメラ部127を通じてとらえている画像の画像データを取り込み、これを例えば記憶装置110の記録媒体に記録する。そして、制御部100は、撮影日時、撮影位置、撮影方向を取得する(ステップS114)。ステップS114において、制御部100は、時間制御部120が提供する現在日時を撮影日時として取得し、GPS部142からの現在位置を撮影位置として取得し、また、センサ部141の方位センサからの検出出力を撮影方向として取得する。   In the determination process of step S110, when it is determined that the received operation input is an operation for instructing to perform shooting, the control unit 100 executes the shooting process (step S113). In step S <b> 113, the control unit 100 takes in the image data of the image captured through the camera unit 127 and records it on a recording medium of the storage device 110, for example. Then, the control unit 100 acquires the shooting date and time, the shooting position, and the shooting direction (step S114). In step S114, the control unit 100 acquires the current date and time provided by the time control unit 120 as the shooting date and time, acquires the current position from the GPS unit 142 as the shooting position, and detects from the azimuth sensor of the sensor unit 141. Get output as shooting direction.

なお、ビルの中に設置されている各階案内板などを撮影する場合には、GPS衛星からの電波を受信することができないために、GPS部142を通じては現在位置を取得できない場合もある。このような場合には、制御部100は、直近にGPS部142から取得した現在位置に基づいて、地図DB131から読み出した地図を表示部123に表示する。そして、制御部100は、当該表示した地図上において、タッチパネル124を通じて、ユーザーからの撮影位置の指示入力を受け付ける。この場合、制御部100は、撮影位置を入力することを促すメッセージを、表示処理部122を通じて表示部123に表示したり、音声出力部125を通じてスピーカ126から放音したりすることができる。また、何らかの原因により、センサ部141の方位センサによっては撮影方向が特定できなかった場合には、当該地図上においてタッチパネル124を通じて撮影方向の入力を受け付けることもできる。   In addition, when photographing each floor information board installed in the building, the current position may not be acquired through the GPS unit 142 because radio waves from the GPS satellite cannot be received. In such a case, the control unit 100 displays the map read from the map DB 131 on the display unit 123 based on the current position acquired from the GPS unit 142 most recently. And the control part 100 receives the instruction | indication input of the imaging position from a user through the touch panel 124 on the said displayed map. In this case, the control unit 100 can display a message prompting the user to input the shooting position on the display unit 123 through the display processing unit 122 or emit sound from the speaker 126 through the audio output unit 125. In addition, if the shooting direction cannot be specified by the orientation sensor of the sensor unit 141 for some reason, it is possible to accept an input of the shooting direction through the touch panel 124 on the map.

ステップS114の処理の後においては、制御部100は、図5のステップS115の処理に進む。制御部100は、文字情報抽出部151を制御して、ステップS113の撮影処理により取得した画像データを解析し、当該画像データにより形成される画像に含まれる文字情報と当該文字情報の当該画像上の位置を抽出する(ステップS115)。ステップS113からステップS115の処理により、過去画像DB132の格納データである図2に示した態様の画像データファイルが形成される。   After the process of step S114, the control unit 100 proceeds to the process of step S115 in FIG. The control unit 100 controls the character information extraction unit 151 to analyze the image data acquired by the photographing process in step S113, and to detect the character information included in the image formed by the image data and the character information on the image. Are extracted (step S115). By the processing from step S113 to step S115, the image data file having the mode shown in FIG. 2 as the data stored in the past image DB 132 is formed.

この後、制御部100は、ステップS114において取得した撮影位置および撮影方向に基づいて、過去画像DB132を参照し、撮影位置と撮影方向が同じである過去の画像データがあるか否かを判別する(ステップS116)。ステップS116の判別処理において、撮影位置と撮影方向が同じである過去の画像データは存在しないと判別したとする。この場合、制御部100は、上述したステップS113からステップS115の処理により取得した情報に基づいて、図2に示した態様の画像データファイルを作成し、これを過去画像DB132に記録する処理を行う(ステップS117)。この後、制御部100は、図4に示したステップS102からの処理を繰り返す。   Thereafter, the control unit 100 refers to the past image DB 132 based on the shooting position and shooting direction acquired in step S114 and determines whether there is past image data having the same shooting position and shooting direction. (Step S116). Assume that in the determination processing in step S116, it is determined that there is no past image data having the same shooting position and shooting direction. In this case, the control unit 100 creates an image data file having the mode shown in FIG. 2 based on the information acquired by the processing from step S113 to step S115 described above, and performs processing for recording this in the past image DB 132. (Step S117). Thereafter, the control unit 100 repeats the processing from step S102 shown in FIG.

また、ステップS116の判別処理において、撮影位置と撮影方向が同じである過去の画像データが存在すると判別したとする。この場合、制御部100は、比較処理部152を制御して、撮影位置と撮影方向が同じである今回撮影した画像に含まれる文字情報と過去に撮影した画像に含まれる文字情報との内容と画像上の位置とを比較する処理を行う(ステップS118)。そして、比較処理部152は、制御部100の制御の下、ステップS118の比較処理の結果を、表示処理部122を通じて表示部123に表示する(ステップS119)。   Also, in the determination process in step S116, it is determined that there is past image data having the same shooting position and shooting direction. In this case, the control unit 100 controls the comparison processing unit 152 so that the character information included in the image captured this time and the character information included in the image captured in the past are the same in the shooting position and the shooting direction. A process of comparing the position on the image is performed (step S118). Then, under the control of the control unit 100, the comparison processing unit 152 displays the result of the comparison processing in step S118 on the display unit 123 through the display processing unit 122 (step S119).

例えば、屋外で撮影することにより取得した前回(過去)と今回(現在)の画像データがあるとする。この場合、比較処理部152は、図8に示すように、過去の画像データに応じた画像を表示画面123Gの上半分に表示し、今回撮影した画像データに応じた画像を表示画面123Gの下半分に表示する画像データを形成して、これを表示処理部122に供給する。これにより、図8に示すような態様で、過去の画像データに応じた画像と今回の画像データに応じた画像とが表示画面123Gに表示される。また、比較処理部152は、図8に示すように、表示画面123Gの下半分に表示する画像には、文字情報の内容や画像上の位置が前回の画像と異なる部分にマークS1、S2、S3を表示する。したがって、図8に示した例の場合には、「XYZビル」の3階には「カラオケXX」ができ(入居し)、「株式会社△△」だったビルは、「○○銀行」に変わったことが一目瞭然となる。   For example, it is assumed that there are previous (previous) and current (present) image data acquired by photographing outdoors. In this case, as shown in FIG. 8, the comparison processing unit 152 displays an image corresponding to past image data on the upper half of the display screen 123G, and displays an image corresponding to the image data captured this time at the bottom of the display screen 123G. Image data to be displayed in half is formed and supplied to the display processing unit 122. As a result, the image corresponding to the past image data and the image corresponding to the current image data are displayed on the display screen 123G in a manner as shown in FIG. Further, as shown in FIG. 8, the comparison processing unit 152 includes marks S1, S2, and mark S1, S2, and the like on portions where the content of the character information and the position on the image are different from the previous image. S3 is displayed. Therefore, in the case of the example shown in FIG. 8, “Karaoke XX” is available on the third floor of “XYZ Building” (the occupancy), and the building that was “Co., Ltd. △△” becomes “XX Bank”. Changes have become obvious at a glance.

また、ビル内に設置された各階案内板を撮影することにより取得した前回(過去)と今回(現在)の画像データがあるとする。この場合にも、比較処理部152は、図8を用いて説明した場合と同様の処理を行う。すなわち、比較処理部152は、図9に示すように、表示画面123Gを上下に2分割し、上半分には前回の撮影画像を、また、下半分には今回の撮影画像を表示する。また、比較処理部152は、表示画面の下側半分に表示した今回の撮影画像上において、文字情報の内容や画像上の位置が前回の画像と異なる部分にマークS4、S5を付加する。したがって、図9に示した例の場合には、4階が「□□(株)東京支店」から「(株)ABC産業」に変わり、1階が「株式会社○○」から「コーヒーショップ△□」に変わったことが一目瞭然となる。   It is also assumed that there are previous (previous) and current (present) image data acquired by photographing each floor guide board installed in the building. Also in this case, the comparison processing unit 152 performs the same processing as that described with reference to FIG. That is, as shown in FIG. 9, the comparison processing unit 152 divides the display screen 123G vertically into two, and displays the previous captured image in the upper half and the current captured image in the lower half. Further, the comparison processing unit 152 adds marks S4 and S5 to portions where the content of the character information and the position on the image are different from the previous image on the current captured image displayed in the lower half of the display screen. Therefore, in the case of the example shown in FIG. 9, the fourth floor changes from “□□ Tokyo Branch Co., Ltd.” to “(ABC Sangyo Co., Ltd.)” and the first floor changes from “Co., Ltd.” to “Coffee Shop △ It becomes clear at a glance that it has changed to □.

この後、制御部100は、タッチパネル124やキー操作部121を通じてユーザーからの操作入力を受け付け(ステップS120)、受け付けた操作入力は、タッチパネル124を通じて行われた変更箇所の位置指示か否かを判別する(ステップS121)。例えば、図8に示した差異表示がされている場合、差異部分を示すマークS1、S2、S3で囲まれた部分を指示する操作などが位置指示の操作入力になる。また、図9に示した差異表示がされている場合、差異部分を示すマークS4、S5で囲まれた部分を指示する操作などが位置指示の操作入力になる。もちろん、差異部分以外の部分を変更箇所とする場合には、当該目的とする部分を指示する操作であってもよい。   Thereafter, the control unit 100 accepts an operation input from the user through the touch panel 124 or the key operation unit 121 (step S120), and determines whether or not the accepted operation input is a position indication of a changed portion made through the touch panel 124. (Step S121). For example, when the difference display shown in FIG. 8 is displayed, an operation or the like for indicating a portion surrounded by marks S1, S2, and S3 indicating the difference portion is an operation input for position indication. In addition, when the difference display shown in FIG. 9 is performed, an operation for instructing a portion surrounded by marks S4 and S5 indicating the difference portion is an operation input for position indication. Of course, when a part other than the different part is used as the changed part, an operation for designating the target part may be performed.

そして、ステップS121の判別処理において、受け付けた操作入力は、タッチパネル124を通じて行われた変更箇所の位置指示であると判別したときには、制御部100は、変更内容の入力を受け付ける入力手段の選択入力を受け付ける(ステップS122)。この実施の形態の地図調査装置1においては、上述もしたが3つの入力手段を備えている。1つは、カメラ部127を通じて撮影した画像を画像認識することにより変更内容を抽出して入力する画像認識入力である。他の1つは、マイクロホン128および音声入力部129を通じて受け付けられる音声情報を音声認識することにより変更内容を入力する音声認識入力である。最後の1つは、表示部123に表示される表示情報とタッチパネル124により構成されるいわゆるソフトウェアキーボードを通じて変更内容を入力するタイプ入力(文字入力)である。   In the determination process of step S121, when it is determined that the received operation input is a position instruction of a change place made through the touch panel 124, the control unit 100 performs a selection input of an input unit that receives an input of change contents. Accept (step S122). The map survey device 1 of this embodiment includes three input means as described above. One is an image recognition input for extracting and inputting a change content by recognizing an image taken through the camera unit 127. The other one is voice recognition input for inputting change contents by voice recognition of voice information received through the microphone 128 and the voice input unit 129. The last one is type input (character input) for inputting change contents through display information displayed on the display unit 123 and a so-called software keyboard configured by the touch panel 124.

調査員は、調査地の状況に応じて変更内容の入力手段を選択する。例えば、一番簡単かつ正確に変更内容を入力することができるのは画像認識入力であるので、通常は画像認識入力を選択する。しかし、看板、標識、表札等がなかったり、看板、標識、表札等に記載されている文字が小さすぎたり、特殊な書体であるために認識し難いといった状況の時には、音声入力を選択する。しかし、周囲の騒音が激しく音声入力ができないときには、タイプ入力を選択する。このように、調査員は調査地の状況に応じて、最も適した入力手段を選択する。   The researcher selects a means for inputting the change contents according to the situation of the survey site. For example, since it is the image recognition input that can input the change contents most simply and accurately, the image recognition input is usually selected. However, when there is no signboard, sign, nameplate, etc., or the characters written on the signboard, sign, nameplate, etc. are too small or difficult to recognize because of the special typeface, voice input is selected. However, when the surrounding noise is so strong that voice input is not possible, type input is selected. In this way, the surveyor selects the most suitable input means according to the situation of the survey site.

そして、制御部100は、ステップS122で選択された入力手段を通じて、変更内容の入力を受け付ける(ステップS123)。このステップS123では、選択された入力手段に応じた変更内容の入力画面を表示し、変更内容の入力を受け付ける。具体的には、前回とは異なっている看板や表札を、カメラ部127を通じて撮影したり、当該看板や表札の記載内容をマイクロホン128及び音声入力部129を通じて音声により入力したり、当該看板や表札の記載内容を、タッチパネル124を通じてタイプ入力したりすることになる。   And the control part 100 receives the input of a change content through the input means selected by step S122 (step S123). In step S123, a change content input screen corresponding to the selected input means is displayed, and the input of the change content is accepted. Specifically, a signboard or nameplate that is different from the previous time is photographed through the camera unit 127, or the description content of the signboard or nameplate is input by voice through the microphone 128 and the voice input unit 129. Is entered through the touch panel 124.

この後、制御部100は、例えば、図10に示すように、入力された変更内容等を地図調査装置1の表示部123に表示し、修正入力を受け付ける(ステップS124)。図10に示した例の場合には、表示画面123Gの上側に変更情報が表示され、下側にソフトウェアキーボードが表示されている。そして、必要に応じて、タッチパネル124を通じて変更すべき情報を選択し、当該情報についてソフトウェアキーボードを通じて情報の修正入力を行う。   Thereafter, for example, as illustrated in FIG. 10, the control unit 100 displays the input change content or the like on the display unit 123 of the map survey apparatus 1 and receives a correction input (step S <b> 124). In the example shown in FIG. 10, the change information is displayed on the upper side of the display screen 123G, and the software keyboard is displayed on the lower side. Then, if necessary, information to be changed is selected through the touch panel 124, and the information is corrected and input through the software keyboard.

この後、制御部100は、図10に示した変更情報の表示画面において、「OK」ボタンBT2が操作されたか否かを判別する(ステップS125)。ステップS125の判別処理において、「OK」ボタンBT2が操作されたと判別したしたときには、制御部100は、管理No.から変更内容までを含む変更情報を変更情報ファイル133に登録し(ステップS126)、ステップS120からの処理を繰り返す。ステップS125の判別処理において、「OK」ボタンBT2は操作されていないと判別したしたときには、制御部100は、図10に示した変更情報の表示画面において、「消去」ボタンBT1が操作されたか否かを判別する(ステップS127)。   Thereafter, the control unit 100 determines whether or not the “OK” button BT2 is operated on the change information display screen illustrated in FIG. 10 (step S125). When it is determined in the determination process in step S125 that the “OK” button BT2 has been operated, the control unit 100 determines whether the management No. To the change information file 133 is registered in the change information file 133 (step S126), and the processing from step S120 is repeated. When it is determined in the determination process in step S125 that the “OK” button BT2 has not been operated, the control unit 100 determines whether or not the “delete” button BT1 has been operated on the change information display screen shown in FIG. Is determined (step S127).

ステップSステップS127の判別処理において、「消去」ボタンBT1が操作されたと判別したしたときには、制御部100は、表示した変更情報を消去して、入力された変更内容を破棄し(ステップS128)、この後、ステップS120からの処理を繰り返す。また、ステップS127の判別処理において、「消去」ボタンBT1は操作されていないと判別したしたときには、制御部100は、ステップS124からの処理を繰り返し、変更情報についての修正を受け付ける。   When it is determined in the determination process of step S127 that the “delete” button BT1 is operated, the control unit 100 deletes the displayed change information and discards the input change content (step S128). Thereafter, the processing from step S120 is repeated. If it is determined in the determination process in step S127 that the “erase” button BT1 is not operated, the control unit 100 repeats the process from step S124, and accepts correction of the change information.

また、上述したステップS121の判別処理において、ステップS120において受け付けた操作入力が変更箇所の位置指示ではないと判別したときには、制御部100は、「変更なし」を指示する所定の操作が行われたか否かを判別する(ステップS129)。ステップS129の判別処理において、「変更なし」を指示する所定の操作が行われたと判別したとする。この場合、制御部100は、ステップS113〜ステップS115の処理により取得した情報から図2に示した形式の画像データファイルを形成し、これを過去画像DB132に更新する処理を行う(ステップS130)。このステップS130においては、撮影位置、撮影方向が同じ過去の画像データファイルに替えて、今回形成した画像データファイルを登録することになる。また、ステップS129の判別処理において、「変更なし」を指示する所定の操作は行われていないと判別したときには、制御部100は、ステップS120からの処理を繰り返す。   Also, in the determination process of step S121 described above, when it is determined that the operation input received in step S120 is not a change location position instruction, the control unit 100 has performed a predetermined operation instructing “no change”. It is determined whether or not (step S129). Assume that in the determination processing in step S129, it is determined that a predetermined operation instructing “no change” has been performed. In this case, the control unit 100 forms an image data file in the format shown in FIG. 2 from the information acquired by the processes in steps S113 to S115, and performs a process of updating this to the past image DB 132 (step S130). In step S130, the image data file formed this time is registered in place of the past image data file having the same shooting position and shooting direction. If it is determined in the determination process in step S129 that the predetermined operation for instructing “no change” is not performed, the control unit 100 repeats the process from step S120.

このようにして、地図の当該調査地において、過去に撮影した画像と今回撮影した画像において、それらの画像に含まれる文字情報の内容や表示位置を比較し、地図情報に変更が生じた場所を特定して、その場所を調査することができる。   In this way, in the survey area of the map, in the image captured in the past and the image captured this time, the contents and display positions of the character information included in those images are compared, and the location where the map information has changed is determined. You can identify and investigate the location.

なお、過去の画像が建築計画のお知らせ看板の画像であり、今回の画像が例えば完成した建築物の画像であったとする。この場合には、文字情報の内容や表示位置を比較しても意味が無い。そこで、図5に示したステップS119では、例えば、図11に示すように、表示画面123Gの上半分には建築計画のお知らせ看板の画像を表示し、表示画面123Gの下半分には現在の画像(新たに建築された建築物の画像)を表示する。そして、表示画面123Gの下半分に表示される現在の画像に対しては、新たな建築物が完成し、調査が必要であることのコメント表示を行う。この場合には、図8、図9に示した差異表示とは異なるが、現在の画像中に存在する建築物については、調査が必要であることが一目瞭然となる。なお、図11の上段には説明を簡単にするため、詳細情報の記載の無い建築計画のお知らせ看板のサンプル画像を示している。   It is assumed that the past image is an image of an architectural plan notice signboard and the current image is, for example, an image of a completed building. In this case, it is meaningless to compare the contents of character information and the display position. Therefore, in step S119 shown in FIG. 5, for example, as shown in FIG. 11, the image of the notice board of the architectural plan is displayed on the upper half of the display screen 123G, and the current image is displayed on the lower half of the display screen 123G. (Image of newly constructed building) is displayed. Then, for the current image displayed in the lower half of the display screen 123G, a comment is displayed indicating that a new building is completed and investigation is necessary. In this case, although it is different from the difference display shown in FIGS. 8 and 9, it becomes obvious at a glance that the building existing in the current image needs to be investigated. In addition, in order to simplify the explanation, a sample image of a notice board for an architectural plan without detailed information is shown in the upper part of FIG.

[実施の形態の効果]
上述した実施の形態の地図調査装置1を用いることによって、地図情報に変化が生じた箇所を明確に示すことができる。これにより、調査員の見落としなどを生じさせることがない。すなわち、調査員が行う地図調査を強力に支援することができる。また、地図情報に変更が生じていた箇所についての変更情報は、電子データとして地図調査装置1に入力して蓄積することができる。従って、地図調査装置1に蓄積された電子データの変更情報に基づいて、地図情報を最新の状態に更新することができるので、地図の更新作業の負荷も軽減することができる。
[Effect of the embodiment]
By using the map survey device 1 according to the above-described embodiment, it is possible to clearly indicate the location where the map information has changed. This will not cause any oversight of the investigator. That is, it is possible to strongly support the map survey conducted by the researcher. Moreover, the change information about the location where the map information has been changed can be input and stored in the map survey device 1 as electronic data. Therefore, since the map information can be updated to the latest state based on the change information of the electronic data stored in the map survey device 1, the load of the map update work can be reduced.

[変形例等]
なお、上述した実施の形態においては、過去の撮影画像の文字情報と現在の撮影画像の文字情報とで内容や表示位置が異なる場合に、これを通知した。しかし、これに限るものではない。例えば、図11に示した建築計画のお知らせ看板を撮影し、その画像データを記憶保持している場合には、画像認識を行うことにより、少なくとも完成予定日と建築敷地の地名地番とを認識しておく。そして、当該完成予定日を経過した時点で、完成予定日と建築敷地の地名地番とを表示部123に表示して、再調査を促すこともできる。
[Modifications, etc.]
In the above-described embodiment, this is notified when the character information of the past photographed image and the character information of the current photographed image are different in content and display position. However, it is not limited to this. For example, when the signboard of the architectural plan shown in FIG. 11 is photographed and the image data is stored and held, at least the scheduled completion date and the place name / location number of the building site are recognized by performing image recognition. Keep it. Then, when the scheduled completion date has passed, the scheduled completion date and the place name / location number of the building site can be displayed on the display unit 123 to prompt a resurvey.

この場合には、過去の画像と現在の画像とも文字情報の比較ではなく、過去の画像に含まれる文字情報に基づく、調査タイミングや調査場所の通知である。当該機能は、制御部100の制御の下、報知処理部153と時間制御部120とが協働することにより実現できる。また、このような、調査タイミングや調査場所の通知は、建築計画のお知らせ看板の画像だけで可能となるものではない。例えば、種々の店舗の開店予定日の広告や看板、マンション等の広告看板などを撮影し、撮影した画像に含まれる文字情報を認識して、開店予定日や販売開始日になったら、当該画像と撮影場所を示す情報を表示して、再調査を行うことを促すなどのことが可能である。すなわち、撮影した画像情報を解析することにより得られる文字情報に基づいて、再調査が必要なタイミングや再調査が必要な場所を特定して調査員に通知することができる。   In this case, the past image and the current image are not a comparison of character information, but are a notification of an investigation timing and an investigation place based on the character information included in the past image. This function can be realized by the cooperation of the notification processing unit 153 and the time control unit 120 under the control of the control unit 100. Further, such notification of the survey timing and survey location is not possible only by the image of the notice signboard of the building plan. For example, after shooting advertisements and signboards for various stores, advertising billboards for condominiums, etc., recognizing character information contained in the captured images, It is possible to display information indicating the shooting location and prompt the user to conduct a re-survey. That is, based on the character information obtained by analyzing the captured image information, it is possible to identify the timing at which re-survey is necessary and the location where re-survey is necessary, and notify the investigator.

また、上述した実施の形態では、日本国内において地図調査を行う場合を例にして説明したが、世界各国において同様にして実現することができる。日本以外の国で実現する場合には、認識する文字情報の種類(言語)が異なるだけである。   In the above-described embodiment, the case where a map survey is performed in Japan has been described as an example. However, the embodiment can be similarly realized in various countries around the world. When realized in a country other than Japan, only the type (language) of recognized character information is different.

また、調査結果は、調査終了後において、会社等のコンピュータ装置にデジタルインターフェースを通じて転送することもできるし、定義のタイミングでインターネットを通じて、地図情報の更新処理を行うコンピュータなどに送信することもできる。   In addition, after the survey is completed, the survey result can be transferred to a computer device such as a company through a digital interface, or can be transmitted to a computer or the like that performs map information update processing through the Internet at a definition timing.

また、カメラ部は地図調査装置1に搭載されていなくてもよい。すなわち、カメラ部は、地図調査装置1に対してデジタルインターフェースなどにより接続可能な、いわゆる外付けのカメラモジュールであってもよい。   The camera unit may not be mounted on the map survey device 1. In other words, the camera unit may be a so-called external camera module that can be connected to the map research apparatus 1 through a digital interface or the like.

また、日本国内については、日本列島の上空に長時間とどまる準天頂軌道(quasi-zenith orbit)人工衛星である「みちびき」からの信号を活用することによって、GPSを用いた現在位置の測位もより正確に行うことが可能である。すなわち、地図調査の支援を信頼性高く行うことができる。   In Japan, it is possible to measure the current position using GPS by using signals from Michibiki, a quasi-zenith orbit satellite that stays over the Japanese archipelago for a long time. It can be done accurately. That is, the map survey support can be performed with high reliability.

[その他]
上述した実施の形態の記載からも分かるように、地図調査装置の抽出手段としての機能は、地図調査装置1の文字情報抽出部151が実現し、地図調査装置の比較手段としての機能は、地図調査装置1の比較処理部152が実現している。また、地図調査装置の表示手段としての機能は地図調査装置1の表示部123が実現し、また、地図調査装置の表示処理手段としての機能は、地図調査装置1の表示処理部122が実現している。また、地図調査装置の選択入力受付手段としての機能は、地図調査装置1のタッチパネル124やキー操作部121が実現し、地図調査装置の変更情報受付手段としての機能は、カメラ部127、マイクロホン128及び音声入力部129、タッチパネル124あるいはキー操作部121が実現している。また、地図調査装置の変更情報の記録媒体としての機能は、変更情報ファイル133が実現し、地図調査装置の変更情報の記録手段としての機能は制御部100が実現している。
[Others]
As can be seen from the description of the embodiment described above, the function as the extraction means of the map survey device is realized by the character information extraction unit 151 of the map survey device 1, and the function as the comparison means of the map survey device is the map The comparison processing unit 152 of the investigation device 1 is realized. Further, the display unit 123 of the map survey device 1 realizes the function as the display means of the map survey device, and the display processing unit 122 of the map survey device 1 realizes the function as the display processing means of the map survey device ing. Further, the function as the selection input receiving means of the map survey apparatus is realized by the touch panel 124 and the key operation unit 121 of the map survey apparatus 1, and the functions as the change information receiving means of the map survey apparatus are the camera section 127 and the microphone 128. The voice input unit 129, the touch panel 124, or the key operation unit 121 is realized. Further, the change information file 133 functions as a change information recording medium of the map survey device, and the control unit 100 realizes a function as a change information recording means of the map survey device.

また、地図調査装置の画像情報の記録媒体としての機能は、過去画像DB132が実現し、地図調査装置の画像情報の記録手段としての機能は制御部100が実現している。地図調査装置の報知処理手段としての機能は、地図調査装置1の報知処理部153が実現している。また、地図調査装置の撮像手段、測位手段、方位センサ、地図情報記憶手段、拡張現実処理手段としての各機能は、地図調査装置1のカメラ部127、GPS部142、センサ部141の方位センサ、地図DB131、拡張現実処理部154が実現している。また、地図調査装置の画像認識入力手段と、音声認識入力手段と、タイプ入力手段としての機能は、地図調査装置1のカメラ部127、マイクロホン128及び音声入力部129、タッチパネル124及び制御部100が実現している。   In addition, the past image DB 132 realizes the function of the map surveying apparatus as the image information recording medium, and the control unit 100 realizes the function of the map researching apparatus as the image information recording means. The function as the notification processing means of the map survey device is realized by the notification processing unit 153 of the map survey device 1. Each function as an imaging unit, a positioning unit, an orientation sensor, a map information storage unit, and an augmented reality processing unit of the map survey device includes a camera unit 127 of the map survey device 1, a GPS unit 142, an orientation sensor of the sensor unit 141, The map DB 131 and the augmented reality processing unit 154 are realized. In addition, the functions of the image recognition input unit, the voice recognition input unit, and the type input unit of the map survey apparatus are the functions of the camera unit 127, the microphone 128, the voice input unit 129, the touch panel 124, and the control unit 100 of the map survey apparatus 1. Realized.

また、図4、図5のフローチャートに示した処理は、この発明の地図調査装置で用いられる地図調査方法に対応するものである。また、図4、図5のフローチャートに応じた処理を実行するプログラムが、この発明の地図調査装置で実行される地図調査プログラムである。したがって、図4、図5に示した処理を実行するプログラムを形成し、これをタブレットPCに搭載して、当該タブレットPCにおいて実行可能にしておくことにより、この発明の地図調査装置を容易に実現することができる。   The processing shown in the flowcharts of FIGS. 4 and 5 corresponds to the map survey method used in the map survey device of the present invention. Moreover, the program which performs the process according to the flowchart of FIG. 4, FIG. 5 is a map investigation program performed with the map investigation apparatus of this invention. Therefore, the map survey device of the present invention can be easily realized by forming a program for executing the processing shown in FIGS. 4 and 5 and mounting the program on the tablet PC so that the program can be executed on the tablet PC. can do.

1…地図調査装置、100…制御部、101…CPU、102…ROM、103…RAM、104…CPUバス、110…記憶装置、111…送受信アンテナ、112…無線通信部、120…時間制御部、121…キー操作部、122…表示処理部、123…表示部、124…タッチパネル、125…音声出力部、126…スピーカ、127…カメラ部、128…マイクロホン、129…音声入力部、131…地図DB、132…過去画像DB、133…変更情報ファイル、141…センサ部、142…GPS部、143…GPSアンテナ、151…文字情報抽出部、152…比較処理部、153…報知処理部、154…拡張現実処理部   DESCRIPTION OF SYMBOLS 1 ... Map investigation apparatus, 100 ... Control part, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... CPU bus, 110 ... Memory | storage device, 111 ... Transmission / reception antenna, 112 ... Radio | wireless communication part, 120 ... Time control part, DESCRIPTION OF SYMBOLS 121 ... Key operation part, 122 ... Display processing part, 123 ... Display part, 124 ... Touch panel, 125 ... Audio | voice output part, 126 ... Speaker, 127 ... Camera part, 128 ... Microphone, 129 ... Voice input part, 131 ... Map DB 132 ... Past image DB, 133 ... Change information file, 141 ... Sensor unit, 142 ... GPS unit, 143 ... GPS antenna, 151 ... Character information extraction unit, 152 ... Comparison processing unit, 153 ... Notification processing unit, 154 ... Extension Reality processing department

Claims (7)

地図の調査地において撮影され、撮影位置と撮影方向とが対応付けられた新たな画像情報を解析し、当該新たな画像情報に含まれる文字情報を当該画像上の位置と共に抽出する抽出手段と、
撮影位置と撮影方向とが同じである過去の画像情報が存在する場合に、前記新たな画像情報から抽出された前記文字情報と当該過去の画像情報を解析することにより抽出された文字情報との内容及び画像上の位置とを比較する比較手段と、
比較の結果判明した差異部分を表示手段に表示する表示処理手段と、
前記差異部分の選択入力を受け付ける選択入力受付手段と、
選択された差異部分についての変更情報の入力を受け付ける変更情報受付手段と、
前記変更情報を変更箇所の位置情報に対応付けて、記録媒体に記録する記録手段と
を備えることを特徴とする地図調査装置。
Extraction means for analyzing new image information captured at a map survey location and associated with a shooting position and a shooting direction, and extracting character information included in the new image information together with a position on the image;
When past image information having the same shooting position and shooting direction exists, the character information extracted from the new image information and the character information extracted by analyzing the past image information A comparison means for comparing content and position on the image;
Display processing means for displaying the difference part found as a result of the comparison on the display means;
Selection input receiving means for receiving a selection input of the difference portion;
Change information receiving means for receiving input of change information for the selected difference portion;
A map survey apparatus comprising: a recording unit that records the change information in a recording medium in association with the position information of the changed part.
請求項1に記載の地図調査装置であって、
撮影位置と撮影方向とが同じである過去の画像情報が存在しない場合に、少なくとも前記新たな画像情報を所定の記録媒体に記録する画像情報記録手段を備えることを特徴とする地図調査装置。
The map survey device according to claim 1,
A map survey apparatus comprising image information recording means for recording at least the new image information on a predetermined recording medium when there is no past image information having the same shooting position and shooting direction.
請求項2に記載の地図調査装置であって、
前記所定の記録媒体に記録された前記画像情報を解析することにより抽出された文字情報に基づいて、再調査タイミングや再調査場所を報知する報知処理手段を備えることを特徴とする地図調査装置。
The map survey device according to claim 2,
A map survey apparatus comprising: a notification processing means for reporting a re-survey timing and a re-survey location based on character information extracted by analyzing the image information recorded on the predetermined recording medium.
請求項1、請求項2または請求項3のいずれかに記載の地図調査装置であって、
撮像手段と、
現在位置の測位手段と、
前記撮像手段による撮像方向を検出する方位センサと、
地図情報を記憶保持する地図情報記憶手段と、
前記撮像手段を通じて取り込むようにした映像に対して、前記測位手段により測位される現在位置と前記方位センサで検出された撮影方向とに基づいて、前記地図情報記憶手段に記憶されている地図に関する情報を、拡張現実技術を用いて付加して表示手段に表示する拡張現実処理手段と
を備えることを特徴とする地図調査装置。
A map survey device according to any one of claims 1, 2 or 3,
Imaging means;
A positioning method of the current position;
An orientation sensor for detecting an imaging direction by the imaging means;
Map information storage means for storing and holding map information;
Information relating to the map stored in the map information storage unit based on the current position measured by the positioning unit and the shooting direction detected by the azimuth sensor for the video captured through the imaging unit A map survey apparatus comprising: augmented reality processing means for adding and displaying on a display means using augmented reality technology.
請求項1、請求項2、請求項3または請求項4のいずれかに記載の地図調査装置であって、
前記変更情報受付手段は、画像認識入力手段と、音声認識入力手段と、タイプ入力手段とを備え、いずれかを選択して変更情報の入力を行うことを特徴とする地図調査装置。
A map survey device according to any one of claims 1, 2, 3, or 4,
The change information receiving means includes an image recognition input means, a voice recognition input means, and a type input means, and selects one of them to input change information.
抽出手段が、地図の調査地において撮影され、撮影位置と撮影方向とが対応付けられた新たな画像情報を解析し、当該新たな画像情報に含まれる文字情報を当該画像上の位置と共に抽出する抽出工程と、
撮影位置と撮影方向とが同じである過去の画像情報が存在する場合に、比較手段が、前記新たな画像情報から抽出された前記文字情報と当該過去の画像情報を解析することにより抽出された文字情報との内容及び画像上の位置とを比較する比較工程と、
表示処理手段が、比較の結果判明した差異部分を表示手段に表示する表示処理工程と、
選択入力受付手段を通じて、前記差異部分の選択入力を受け付ける選択入力受付工程と、
変更情報受付手段を通じて、選択された差異部分についての変更情報の入力を受け付ける変更情報受付工程と、
記録手段が、前記変更情報を変更箇所の位置情報に対応付けて、記録媒体に記録する記録工程と
を有することを特徴とする地図調査方法。
The extraction unit analyzes new image information that is shot at the map survey location and associates the shooting position with the shooting direction, and extracts character information included in the new image information together with the position on the image. An extraction process;
When there is past image information having the same shooting position and shooting direction, the comparison unit is extracted by analyzing the character information extracted from the new image information and the past image information. A comparison process for comparing the content of the character information and the position on the image;
A display processing step in which the display processing means displays the difference portion found as a result of the comparison on the display means;
A selection input receiving step of receiving a selection input of the difference portion through a selection input receiving means;
A change information receiving step for receiving input of change information about the selected difference portion through the change information receiving means;
And a recording step of recording the change information in a recording medium in association with the position information of the changed portion.
地図調査装置に搭載されたコンピュータが実行するプログラムであって、
抽出手段を通じて、地図の調査地において撮影され、撮影位置と撮影方向とが対応付けられた新たな画像情報を解析し、当該新たな画像情報に含まれる文字情報を当該画像上の位置と共に抽出する抽出ステップと、
撮影位置と撮影方向とが同じである過去の画像情報が存在する場合に、比較手段を通じて、前記新たな画像情報から抽出された前記文字情報と当該過去の画像情報を解析することにより抽出された文字情報との内容及び画像上の位置とを比較する比較ステップと、
表示処理手段を通じて、比較の結果判明した差異部分を表示手段に表示する表示処理ステップと、
選択入力受付手段を通じて、前記差異部分の選択入力を受け付ける選択入力受付ステップと、
変更情報受付手段を通じて、選択された差異部分についての変更情報の入力を受け付ける変更情報受付ステップと、
記録手段を通じて、前記変更情報を変更箇所の位置情報に対応付けて、記録媒体に記録する記録ステップと
を実行することを特徴とする地図調査プログラム。
A program executed by a computer mounted on a map survey device,
Through the extraction means, new image information that has been photographed at the map survey location and is associated with the photographing position and the photographing direction is analyzed, and character information included in the new image information is extracted together with the position on the image. An extraction step;
Extracted by analyzing the character information extracted from the new image information and the past image information through comparison means when there is past image information having the same shooting position and shooting direction. A comparison step for comparing the content of the character information and the position on the image;
A display processing step of displaying on the display means the difference portion found as a result of the comparison through the display processing means;
A selection input receiving step of receiving a selection input of the difference portion through a selection input receiving means;
A change information receiving step for receiving input of change information for the selected difference portion through the change information receiving means;
And a recording step of recording the change information in a recording medium in association with the position information of the changed portion through a recording means.
JP2012064666A 2012-03-22 2012-03-22 Map survey device, map survey method, and map survey program Active JP5718264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012064666A JP5718264B2 (en) 2012-03-22 2012-03-22 Map survey device, map survey method, and map survey program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012064666A JP5718264B2 (en) 2012-03-22 2012-03-22 Map survey device, map survey method, and map survey program

Publications (2)

Publication Number Publication Date
JP2013195863A JP2013195863A (en) 2013-09-30
JP5718264B2 true JP5718264B2 (en) 2015-05-13

Family

ID=49394844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012064666A Active JP5718264B2 (en) 2012-03-22 2012-03-22 Map survey device, map survey method, and map survey program

Country Status (1)

Country Link
JP (1) JP5718264B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6440391B2 (en) * 2014-07-07 2018-12-19 キヤノン株式会社 Image management apparatus and image management apparatus control method
JP2016133701A (en) * 2015-01-21 2016-07-25 株式会社Screenホールディングス Information providing system and information providing method
US10467284B2 (en) * 2015-08-03 2019-11-05 Google Llc Establishment anchoring with geolocated imagery
JP2017067834A (en) * 2015-09-28 2017-04-06 株式会社オプティム A taken image display device of unmanned aircraft, taken image display method, and taken image display program
JP7390910B2 (en) 2020-01-31 2023-12-04 株式会社日立製作所 Map generation device and method
WO2023238169A1 (en) 2022-06-06 2023-12-14 三菱電機株式会社 Information generation device, information output device, and information output method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000047578A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Map data base updating device
JP2000047579A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Map data base updating device
JP4600341B2 (en) * 2006-04-18 2010-12-15 日本電気株式会社 Mobile terminal device with camera

Also Published As

Publication number Publication date
JP2013195863A (en) 2013-09-30

Similar Documents

Publication Publication Date Title
JP5718264B2 (en) Map survey device, map survey method, and map survey program
JP4236372B2 (en) Spatial information utilization system and server system
US20080030580A1 (en) Command system, imaging device, command device, imaging method, command processing method, and program
EP2811418A1 (en) Information processing system and information processing method
TW201342900A (en) Portable information acquisition system
US20150269782A1 (en) Augmented reality display system, augmented reality information generating apparatus, augmented reality display apparatus, and server
CN102111526A (en) Information processing device and information processing method
KR101615504B1 (en) Apparatus and method for serching and storing contents in portable terminal
JP5315424B2 (en) Image display control apparatus and control method thereof
JP2017500614A (en) Indoor map construction apparatus and method using cloud points
JP7465856B2 (en) Server, terminal, distribution system, distribution method, information processing method, and program
CN113191117A (en) Editing method, device and equipment of electronic document and storage medium
JP2008225862A (en) System for picking-up construction photograph with electric blackboard and automatically preparing construction management ledger and program for use in the same
CN110457571B (en) Method, device and equipment for acquiring interest point information and storage medium
US9197768B2 (en) Cooperation system, mobile information device, cooperation processing method, and non-transitory computer-readable recording medium encoded with cooperation processing program
JP2006287435A (en) Information processing apparatus, system thereof, method thereof, program thereof, and recording medium with the program recorded thereon
JP4464780B2 (en) Guidance information display device
JP4085634B2 (en) Image display program
JP2004085239A (en) Position-certifying apparatus and work inspection reporting system
JP6268904B2 (en) Image processing apparatus, image processing method, and image processing program
US8411316B2 (en) Method and apparatus for printing images comprising individual information corresponding to face recognition information on second side of sheet of printing paper
JP2006209604A (en) Sign management system
KR100839815B1 (en) A system for recognizing and scanning the car number and a method thereof
KR101613355B1 (en) System for providing information using subject and method thereof
JP2008157661A (en) Navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150318

R150 Certificate of patent or registration of utility model

Ref document number: 5718264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250