JP2003302898A - Map analyzing device and program for realizing the same - Google Patents

Map analyzing device and program for realizing the same

Info

Publication number
JP2003302898A
JP2003302898A JP2002108675A JP2002108675A JP2003302898A JP 2003302898 A JP2003302898 A JP 2003302898A JP 2002108675 A JP2002108675 A JP 2002108675A JP 2002108675 A JP2002108675 A JP 2002108675A JP 2003302898 A JP2003302898 A JP 2003302898A
Authority
JP
Japan
Prior art keywords
map
image
information
analysis
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002108675A
Other languages
Japanese (ja)
Other versions
JP2003302898A5 (en
JP4032800B2 (en
Inventor
Nobuhiro Ishimaru
伸裕 石丸
Kazuaki Iwamura
岩村  一昭
Norio Tanaka
紀夫 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002108675A priority Critical patent/JP4032800B2/en
Publication of JP2003302898A publication Critical patent/JP2003302898A/en
Publication of JP2003302898A5 publication Critical patent/JP2003302898A5/ja
Application granted granted Critical
Publication of JP4032800B2 publication Critical patent/JP4032800B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a program for highly accurately analyzing a complex scene image pickup picture by adaptively using map data of various accuracy. <P>SOLUTION: The program for adaptively carrying out the optimum analysis in accordance with the accuracy or the difference in the accuracy of a map and a picture is realized by calling up 102 the scene image pickup picture 100 and the map 101, using the attribute information of the scene image pickup picture and the map to discriminate 103 the accuracy of the map to the picture, carrying out detailed shape analysis 104 when the map is discriminated to be high in accuracy, carrying out approximate shape analysis 105 when the map is discriminated to be low in accuracy, and outputting 106 the result of analysis. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、衛星画像や航空写
真など景観撮像画像を計算機により解析し目標物を検出
する方法、システム及びシステム実現のためのプログラ
ムに係り、特に、地図データを用いた解析処理に関わ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method, a system, and a program for realizing a system for detecting a target object by analyzing a landscape image such as a satellite image or an aerial photograph by a computer, and more particularly to using map data. Involved in analysis processing.

【0002】[0002]

【従来の技術】近年、1mを超える高解像度の衛星画像
が広く利用可能となり、小規模の地物や移動物体などに
関する情報の取得が、航空機のみならず衛星からも可能
となってきた。これら高解像度衛星の画像データは、計
算機による処理に適したデジタル形式で提供されるた
め、従来は人手で一つ一つ確認し膨大な手作業を要して
いた解析業務について、全自動解析など高次の作業支援
が期待されている。しかしながら、高解像度であること
により、情報量が豊富になる反面、物が見えすぎて非常
に複雑な画像になってしまう、という問題が明らかとな
ってきた。これを解決するアプローチの一つとして、画
像を単独で用いるのではなく、画像に関する知識として
地図情報を併用し、それら情報を総合して解析を行う、
という手法がある。例えば、地図図形やその属性情報を
用いれば、解析対象範囲を適切に絞り込むことができ、
注目領域内のみについて効率的な解析処理が可能とな
る。ここで、特に高解像度画像の解析においては、解析
に用いる地図データの精度が問題となる。例えば、一般
に利用可能な地図データの精度は、高解像度衛星画像な
どに対しては相対的に低い場合が多く、地図図形データ
の形状も概略的なものが多い。これをそのまま解析処理
に用いた場合、画像と地図の精度の差異により、注目領
域の境界付近において多数の誤検出が生じてしまう、と
いう問題があった。この問題を回避するため、図10に
示す従来の地図利用解析処理の例では、境界線地図を使
って解析対象範囲除外マスク1000を作成し、さらに
該マスク領域を拡張した拡大マスク1001を用いるこ
とで、誤検出を抑制した解析を行っていた。しかしなが
ら、業務上重要であることが多い「注目領域の境界付
近」1002が解析対象範囲から除外されてしまうた
め、ユーザーにとって最も興味がある部分の解析情報が
得られない、という利用上の問題があった。
2. Description of the Related Art In recent years, high-resolution satellite images of over 1 m have become widely available, and it has become possible to obtain information on small-scale features and moving objects not only from aircraft but also from satellites. The image data of these high-resolution satellites is provided in a digital format suitable for computer processing, so it is necessary to manually check each one and perform a huge amount of manual work. Higher work support is expected. However, it has become clear that the high resolution results in an abundance of information, but at the same time, an object is too visible to form a very complicated image. As one of the approaches to solve this, instead of using the image alone, map information is used together as knowledge about the image, and the information is comprehensively analyzed.
There is a method called. For example, if you use a map figure and its attribute information, you can narrow down the analysis target range appropriately,
It is possible to perform efficient analysis processing only within the attention area. Here, particularly in the analysis of high-resolution images, the accuracy of the map data used for the analysis becomes a problem. For example, the accuracy of generally available map data is often relatively low for high-resolution satellite images, etc., and the shape of map graphic data is often schematic. If this is used for the analysis process as it is, there is a problem that many erroneous detections occur near the boundary of the attention area due to the difference in accuracy between the image and the map. In order to avoid this problem, in the example of the conventional map use analysis process shown in FIG. 10, an analysis target range exclusion mask 1000 is created using a boundary map, and an enlarged mask 1001 in which the mask region is expanded is used. Therefore, the analysis was performed with suppressed false detection. However, since the “near the boundary of the attention area” 1002, which is often important in business, is excluded from the analysis target range, there is a problem in use that the analysis information of the portion most interesting to the user cannot be obtained. there were.

【0003】[0003]

【発明が解決しようとする課題】本発明では、上記の問
題を解決するため、様々な精度の地図データを適応的に
用いて、複雑な景観撮像画像を高精度に解析処理する地
図利用画像解析方法、システム及び該システム実現のた
めのプログラムを提供することを目的とする。
SUMMARY OF THE INVENTION In order to solve the above problems, the present invention adaptively uses map data of various accuracies to analyze a complex landscape image with high accuracy and uses a map-based image analysis. It is an object to provide a method, a system, and a program for realizing the system.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するた
め、本願開示の発明の概要を説明すれば、取得した景観
撮像画像の範囲の地図を記憶手段から呼び出し、該地図
の属性情報と該画像の属性情報を用いて地図精度を判定
した結果によって、以降の処理を制御する地図解析方法
を開示する。より具体的には上記判定結果が高精度の場
合には該地図と該画像を用いて詳細形状解析処理を行
い、上記判定結果が低精度の場合には該地図と該画像を
用いて概略形状解析処理を行い、上記解析処理の結果を
出力手段に出力させることを特徴とする。
In order to achieve the above object, the outline of the invention disclosed in the present application will be described. The map of the acquired range of the captured image is called from the storage means, and the attribute information of the map and the image are acquired. Disclosed is a map analysis method for controlling the subsequent processing according to the result of determining the map accuracy using the attribute information of. More specifically, when the determination result is high precision, detailed shape analysis processing is performed using the map and the image, and when the determination result is low precision, the rough shape is used using the map and the image. An analysis process is performed, and the result of the analysis process is output to the output means.

【0005】[0005]

【発明の実施の形態】以下、本発明の一実施形態につい
て図面を参照しながら詳細に説明する。図1は、本発明
の一実施形態における処理手順の例を示す図である。所
定の方法により解析処理の対象となる画像データ100
を取得し、その属性情報などから画像の範囲を特定す
る。また、記憶手段に管理される地図データ101とそ
の属性情報などから該画像範囲の地図データを呼び出す
102。ここで、場合によっては同一地域に複数の地図
データが存在する場合があるが、地図属性情報の参照に
より最高精度または最新の地図データを自動選択した
り、あるいはユーザー指定により選択するなどして、注
目領域を特定するのに最も適した地図データを呼び出
す。次に画像の属性情報と地図の属性情報を用いて、画
像データに対する地図データの精度を判定する103。
精度判定の結果、地図データが画像データの精度と比較
して十分高精度であった場合には詳細形状解析処理10
4を実行し、地図データが画像データの精度と比較して
低精度であった場合には概略形状解析処理105を実行
する。最後に、得られた解析結果を出力手段に出力処理
する106。以上の処理手順により、小縮尺の低精度地
図や、大縮尺またはユーザーが整備した高精度地図、あ
るいは様々な解像度の画像など、解析に用いる地図と画
像の精度やそれらの差異に応じて最適な処理を適応的に
処理できる。つまり、高精度地図を用いた場合には、そ
の地図図形の詳細な形状をマスクとして目標物検出処理
を行うことができる。また、低精度地図をマスクとして
用いた場合には、実用上重要な境界付近で発生する誤検
出の可能性を考慮して、ユーザーの適切な判断を促す情
報を検出結果と合わせて提供できる。すなわち、多様な
精度の地図利用においても、信頼性の高い解析結果提示
が可能となる。ここで、地図データの精度判定方法の例
について説明する。地図の精度判定に利用できる属性情
報としては、精度指標(位置精度、縮尺)、信頼度(格
付け、ユーザーが該地図データの信頼性を確認して付与
した高信頼確認済みフラグ情報)、などがある。中で
も、信頼度の格付け評価においては地図データの作成や
修正に関する情報が重要であり、作業者または作業機
関、時間情報(最新、古い)、作成または修正の方法
(ユーザー自身による手入力、既存地図データベースの
コピー、紙地図の読み込み)、などを判定材料とするこ
とができる。また、画像の精度を示す属性情報として
は、精度指標(解像度、位置精度)、撮影情報(撮影機
関、撮影日時)、などがある。これらの属性情報を総合
して精度判定する方法としては、地図と画像の精度指標
を比較する定量的評価、あるいは「信頼度がAランク」
といった定性的評価、など様々な方法が考えられる。特
に、「ユーザー自身が入力または修正した地図データは
信頼できる」などの前提により作業者や作業機関を定性
的評価することで、ユーザーが整備運用する画像解析用
地図データベースを優先して判定することもできる。こ
れらの判定により、地図データや画像データの内容、あ
るいはユーザーの業務形態に即した処理機能を適応的に
選択実行することが可能となる。以下、解析処理の内容
について具体的に説明する。なお、以下では、海岸線地
図データを用いて画像上の海域を注目領域として特定
し、そこから目標物である船舶を検出して船舶交通状況
を把握する解析プログラムを例に説明するが、本発明は
この実施形態に限定されるものではない。これ以外に
も、道路、行政界、土地利用などの地図を用いたり、車
両や航空機などの移動物体、地物や特定の自然現象の検
出など、様々な用途に利用できる。図2は、本発明の一
実施形態における詳細形状解析処理の例を示す図であ
る。図2(a)の画像は、注目領域である海域200と
陸域201、その境界である海岸線202が撮影された
画像の例である。ここに撮影されている接岸停泊中の船
舶203や突堤204、沖合いの船舶205を正しく解
析するには、注目領域である海域200を正しく特定す
る必要がある。ここで、高精度の海岸線地図210を用
いた詳細形状解析処理によれば、図2(b)に示すよう
に、注目領域である海域211のみを解析範囲とするこ
とで、突堤212や陸域中のノイズを除外し、接岸船舶
213や沖合い船舶214を正しく検出できる。すなわ
ち、高精度地図を用いて画像を解析する場合は、地図境
界に近接する目標物の検出など、詳細な解析処理が可能
となる。また、上述の図2(b)は、検出した目標物の
情報を画像または地図上の検出位置に出力する出力処理
の一例である。これにより、視認性の高い解析処理結果
提示ができる。図3は、本発明の一実施形態における概
略形状解析処理の例を示す図である。上述した地図精度
判定処理の結果、注目領域の地図が低精度であった場
合、以下の概略形状解析処理を実行する。すなわち、図
3(a)に示す画像を解析するにあたり、図3(b)に
示すような低精度の海岸線地図300により、概略的な
海域301を特定する。これを注目領域として解析処理
した場合、微細な誤検出302や接岸船舶303、突堤
304、海岸線に沿った長い誤検出305、沖合い船舶
306、などが検出される結果となる。詳細な地図を用
いた場合との顕著な差として、地図境界付近において誤
検出が生じてしまい、それら一部の誤検出により解析情
報全体としての信頼性が低下してしまう、という問題が
ある。そこで、本発明では、これら境界付近の解析結果
に対し、境界付近で検出された旨を示すフラグ情報を付
与し、解析情報の信頼性を向上させる。図3(c)は、
該フラグ情報の付与された境界付近検出結果310〜3
13について、誤検出の可能性があることを示すマー
ク、例えば「▲」を表示し、逆に誤検出の可能性が低い
沖合い船舶306については該マーク表示しないことに
より、ユーザーの注意を喚起する表示出力の例である。
本フラグ情報を参照することで、ユーザーは検出結果の
信頼性に関して適切な判断を行うことができ、目視確認
すべき検出結果を絞り込むなど、作業の効率化が可能と
なる。図4は、本発明の一実施形態における地図境界付
近における誤検出の除去処理の例を示す図である。これ
は、上述したフラグ情報の参照により、境界付近で検出
された誤検出を効率的に除去し、解析の精度を向上させ
るものである。例えば、図4(a)に示す低精度地図4
00を用いた解析処理では、沖合い船舶404などは正
しく解析できるが、注目領域の境界付近では、一部陸域
を含む船舶401、船舶の一部402、陸域403、と
いった様々な誤検出が生じてしまう。そこで、上記フラ
グ情報の付与された目標物、すなわち誤検出の可能性が
ある陸域境界付近の検出結果についてのみ、誤検出であ
るか否かを詳細に検証する解析判定処理を適用する。こ
れにより、船舶を含む検出結果410や部分船舶411
は採用し、陸域412は除外するなど、解析の精度を向
上させることができる。また、図4(b)に示すよう
に、上記船舶については「▲」マーク、沖合い船舶41
3は「●」マークなどと区別して表示することで、高信
頼かつ視認性の高い解析情報提示が可能となる。これに
より、上記フラグ情報を単なるユーザーへの情報提供手
段にとどめず、解析処理に活用して解析精度を向上させ
ることができる。さらに、境界付近の検出結果に絞って
詳細な解析判定処理を行うため、全ての検出結果につい
て同様の処理を行う場合に比べ、高精度の解析処理を高
速に実行することができる。ここで、上記解析判定処理
には様々な手法が考えられるが、目標物の形状などの知
識がある場合、それをテンプレートとして判定する方法
が考えられる。例えば、船舶形状テンプレートを作成し
て検出目標物に当てはめ、その一致度が高ければ船舶、
低ければ誤検出、などと評価できる。これにより、図4
(c)の陸域誤検出420の例では、一致度が低いた
め、誤検出として除外できる。また、図4(d)の部分
船舶は、低精度地図400により船体の中央で分断され
ているが、テンプレートと部分的に一致する個所421
があるため、注目領域の外側すなわち陸域マスク内側の
領域422と合わせて船舶と判定した例である。また、
図4(e)の一部陸域を含む船舶は、テンプレートと一
致する部分を船舶423として採用し、残りの陸域42
4をノイズとして除去した例である。概略形状解析処理
において、フラグの判定により境界付近で検出された目
標物を特定し、該検出目標物について詳細な解析判定処
理を行い、境界付近の誤検出を抑制することを特徴とす
ることで、低精度地図を利用した場合でも、境界付近の
誤検出を抑制しつつ、高速な解析処理が実現できる。図
5は、本発明の一実施形態における低精度地図の補正処
理の例を示す図である。ここでは、上記概略形状解析処
理における前処理として、地図と画像の精度判定内容を
参照した照合処理により、低精度地図データを補正する
例について説明する。まず、図5(a)に示すような低
精度地図500について、その属性情報と画像属性情報
における精度情報の判定により、照合処理範囲501を
特定する。例えば、地図データの位置誤差を10m、画
像の解像度を1m、画像の位置誤差を5mとすると、±
(10m/1m+5m/1m)などの計算により照合処
理範囲を±15画素と特定できる。また、照合処理の方
法としては、例えばエッジ解析画像を用いたマッチング
処理などが利用できる。すなわち、まずマッチングを行
う地図図形の線分を選択し、その線分を中心に上記照合
処理範囲内のエッジ解析画像を作成し、該線分と該エッ
ジ解析画像上におけるエッジの強度、向き、長さなどを
考慮したマッチング一致度が高い場所を選び、それを補
正線分候補とする。図5(b)に示した例では、地図上
辺については補正線分候補510が一つしかないため、
これを補正済み地図とする。また、地図右辺について
は、目標物511などのノイズにより、目標物右側の補
正線分候補512、目標物左側の補正線分候補513、
真の境界である補正線分候補514、など複数の候補が
得られるが、最もマッチング一致度の高い補正線分候補
514を選択し、補正済み地図520とする。これらに
より、様々な精度の低精度地図データについて、画像と
の精度の差異を考慮して適切に補正処理できる。また、
該補正済み地図520を用いて境界付近を解析処理する
ことで、解析の精度を向上させることができる。すなわ
ち、補正前でも検出が容易であった目標物521だけで
なく、低精度地図そのままでは正しく検出できなかった
目標物522なども検出できるようになる。また、上記
の処理により得られた補正済み地図については、補正処
理内容などの属性情報と合わせて、記憶手段に格納保存
する。属性情報としては、作業者名やその所属機関、補
正処理を行った日時、補正に用いた画像データの解像度
など、上記地図精度判定処理において高精度地図である
と判定できる情報を付与する。これにより、補正済み地
図を高精度地図データであるとして、詳細形状解析処理
に適用することができる。すなわち、解析処理の繰り返
しにより、低精度地図を高精度地図として再利用してい
く学習機能を備えた解析プログラムを実現することがで
きる。また、補正処理内容を確認する機能や、必要に応
じて追加修正入力などを行うユーザー・インターフェイ
スを設けて、補正処理の信頼性を向上させてから格納し
ても良い。画像属性情報と地図属性情報を参照して画像
と低精度地図を照合し、該照合結果を用いて該低精度地
図の位置または形状を補正し、さらに該補正済み地図と
その属性情報を記憶手段に記憶することを特徴とする以
上の処理により、低精度地図を補正でき、それを用いる
ことで高精度の解析処理が可能となる。また、適切な属
性情報を合わせて格納することで、補正した地図を高精
度地図として次回以降の解析時に再利用できる。図6
は、本発明の一実施形態における簡易地図作成利用によ
る概略形状解析処理の例を示す図である。上記の領域地
図取得処理において地図取得に失敗した場合、地図を用
いないで解析する必要がある。しかしながら、そのまま
画像全体を解析処理した場合、多数の陸域ノイズを誤検
出してしまうことがあり、その適切な抑制が必要とな
る。ここで、注目領域の輝度や形状などの特徴を考慮し
て画像を解析することで、領域の概略形状を抽出できる
場合がある。例えば、図6に示すように注目領域を海域
とすると、一般に画像を領域分割して輝度が暗く広い領
域を抽出するなどの処理により、海域の大まかな形状を
得ることができる。これを簡易地図作成機能とし、得ら
れた形状を簡易地図600として上記の概略形状解析処
理に適用することで、注目領域601を特定でき、海域
中の船舶602を検出することができる。すなわち、境
界付近の目標物203などについては検出できないもの
の、陸域の誤検出を一括して抑制できる。これにより、
地図の存在しない領域であっても、同一構成のプログラ
ムを用いた解析処理が可能となり、信頼性の高い解析情
報が得られる。また、上記補正処理により、地図精度を
向上させてから解析に利用することもできる。図7は、
本発明の一実施形態における出力処理の例を示す図であ
る。上述した検出目標物情報を画像または地図上の検出
位置に出力する例以外にも、様々な出力方法が考えられ
る。例えば、図7(a)は、検出した目標物の情報を一
覧表として出力する例700である。検出処理において
検出された目標物についてその形状、付与された境界付
近検出フラグや属性情報などを併用することで、解析処
理結果をまとめたカタログ情報などとして出力できる。
また、図7(b)は、検出した目標物に関するドキュメ
ントを出力する例701である。業務直結型のドキュメ
ントや解析結果の要約情報など、ユーザーにとって利用
しやすい形式として出力できる。これら効果的な解析情
報の提示により、ユーザー業務の効率向上を支援できる
プログラムを実現できる。図8は、本発明の一実施形態
における目標物検出処理の例を示す図である。定期的ま
たは不定期に更新あるいは追加される画像データを用い
て、自動またはユーザーの指示に応じて画像を取得し解
析処理を実行することにより、広域に渡る注目領域から
目標物を検出する解析業務が可能となる。このような解
析業務においては、処理結果を適切なタイミングで効果
的にユーザーへ通知することが重要である。図8(a)
は通知インターフェイスをユーザー端末上に表示出力す
る例800である。これにより、解析プログラムを実行
している端末にユーザーが向かっていない間も目標物検
出処理を継続し、ユーザーが端末に向かった際に検出し
た旨を通知することができる。また、サウンド出力やラ
ンプ点灯など各種出力デバイスを用いてユーザーの注意
を喚起したり、ネットワークを通じて接続されたユーザ
ー端末にインターフェイスを表示出力しても良い。図8
(b)はメールを用いてユーザーへの通知を行う例80
1である。これにより、緊急度の高い検出情報の即時通
知や、遠方または複数のユーザーへの情報提供も可能と
なる。また、メール以外にも電話またはFAXなどを組
み合わせて用いることで、ネットワークに接続されてい
ないユーザーに迅速に通知することもできる。図8
(c)は作業記録の出力例802である。特に自動検出
処理では、目標物が検出されなかった場合にはユーザー
への通知を行わず、必要に応じて参照できる形式の作業
記録を出力して、解析処理を終了できる。さらに、目標
物が検出された場合にも作業記録を残すことで、一貫し
た記録情報を作成することもできる。また、注目領域は
あらかじめ設定しておいたり、入力された画像に合わせ
て自動で設定しても良いが、特に画像に合わせて注目領
域を自動設定した検出処理にて目標物を検出した際など
には、検出位置あるいは注目領域を含め詳細に情報提示
することで、効果的な通知が可能となる。また、上述の
一覧表やドキュメントを通知に用いても良い。このよう
に定期的または不定期に更新または追加される景観撮像
画像を取得し、該画像上の注目領域またはその境界付近
において目標物を検出した場合には検出情報をユーザー
に通知し、目標物を検出しなかった場合には作業記録を
出力する。これにより、これまでユーザーが人手で確認
作業していた広域に渡る目標物の検出業務について、そ
の作業支援が可能となる。図9は、本発明の一実施形態
における画像解析システムの例を示す図である。上記し
た処理を行うプログラムを計算機に搭載することで、画
像解析システム900として利用できる。システムには
画像データベース901や地図データベース902など
を接続し、それらより適切な範囲の解析データを取得す
るデータ取得処理部903と、それらデータを用いて解
析処理を行うデータ解析処理部904と、その解析結果
を出力処理するデータ出力処理部905からなる。さら
にデータ解析処理部904は、上記地図精度判定処理を
行う精度判定処理部906と、上記詳細形状解析処理を
行う詳細形状解析処理部907と、上記概略形状解析処
理を行う概略形状解析処理部908により構成される。
これら処理を実行するには、ユーザーの解析データ指示
操作や新規画像データ追加などのイベントに応じた自動
的起動などにより、データ取得処理部903を起動すれ
ば良い。また、上記システムをサーバとして解析処理結
果を配信する解析情報配信サービスや、さらには解析プ
ログラム自体をネットワーク配信する解析プログラム配
信サービスなどの実施形態も可能である。これらによ
り、本発明を様々な形態または目的の業務に適用でき
る。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a diagram showing an example of a processing procedure in an embodiment of the present invention. Image data 100 to be analyzed by a predetermined method
Is acquired and the range of the image is specified from the attribute information and the like. Further, the map data of the image range is called 102 from the map data 101 managed by the storage means and its attribute information. Here, depending on the case, there may be multiple map data in the same area, but the highest precision or the latest map data is automatically selected by referring to the map attribute information, or selected by the user. Recall the map data most suitable for identifying the area of interest. Next, using the image attribute information and the map attribute information, the accuracy of the map data with respect to the image data is determined 103.
As a result of the accuracy determination, if the map data is sufficiently accurate as compared with the accuracy of the image data, the detailed shape analysis processing 10
4 is executed, and if the map data has a lower accuracy than the accuracy of the image data, the rough shape analysis processing 105 is executed. Finally, the obtained analysis result is output to the output means 106. With the above processing procedure, small scale low precision maps, large scale or user-maintained high precision maps, images of various resolutions, etc. can be optimized according to the accuracy of the map and images used for analysis and their differences. The processing can be adaptively processed. That is, when a high-precision map is used, the target object detection process can be performed using the detailed shape of the map figure as a mask. In addition, when the low-precision map is used as a mask, the information that prompts the user to make an appropriate judgment can be provided together with the detection result in consideration of the possibility of erroneous detection that occurs near the boundary that is practically important. That is, it is possible to present highly reliable analysis results even when using maps with various accuracies. Here, an example of a method for determining the accuracy of map data will be described. The attribute information that can be used for determining the accuracy of the map includes accuracy index (positional accuracy, scale), reliability (rating, high-confidence-confirmed flag information given by the user after confirming the reliability of the map data), and the like. is there. Above all, information about the creation and modification of map data is important in the rating evaluation of reliability, and the worker or work organization, time information (latest, old), method of creation or modification (manual input by the user, existing map). A copy of the database, reading of a paper map), etc. can be used as the judgment material. Further, as the attribute information indicating the accuracy of the image, there are an accuracy index (resolution, position accuracy), shooting information (shooting organization, shooting date and time), and the like. As a method for determining the accuracy by integrating these attribute information, quantitative evaluation comparing the accuracy index of the map and the image, or "the reliability is A rank"
Various methods such as qualitative evaluation can be considered. In particular, by prioritizing the image analysis map database maintained and operated by the user by qualitatively evaluating the workers and the work organization based on the premise that "the map data entered or modified by the user is reliable". You can also By these determinations, it becomes possible to adaptively select and execute the processing function according to the contents of the map data or the image data, or the business form of the user. The contents of the analysis process will be specifically described below. In the following description, an analysis program for identifying a sea area on an image as a region of interest using coastline map data, detecting a target ship from the region and grasping the ship traffic situation will be described as an example. Is not limited to this embodiment. In addition to this, it can be used for various purposes such as using maps of roads, administrative fields, land use, etc., detecting moving objects such as vehicles and aircraft, detecting features and specific natural phenomena. FIG. 2 is a diagram showing an example of the detailed shape analysis processing according to the embodiment of the present invention. The image in FIG. 2A is an example of an image in which the sea area 200 and the land area 201 that are the attention areas and the coastline 202 that is the boundary between the sea area 200 and the land area 201 are photographed. In order to correctly analyze the ship 203 docked at the berth, the jetty 204, and the ship 205 offshore, it is necessary to correctly specify the sea area 200 that is the attention area. Here, according to the detailed shape analysis processing using the high-accuracy coastline map 210, as shown in FIG. 2B, by setting only the sea area 211, which is the attention area, as the analysis area, the jetty 212 and the land area The inside noise can be excluded, and the berthing ship 213 and the offshore ship 214 can be correctly detected. That is, when an image is analyzed using a high-precision map, detailed analysis processing such as detection of a target object near the map boundary becomes possible. Further, FIG. 2B described above is an example of an output process of outputting the information of the detected target object to the detection position on the image or the map. This makes it possible to present the analysis processing result with high visibility. FIG. 3 is a diagram showing an example of a schematic shape analysis process according to the embodiment of the present invention. As a result of the above-described map accuracy determination processing, when the map of the attention area has low accuracy, the following rough shape analysis processing is executed. That is, in analyzing the image shown in FIG. 3A, the rough sea area 301 is specified by the low-precision coastline map 300 as shown in FIG. 3B. When this is processed as an attention area, fine misdetection 302, berthing ship 303, jetty 304, long misdetection 305 along the coastline, offshore ship 306, etc. are detected. As a remarkable difference from the case where a detailed map is used, there is a problem that erroneous detection occurs near the map boundary, and the erroneous detection of a part thereof reduces the reliability of the analysis information as a whole. Therefore, in the present invention, flag information indicating that detection is performed near the boundary is added to the analysis results near the boundary to improve the reliability of the analysis information. Figure 3 (c) shows
Boundary vicinity detection results 310 to 3 to which the flag information is added
A mark indicating that there is a possibility of false detection, such as “▲”, is displayed for No. 13, and conversely, the mark is not displayed for the offshore vessel 306 that has a low possibility of false detection, so that the user's attention is drawn. It is an example of display output.
By referring to this flag information, the user can make an appropriate judgment regarding the reliability of the detection result, and the work efficiency can be improved by narrowing down the detection result to be visually confirmed. FIG. 4 is a diagram showing an example of a false detection removal process in the vicinity of a map boundary according to the embodiment of the present invention. This is to improve the accuracy of the analysis by efficiently removing the false detection detected near the boundary by referring to the above-mentioned flag information. For example, the low-precision map 4 shown in FIG.
In the analysis processing using 00, the offshore vessel 404 and the like can be correctly analyzed, but various false detections such as the vessel 401 including a part of the land area, the part of the vessel 402, and the land area 403 can be performed near the boundary of the attention area. Will occur. Therefore, only the detection result of the target to which the flag information is added, that is, the detection result in the vicinity of the land boundary where there is a possibility of erroneous detection, is applied the analysis determination processing for verifying in detail whether or not the erroneous detection. As a result, the detection result 410 including the ship and the partial ship 411
Is adopted and the land area 412 is excluded, so that the accuracy of the analysis can be improved. In addition, as shown in FIG. 4 (b), the “▲” mark indicates that the above-mentioned ship is an offshore ship 41.
3 is displayed separately from the “●” mark or the like, so that highly reliable and highly visible analysis information can be presented. As a result, the flag information is not limited to merely providing information to the user, but can be utilized in analysis processing to improve analysis accuracy. Furthermore, since detailed analysis determination processing is performed focusing on the detection result near the boundary, it is possible to perform high-precision analysis processing at high speed as compared with the case where the same processing is performed for all detection results. Here, various methods are conceivable for the analysis determination processing, but if there is knowledge of the shape of the target object, a method of determining it as a template is conceivable. For example, if you create a vessel shape template and apply it to a detected target, and the degree of agreement is high,
If it is low, it can be evaluated as false detection. As a result, FIG.
In the example of the land area false detection 420 of (c), since the degree of coincidence is low, it can be excluded as an false detection. Further, the partial ship of FIG. 4D is divided at the center of the hull by the low-precision map 400, but a part 421 that partially matches the template.
Therefore, in this example, the area is determined to be a ship together with the area 422 outside the attention area, that is, inside the land mask. Also,
A ship including a part of the land area in FIG. 4E adopts a part matching the template as the ship 423, and the remaining land area 42.
In this example, 4 is removed as noise. In the rough shape analysis process, the target object detected near the boundary is identified by the flag determination, the detailed analysis determination process is performed on the detected target object, and erroneous detection near the boundary is suppressed. Even when a low-precision map is used, high-speed analysis processing can be realized while suppressing erroneous detection near the boundary. FIG. 5 is a diagram showing an example of correction processing of a low-precision map according to the embodiment of the present invention. Here, an example in which low-precision map data is corrected by a collation process that refers to the accuracy determination contents of a map and an image will be described as a pre-process in the above-described rough shape analysis process. First, with respect to the low precision map 500 as shown in FIG. 5A, the matching processing range 501 is specified by determining the precision information in the attribute information and the image attribute information. For example, if the map data position error is 10 m, the image resolution is 1 m, and the image position error is 5 m, ±
The collation processing range can be specified as ± 15 pixels by calculation such as (10 m / 1 m + 5 m / 1 m). Further, as the matching processing method, for example, matching processing using an edge analysis image can be used. That is, first, a line segment of a map figure to be matched is selected, an edge analysis image within the collation processing range is created centering on the line segment, and the strength and direction of the edge on the line segment and the edge analysis image, Select a location with a high degree of matching agreement in consideration of the length, etc., and use it as the correction line segment candidate. In the example shown in FIG. 5B, since there is only one correction line segment candidate 510 on the upper side of the map,
This is the corrected map. On the right side of the map, due to noise from the target object 511 or the like, correction line segment candidates 512 on the right side of the target object, correction line segment candidates 513 on the left side of the target object,
Although a plurality of candidates such as the correction line segment candidate 514 which is a true boundary can be obtained, the correction line segment candidate 514 having the highest matching matching degree is selected and set as the corrected map 520. As a result, it is possible to appropriately correct low-accuracy map data with various accuracies in consideration of the difference in accuracy from the image. Also,
The accuracy of the analysis can be improved by analyzing the vicinity of the boundary using the corrected map 520. That is, it becomes possible to detect not only the target object 521 which was easy to detect even before the correction but also the target object 522 which could not be correctly detected in the low-precision map as it is. Further, the corrected map obtained by the above processing is stored and stored in the storage means together with the attribute information such as the correction processing content. As attribute information, information that can be determined to be a high precision map in the above map precision determination processing, such as the name of the worker, the institution to which it belongs, the date and time when the correction processing was performed, and the resolution of the image data used for the correction, is added. As a result, it is possible to apply the corrected map to the detailed shape analysis process as high-precision map data. That is, by repeating the analysis process, it is possible to realize an analysis program having a learning function of reusing a low-precision map as a high-precision map. Further, a function of confirming the correction processing content and a user interface for inputting additional corrections if necessary may be provided to improve the reliability of the correction processing before storing. The image and the low-precision map are collated with reference to the image attribute information and the map attribute information, the position or shape of the low-precision map is corrected using the collation result, and the corrected map and its attribute information are stored in a storage means. The low-precision map can be corrected by the above-mentioned processing characterized by being stored in, and high-precision analysis processing can be performed by using it. In addition, by storing the appropriate attribute information together, the corrected map can be reused as a high-precision map in the subsequent analysis. Figure 6
FIG. 6 is a diagram showing an example of a schematic shape analysis process by using simple map creation according to an embodiment of the present invention. If the map acquisition fails in the above area map acquisition processing, it is necessary to analyze without using the map. However, if the entire image is analyzed as it is, a large number of land noises may be erroneously detected, and appropriate suppression thereof is required. Here, in some cases, the rough shape of the area can be extracted by analyzing the image in consideration of the characteristics such as the brightness and the shape of the attention area. For example, assuming that the attention area is the sea area as shown in FIG. 6, it is possible to obtain a rough shape of the sea area by generally dividing the image into areas to extract a wide area with dark brightness. By using this as a simple map creation function and applying the obtained shape as the simple map 600 to the above-described outline shape analysis processing, the attention area 601 can be specified and the vessel 602 in the sea area can be detected. That is, although the target object 203 and the like near the boundary cannot be detected, it is possible to collectively prevent erroneous detection of land areas. This allows
Even in an area where no map exists, analysis processing using a program of the same configuration can be performed, and highly reliable analysis information can be obtained. Further, it is also possible to improve the map accuracy by the above correction processing and then use it for analysis. Figure 7
It is a figure showing an example of output processing in one embodiment of the present invention. Various output methods are conceivable other than the example of outputting the detected target object information to the detected position on the image or the map. For example, FIG. 7A is an example 700 of outputting information of detected targets as a list. By combining the shape of the target object detected in the detection processing, the added boundary vicinity detection flag, the attribute information, and the like, it is possible to output the analysis processing results as catalog information.
Further, FIG. 7B is an example 701 of outputting a document related to the detected target object. It can be output in a format that is easy for users to use, such as documents directly connected to work and summary information of analysis results. By presenting these effective analysis information, it is possible to realize a program that can help improve the efficiency of user operations. FIG. 8 is a diagram showing an example of the target object detection processing in the embodiment of the present invention. Analytical work to detect targets from a wide area of interest by acquiring images automatically or in response to user instructions using image data that is updated or added regularly or irregularly Is possible. In such analysis work, it is important to effectively notify the user of the processing result at an appropriate timing. Figure 8 (a)
Is an example 800 of displaying and outputting a notification interface on a user terminal. As a result, it is possible to continue the target object detection process even while the user is not heading to the terminal executing the analysis program, and to notify that the target object has been detected when the user heads for the terminal. Further, various output devices such as sound output and lamp lighting may be used to call the user's attention, or an interface may be displayed and output to a user terminal connected through a network. Figure 8
(B) is an example 80 of notifying the user by using email.
It is 1. As a result, it is possible to provide immediate notification of detection information with a high degree of urgency, and to provide information to distant or multiple users. Further, by using a combination of telephone or FAX in addition to mail, it is possible to promptly notify a user who is not connected to the network. Figure 8
(C) is an output example 802 of the work record. In particular, in the automatic detection process, when the target is not detected, the user is not notified, a work record in a format that can be referred to is output as necessary, and the analysis process can be ended. Further, even if the target object is detected, by leaving the work record, it is possible to create consistent record information. The attention area may be set in advance or may be automatically set according to the input image. Especially, when the target is detected by the detection process in which the attention area is automatically set according to the image, etc. In this case, by presenting detailed information including the detection position or the attention area, effective notification can be performed. Further, the above list or document may be used for notification. In this way, a landscape image that is regularly or irregularly updated or added is acquired, and when a target object is detected in the attention area on the image or in the vicinity of the boundary, the detection information is notified to the user, and the target object is detected. If is not detected, the work record is output. As a result, it becomes possible to support the work of detecting a target object over a wide area, which has been manually performed by the user. FIG. 9 is a diagram showing an example of an image analysis system according to an embodiment of the present invention. It is possible to use the image analysis system 900 by installing a program that performs the above-described processing in a computer. An image database 901, a map database 902, and the like are connected to the system, and a data acquisition processing unit 903 that acquires analysis data in an appropriate range from them, a data analysis processing unit 904 that performs analysis processing using these data, and The data output processing unit 905 outputs the analysis result. Further, the data analysis processing unit 904 includes an accuracy determination processing unit 906 that performs the map accuracy determination process, a detailed shape analysis processing unit 907 that performs the detailed shape analysis process, and a general shape analysis processing unit 908 that performs the general shape analysis process. It is composed of
In order to execute these processes, the data acquisition processing unit 903 may be activated by the user's analysis data instruction operation or automatic activation in response to an event such as addition of new image data. Further, an embodiment such as an analysis information distribution service that distributes the analysis processing result using the above system as a server, and an analysis program distribution service that distributes the analysis program itself on the network are also possible. With these, the present invention can be applied to various forms or purposes of business.

【0006】[0006]

【発明の効果】本発明によれば、解析に用いる画像と地
図の精度やそれらの差異に応じて最適な処理を適応的に
実行することができ、適用範囲が広く、柔軟性の高い汎
用解析プログラムを実現できる。すなわち、高精度地図
の利用を前提とせず、低精度地図やユーザー入力地図、
さらには地図が無いといった多様な状況に自在に対応し
た解析処理が可能となり、複雑な高解像度の景観撮像画
像から、高精度かつ信頼性の高い解析情報を得ることが
できる。また、本発明によれば、業務上重要であること
が多い注目領域の境界付近の解析において、低精度地図
を用いた場合でも、誤検出を抑制し、かつユーザーの適
切な判断を促す情報を提供できる。これにより、解析情
報全体の信頼性を高めることができ、各種業務への適用
が可能となる。また、本発明によれば、補正された低精
度地図データやユーザー入力地図などを高精度地図とし
て再利用することができ、処理を重ねることで解析精度
を向上させる学習機能を実現することができる。これに
より、画像解析システムや地図データベースの構築およ
び運用における自由度が高まり、システムを迅速に立ち
上げたり、日常業務の中で高精度の地図データベースを
順次整備していくといった運用も可能となる。また、本
発明によれば、これまでユーザーが人手で確認作業して
いた広域に渡る目標物の自動検出など、解析業務の高度
な作業支援が可能となる。これらの効果により、ユーザ
ーは画像や地図データの準備や整備などに係る作業量を
削減しつつ、高付加価値かつ高精度の解析情報を効率的
に得ることができ、画像解析業務における作業負荷を著
しく低減できる。
According to the present invention, it is possible to adaptively execute optimum processing according to the accuracy of an image and a map used for analysis and the difference between them, and thus the general-purpose analysis has a wide range of application and high flexibility. A program can be realized. That is, without using high-precision maps, low-precision maps and user-input maps,
Furthermore, it is possible to perform analysis processing freely corresponding to various situations such as no map, and highly accurate and highly reliable analysis information can be obtained from a complicated high-resolution landscape image. Further, according to the present invention, in the analysis of the vicinity of the boundary of the attention area, which is often important in business, even when a low-precision map is used, information that suppresses false detection and prompts the user to make an appropriate decision is provided. Can be provided. As a result, the reliability of the analysis information as a whole can be increased, and it can be applied to various jobs. Further, according to the present invention, the corrected low-precision map data, the user-input map, etc. can be reused as the high-precision map, and the learning function for improving the analysis accuracy can be realized by repeating the processing. . As a result, the degree of freedom in constructing and operating the image analysis system and the map database is increased, and the system can be quickly started up, and the high-precision map database can be gradually prepared in daily operations. Further, according to the present invention, it is possible to provide high-level work support for analysis work, such as automatic detection of a target object over a wide area, which has been manually performed by the user. With these effects, the user can efficiently obtain high-value-added and high-precision analysis information while reducing the amount of work involved in preparation and maintenance of images and map data, thus reducing the workload of image analysis work. It can be significantly reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態における処理手順の例を示
す図である。
FIG. 1 is a diagram showing an example of a processing procedure according to an embodiment of the present invention.

【図2】本発明の一実施形態における詳細形状解析処理
の例を示す図である。
FIG. 2 is a diagram showing an example of a detailed shape analysis process according to the embodiment of the present invention.

【図3】本発明の一実施形態における概略形状解析処理
の例を示す図である。
FIG. 3 is a diagram showing an example of a schematic shape analysis process according to an embodiment of the present invention.

【図4】本発明の一実施形態における地図境界付近にお
ける誤検出の除去処理の例を示す図である。
FIG. 4 is a diagram showing an example of erroneous detection removal processing near a map boundary according to an embodiment of the present invention.

【図5】本発明の一実施形態における低精度地図の補正
処理の例を示す図である。
FIG. 5 is a diagram showing an example of correction processing of a low-precision map according to the embodiment of the present invention.

【図6】本発明の一実施形態における簡易地図作成利用
による概略形状解析処理の例を示す図である。
FIG. 6 is a diagram showing an example of a schematic shape analysis process using simple map creation according to an embodiment of the present invention.

【図7】本発明の一実施形態における出力処理の例を示
す図である。
FIG. 7 is a diagram showing an example of output processing according to an embodiment of the present invention.

【図8】本発明の一実施形態における目標物検出処理の
例を示す図である。
FIG. 8 is a diagram showing an example of target object detection processing according to an embodiment of the present invention.

【図9】本発明の一実施形態における画像解析システム
の例を示す図である。
FIG. 9 is a diagram showing an example of an image analysis system according to an embodiment of the present invention.

【図10】従来の拡大マスクによる地図利用解析処理の
例を示す図である。
FIG. 10 is a diagram showing an example of conventional map use analysis processing using an enlarged mask.

【符号の説明】[Explanation of symbols]

100…画像、101…地図、102…領域地図呼び出
し処理、103…地図精度判定処理、104…詳細形状
解析処理、105…概略形状解析処理、106…出力処
理、200…海域、201…陸域、202…海岸線、2
03…接岸船舶、204…突堤、205…沖合い船舶、
210…高精度地図、211…注目領域、212…突
堤、213…接岸船舶、214…沖合い船舶、300…
低精度地図、301…注目領域、302…微細な誤検
出、303…接岸船舶、304…突堤、305…長い誤
検出、306…沖合い船舶、310…境界付近検出結
果、311…境界付近検出結果、312…境界付近検出
結果、313…境界付近検出結果、400…低精度地
図、401…一部陸域を含む船舶、402…船舶の一
部、403…陸域、404…沖合い船舶、410…船
舶、411…部分船舶、412…陸域、413…沖合い
船舶、420…陸域誤検出、421…テンプレート部分
一致個所、422…マスク内側領域、423…船舶、4
24…陸域、500…低精度地図、501…照合処理範
囲、510…補正線分候補、511…目標物、512…
補正線分候補、513…補正線分候補、514…補正線
分候補、520…補正済み地図、521…目標物、52
2…目標物、600…簡易地図、601…注目領域、6
02…船舶、700…一覧表、701…ドキュメント、
800…通知インターフェイス、801…通知メール、
802…作業記録、900…画像解析システム、901
…画像データベース、902…地図データベース、90
3…データ取得処理部、904…データ解析処理部、9
05…データ出力処理部、906…精度判定処理部、9
07…詳細形状解析処理、908…概略形状解析処理、
1000…マスク、1001…拡大マスク、1002…
注目領域の境界付近。
Reference numeral 100 ... Image, 101 ... Map, 102 ... Region map calling processing, 103 ... Map accuracy determination processing, 104 ... Detailed shape analysis processing, 105 ... Outline shape analysis processing, 106 ... Output processing, 200 ... Sea area, 201 ... Land area, 202 ... coastline, 2
03 ... berthing vessel, 204 ... jetty, 205 ... offshore vessel,
210 ... High-precision map, 211 ... Region of interest, 212 ... Jetty, 213 ... Vessel on shore, 214 ... Vessel offshore, 300 ...
Low-precision map, 301 ... Region of interest, 302 ... Fine false detection, 303 ... Vessel on dock, 304 ... Jetty, 305 ... Long false detection, 306 ... Vessel offshore, 310 ... Detection result near boundary, 311 ... Detection result near boundary, 312 ... Boundary detection result, 313 ... Boundary detection result, 400 ... Low accuracy map, 401 ... Vessel including some land area, 402 ... Part of vessel, 403 ... Land area, 404 ... Offshore vessel, 410 ... Vessel 411 ... Partial vessel, 412 ... Land area, 413 ... Offshore vessel, 420 ... Land area false detection, 421 ... Template partial matching point, 422 ... Mask inner area, 423 ... Ship, 4
24 ... Land area, 500 ... Low-precision map, 501 ... Collation processing range, 510 ... Correction line segment candidate, 511 ... Target object, 512 ...
Correction line segment candidate, 513 ... Correction line segment candidate, 514 ... Correction line segment candidate, 520 ... Corrected map, 521 ... Target object, 52
2 ... Target, 600 ... Simple map, 601 ... Region of interest, 6
02 ... Vessel, 700 ... List, 701 ... Document,
800 ... Notification interface, 801 ... Notification email,
802 ... Work record, 900 ... Image analysis system, 901
… Image database, 902… Map database, 90
3 ... Data acquisition processing unit, 904 ... Data analysis processing unit, 9
05 ... Data output processing unit, 906 ... Accuracy determination processing unit, 9
07 ... Detailed shape analysis processing, 908 ... Schematic shape analysis processing,
1000 ... Mask, 1001 ... Enlarged mask, 1002 ...
Near the boundary of the area of interest.

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G09B 29/00 G09B 29/00 Z (72)発明者 田中 紀夫 神奈川県横浜市戸塚区戸塚町216番地 株 式会社日立製作所ディフェンスシステム事 業部内 Fターム(参考) 2C032 HB11 HB12 HC09 HC13 HD01 5B050 BA02 BA17 CA07 EA06 EA07 EA15 EA19 FA02 FA09 FA14 5B057 AA13 AA14 DA07 DA08 DB02 DC09 DC16 DC33 DC36 5L096 BA12 FA06 GA10 JA11 Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G09B 29/00 G09B 29/00 Z (72) Inventor Norio Tanaka 216 Totsuka-cho, Totsuka-ku, Yokohama-shi, Kanagawa Incorporated company Hitachi Factory Defense System Business Division F-term (reference) 2C032 HB11 HB12 HC09 HC13 HD01 5B050 BA02 BA17 CA07 EA06 EA07 EA15 EA19 FA02 FA09 FA14 5B057 AA13 AA14 DA07 DA08 DB02 DC09 DC16 DC33 DC36 5L096 BA12 FA06 GA10 JA11

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】景観撮像画像を取得するステップと、記憶
手段に記憶される地図情報から上記画像の範囲の地図を
呼び出すステップと、該地図の属性情報と上記画像の属
性情報とを用いて該画像に対する該地図の精度を判定す
るステップと、上記判定結果が高精度の場合には該地図
と上記画像を用いて詳細形状解析処理を行うステップ
と、上記判定結果が低精度の場合には該地図と上記画像
を用いて概略形状解析処理を行うステップと、上記解析
処理の結果を出力手段に出力させるステップとをコンピ
ュータに実行させるためのプログラム。
1. A step of obtaining a captured image of a landscape, a step of calling a map in the range of the image from the map information stored in a storage means, and a step of using the attribute information of the map and the attribute information of the image. A step of determining the accuracy of the map with respect to the image; a step of performing a detailed shape analysis process using the map and the image when the determination result is high accuracy; and a step of performing the detailed shape analysis processing using the map and the image. A program for causing a computer to execute a step of performing a rough shape analysis process using a map and the image, and a step of causing the output means to output the result of the analysis process.
【請求項2】上記詳細形状解析処理は、上記地図と上記
画像を重ね合わせて、該画像中の対象とする領域境界を
抽出するステップと、該抽出した領域から目標物を検出
するステップとを有し、上記概略形状解析処理は、上記
詳細形状解析処理のステップに加えて、上記領域境界付
近の検出目標物には該境界付近に存在することを示すフ
ラグを付与するステップと、該検出目標物と該フラグ情
報を合わせて上記出力手段に出力させるステップとを有
することを特徴とする請求項1記載のプログラム。
2. The detailed shape analysis processing includes the steps of superimposing the map and the image, extracting a target area boundary in the image, and detecting a target object from the extracted area. In addition to the step of the detailed shape analysis processing, the rough shape analysis processing includes a step of adding a flag indicating that the detection target near the area boundary exists near the boundary, and the detection target. 2. The program according to claim 1, further comprising a step of causing the output means to output an object and the flag information together.
【請求項3】上記概略形状解析処理は、上記フラグ情報
から上記境界付近で検出された目標物を特定するステッ
プと、該目標物について記憶手段に記憶される該目標物
についての属性情報を用いて上記詳細形状解析処理より
詳細な解析判定処理を行うステップとを有することを特
徴とする請求項2記載のプログラム。
3. The rough shape analysis process uses a step of identifying a target object detected near the boundary from the flag information, and attribute information of the target object stored in a storage means for the target object. And a step of performing a more detailed analysis determination process than the detailed shape analysis process.
【請求項4】上記概略形状解析処理は、上記精度判定結
果を参照して上記画像と上記低精度地図を照合するステ
ップと、該照合結果を用いて該低精度地図の情報を変更
するステップと、該変更済み地図と該変更の情報を含む
属性情報を上記記憶手段に記憶するステップとを有する
ことを特徴とする請求項1〜3のいずれかに記載のプロ
グラム。
4. The rough shape analysis processing comprises a step of collating the image with the low precision map with reference to the precision determination result, and a step of changing information of the low precision map using the collation result. The program according to any one of claims 1 to 3, further comprising: a step of storing attribute information including the changed map and information of the change in the storage means.
【請求項5】上記地図を呼び出すステップの前に上記画
像範囲における地図の有無を判定するステップを有し、
地図が無い場合には上記画像より簡易地図を作成するス
テップと、該作成された簡易地図を作成利用して上記概
略形状解析処理を行うステップとを有することを特徴と
する請求項1〜4のいずれかに記載のプログラム。
5. A step of determining the presence or absence of a map in the image range before the step of calling the map,
5. If there is no map, the method includes the steps of creating a simple map from the image, and the step of creating and using the created simple map to perform the rough shape analysis process. Program described in either.
【請求項6】上記目標物を検出した場合に検出情報を出
力するステップと、目標物を検出しなかった場合には作
業記録を記録手段に記録するステップとを有することを
特徴とする請求項1〜5のいずれか1つに記載のプログ
ラム。
6. A step of outputting detection information when the target object is detected, and a step of recording a work record in a recording means when the target object is not detected. The program according to any one of 1 to 5.
【請求項7】景観撮像手段と、地図情報を有する記録手
段と制御部を有する地図情報解析装置であって、上記制
御部は、上記記憶手段に記憶される地図情報から上記景
観撮像手段によって取得した画像の範囲の地図を呼び出
すステップと、該地図の属性情報と上記画像の属性情報
とを用いて該画像に対する該地図の精度を判定し、上記
判定結果に基づいて以降の解析処理ステップを変更する
ことを特徴とする地図情報解析装置。
7. A map information analysis device comprising a landscape image pickup means, a recording means having map information, and a control section, wherein the control section is acquired from the map information stored in the storage means by the landscape image pickup means. The step of calling a map in the range of the image, the attribute information of the map and the attribute information of the image are used to determine the accuracy of the map with respect to the image, and subsequent analysis processing steps are changed based on the determination result. A map information analysis device characterized by:
JP2002108675A 2002-04-11 2002-04-11 Map analysis apparatus and program for realizing the same Expired - Lifetime JP4032800B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002108675A JP4032800B2 (en) 2002-04-11 2002-04-11 Map analysis apparatus and program for realizing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002108675A JP4032800B2 (en) 2002-04-11 2002-04-11 Map analysis apparatus and program for realizing the same

Publications (3)

Publication Number Publication Date
JP2003302898A true JP2003302898A (en) 2003-10-24
JP2003302898A5 JP2003302898A5 (en) 2005-08-25
JP4032800B2 JP4032800B2 (en) 2008-01-16

Family

ID=29392348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002108675A Expired - Lifetime JP4032800B2 (en) 2002-04-11 2002-04-11 Map analysis apparatus and program for realizing the same

Country Status (1)

Country Link
JP (1) JP4032800B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018017713A (en) * 2016-11-25 2018-02-01 株式会社ゼンリン Control system, and data structure of map data used in control system
JP2018017714A (en) * 2016-11-25 2018-02-01 株式会社ゼンリン Control system and data structure of map data used in control system
CN112307139A (en) * 2019-07-30 2021-02-02 阿里巴巴集团控股有限公司 Data processing method, device, server and storage medium
WO2021210181A1 (en) * 2020-04-17 2021-10-21 日本電気株式会社 Image processing method
WO2023149370A1 (en) * 2022-02-01 2023-08-10 キヤノン株式会社 Control system, control method, and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018017713A (en) * 2016-11-25 2018-02-01 株式会社ゼンリン Control system, and data structure of map data used in control system
JP2018017714A (en) * 2016-11-25 2018-02-01 株式会社ゼンリン Control system and data structure of map data used in control system
CN112307139A (en) * 2019-07-30 2021-02-02 阿里巴巴集团控股有限公司 Data processing method, device, server and storage medium
WO2021210181A1 (en) * 2020-04-17 2021-10-21 日本電気株式会社 Image processing method
JPWO2021210181A1 (en) * 2020-04-17 2021-10-21
JP7509197B2 (en) 2020-04-17 2024-07-02 日本電気株式会社 Image Processing Method
WO2023149370A1 (en) * 2022-02-01 2023-08-10 キヤノン株式会社 Control system, control method, and storage medium

Also Published As

Publication number Publication date
JP4032800B2 (en) 2008-01-16

Similar Documents

Publication Publication Date Title
US20210192202A1 (en) Recognizing text in image data
CN110705405B (en) Target labeling method and device
JP6163344B2 (en) Reliable cropping of license plate images
JP3799408B1 (en) Image processing apparatus and image processing method
CN113822247B (en) Method and system for identifying illegal building based on aerial image
CN110569856B (en) Sample labeling method and device, and damage category identification method and device
US10482170B2 (en) User interface for contextual document recognition
CN110647603B (en) Image annotation information processing method, device and system
JP5366190B2 (en) BUILDING CHANGE DETECTION DEVICE, BUILDING CHANGE DETECTION METHOD, AND PROGRAM
CN110727816A (en) Method and device for determining interest point category
CN110647886A (en) Interest point marking method and device, computer equipment and storage medium
WO2020025392A1 (en) Convolutional neural network based inspection of blade-defects of a wind turbine
JP2015191572A (en) Manhole detection device, manhole detection method and program
JP2008287379A (en) Road sign data input system
CN115810134A (en) Image acquisition quality inspection method, system and device for preventing car insurance from cheating
US20230028654A1 (en) Operation log acquisition device and operation log acquisition method
CN110781195A (en) System, method and device for updating point of interest information
JP2003302898A (en) Map analyzing device and program for realizing the same
CN111046736B (en) Method, device and storage medium for extracting text information
CN114419584A (en) Improved traffic sign identification and positioning method by inhibiting YOLOv4 by using non-maximum value
JP6223256B2 (en) Manhole cover management device, manhole cover management method and program
JP2000047579A (en) Map data base updating device
US6947574B1 (en) Method and system for interleaving OCR and ABL for automated mail sorting
AU2020102233A4 (en) The ‘Property Identification Method’ (“PIM”) is a novel algorithm through which a Real Estate Authority and/or Conveyancing data is created through image-processing a document such as a Council/Shire Rates Notice. This invention establishes a unique algorithm incorporating techniques such deep learning segmentation and computer vision to decode property information. This application utilises computer-implemented technology configured in such manner as to enable conveyancers and real estate agents to automate the creation of client files.
CN112633283A (en) Method and system for identifying and translating English mail address

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050216

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4032800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term