JP2005134601A - Analysis system for map image - Google Patents

Analysis system for map image Download PDF

Info

Publication number
JP2005134601A
JP2005134601A JP2003370036A JP2003370036A JP2005134601A JP 2005134601 A JP2005134601 A JP 2005134601A JP 2003370036 A JP2003370036 A JP 2003370036A JP 2003370036 A JP2003370036 A JP 2003370036A JP 2005134601 A JP2005134601 A JP 2005134601A
Authority
JP
Japan
Prior art keywords
image data
maps
difference
color
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003370036A
Other languages
Japanese (ja)
Inventor
Shinji Wakizaka
信治 脇阪
Shuta Murakami
周太 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Co Ltd
Original Assignee
Zenrin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Co Ltd filed Critical Zenrin Co Ltd
Priority to JP2003370036A priority Critical patent/JP2005134601A/en
Publication of JP2005134601A publication Critical patent/JP2005134601A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To extract the differences between a plurality of map image data with good accuracy. <P>SOLUTION: The maps of a new version and an old version which are objects for comparison are read with a scanner 10 and respective pieces of the image data are obtained in the form of raster data of multicolors. Next, the points of triangulation, the angles of diagram frames and the positions of registry guides are extracted as the corresponding points existing in both of the image data. Further, the maps are divided to Delaunay triangles based on the corresponding points and are subjected to compensation by each of the regions in such a manner that the coordinates of the vertexes of the respective triangular regions coincide with each other. Pieces of the image data subjected to the compensation in such a manner are compared with each other in pixel units and the differences between the new and old maps are extracted. In these process steps, the amount of information is reduced by converting the color information included in the maps to gray scales and the errors included in the color information are eliminated by quantization. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、地図画像について、複数の地図間の差分を抽出するための画像解析に関する。   The present invention relates to an image analysis for extracting a difference between a plurality of maps for a map image.

建造物や地形は絶えず変化していくため、地図にもこれに応じた修正が加えられ、適宜、新たな版の地図が発行される。近年、地図のディジタル化が進んでいるため、このような変化もディジタルデータに反映する必要がある。しかし、新版の地図が必ずしもディジタルデータの形で入手できるとは限らない。印刷物の形で新版の地図が入手された場合にディジタルデータの修正作業を容易にするために、旧版の地図からの差分を自動的に抽出する技術が提案されている。例えば、特許文献1では、新旧の地図をスキャナで読み取ってディジタルデータ化し、両者の形状上の差分を自動的に抽出する装置が提案されている。この装置では、差分の抽出精度を向上するため、オペレータの操作に基づいて、新旧地図のスキャン画像の位置合わせを行うことが可能である。   Since the buildings and terrain are constantly changing, the map will be modified accordingly, and new versions of the map will be published as appropriate. In recent years, since digitization of maps has progressed, it is necessary to reflect such changes in digital data. However, new maps are not always available in digital data. In order to facilitate digital data correction when a new version of a map is obtained in the form of a printed matter, a technique for automatically extracting a difference from an old version of the map has been proposed. For example, Patent Document 1 proposes a device that reads new and old maps with a scanner and converts them into digital data, and automatically extracts the difference in shape between the two. In this apparatus, in order to improve the accuracy of difference extraction, it is possible to align the scan images of the old and new maps based on the operation of the operator.

特開平9−319855号公報JP-A-9-319855

新旧地図の差分の抽出には、まだ種々の課題が残されていた。例えば、特許文献1の技術については、位置合わせを行うためのオペレータの作業負担が大きかった。また、位置合わせの精度は、オペレータの操作に依存しており、必ずしも十分な精度が保証されないという課題もあった。従来技術では、文字や等高線など種々のオブジェクトが重なって印刷されている部分における差分、空き地だった場所に土地とほぼ同一形状の建造物ができた場合などオブジェクトの形状に明確に表れない差分について、抽出精度が必ずしも十分とは言えなかった。かかる課題は、新旧地図に関わらず複数の地図の差分を抽出する場合に共通である。本発明は、かかる課題に鑑み、複数の地図間の差分を抽出する際の作業負荷の低減および精度向上を図ることを目的とする。   Various problems still remain in extracting the difference between the old and new maps. For example, with the technique of Patent Document 1, the work burden on the operator for performing alignment is large. In addition, the accuracy of alignment depends on the operation of the operator, and there is a problem that sufficient accuracy is not always guaranteed. In the conventional technology, differences in the part where various objects such as letters and contour lines are printed are overlapped, and differences that do not appear clearly in the shape of the object, such as when a building with almost the same shape as the land is formed in a vacant place The extraction accuracy was not always sufficient. Such a problem is common when a difference between a plurality of maps is extracted regardless of old and new maps. The present invention has been made in view of such a problem, and an object of the present invention is to reduce the workload and improve the accuracy when extracting differences between a plurality of maps.

本発明は、2枚の地図の差分を抽出する解析装置として構成することができる。2枚の地図に対する差分の抽出を繰り返し適用することにより、3枚以上の地図間の差分を抽出することも可能である。   The present invention can be configured as an analysis device that extracts a difference between two maps. It is also possible to extract the difference between three or more maps by repeatedly applying the difference extraction for the two maps.

本発明の解析装置は、差分の抽出対象となる2枚の地図を表す画像データを入力する。解析装置自体に印刷物としての地図を読み取るためのスキャナを備えても良いし、別途ディジタル化されたデータを入力する構成としてもよい。こうして入力された画像データに基づいて、解析装置は、2枚の地図に共通して存在する所定の対応点を抽出する。また、画像データを対応点によって定義される複数の領域に分割するとともに、対応点の位置が一致するように領域ごとに画像データを補正する。更に、補正後の画像データに基づいて2枚の地図の差分を抽出する。   The analysis apparatus of the present invention inputs image data representing two maps from which differences are to be extracted. The analysis apparatus itself may be provided with a scanner for reading a map as a printed matter, or may be configured to input separately digitized data. Based on the image data input in this way, the analysis apparatus extracts a predetermined corresponding point that exists in common in the two maps. Further, the image data is divided into a plurality of areas defined by corresponding points, and the image data is corrected for each area so that the positions of the corresponding points coincide. Further, the difference between the two maps is extracted based on the corrected image data.

本発明の解析装置によれば、対応点をオペレータが指定するまでなく自動的に抽出し、画像データの補正を行うため、個別にディジタル化された地図の画像データの位置合わせを、低い作業負担で精度良く行うことができる。   According to the analysis apparatus of the present invention, the corresponding points are automatically extracted without being designated by the operator, and the image data is corrected. Can be performed accurately.

対応点は、地図上に印刷される種々の文字、記号、図形など(以下、これらを総称して「オブジェクト」と称する)を利用可能である。例えば、確実に地図上に存在するとともに、その厳密な緯度経度が特定しやすい点として、三角点、水準点など、地図作製時の測量に利用される基準点を利用してもよい。その他、点で表記されていれば、駅、ランドマークなどの建造物、行政界などを利用してもよい。また、対応点はオブジェクトの他、地図の図枠の角、該地図図枠の各辺上の中央点など特定比率の内分点、およびトンボと呼ばれる地図枠外の基準線などを利用してもよい。   As the corresponding points, various characters, symbols, figures, etc. printed on the map (hereinafter collectively referred to as “objects”) can be used. For example, a reference point used for surveying at the time of map creation, such as a triangle point or a level point, may be used as a point that is surely present on the map and whose exact latitude and longitude can be easily specified. In addition, as long as it is indicated by a dot, a building such as a station, a landmark, or an administrative boundary may be used. In addition to the object, the corresponding points can be obtained by using corners of the map frame of the map, internal dividing points of a specific ratio such as the center points on the sides of the map frame, and reference lines outside the map frame called register marks. Good.

画像データの補正単位となる領域は、対応点に基づいて種々の形状で任意に設定可能である。対応点は必ずしも領域の頂点となる必要もない。但し、このように種々設定可能な領域の中で、補正の精度確保のためには、対応点を頂点とする三角形が好ましく、更にはドロネー三角形を適用することが好ましい。ドロネー三角形とは、いずれの三角形においても、その外接円内に他の三角形の頂点が入らないという条件が満足されるよう設定された形状を言う。   The area serving as the correction unit of the image data can be arbitrarily set in various shapes based on the corresponding points. Corresponding points need not necessarily be the vertices of the region. However, in order to ensure the accuracy of correction in the variously settable areas, a triangle having a corresponding point as a vertex is preferable, and a Delaunay triangle is preferably applied. A Delaunay triangle refers to a shape that is set to satisfy the condition that the vertex of another triangle does not enter the circumscribed circle of any triangle.

画像データとしては、画素ごとに階調値を有するラスタデータを用いることができる。この場合、画像データの補正時に、階調値が一義的に定まらない画素が表れる可能性がある。例えば、元来複数の画素が補正によって一つの画素に対応づけられることになるケース、補正前のいずれの画素にも対応づけられない画素が表れるケースなどが挙げられる。このような画素については、次の手順で階調値を求めるようにしてもよい。まず、補正後の各画素に対応する位置を補正前の画像データにおいて求める。次に、補正前の画像データにおいてその周辺に存在する複数の画素を用いた所定の演算に基づいてその位置における階調値を求める。演算としては、例えば線形補間や、最近傍の階調値を採用する方法などを採ることができる。こうして得られた階調値を補正後の画素の階調値として設定するのである。こうすることで、補正前後での画素の対応関係に基づいて生じるノイズを軽減でき、差分の抽出精度を向上させることができる。   As the image data, raster data having a gradation value for each pixel can be used. In this case, when the image data is corrected, a pixel whose gradation value is not uniquely determined may appear. For example, there are a case where a plurality of pixels are originally associated with one pixel by correction, and a case where a pixel which is not associated with any pixel before correction appears. For such a pixel, the gradation value may be obtained by the following procedure. First, the position corresponding to each pixel after correction is obtained in the image data before correction. Next, a gradation value at the position is obtained based on a predetermined calculation using a plurality of pixels existing in the periphery of the image data before correction. As the calculation, for example, linear interpolation or a method of employing the nearest gradation value can be employed. The gradation value thus obtained is set as the gradation value of the corrected pixel. By doing so, it is possible to reduce noise generated based on the correspondence between the pixels before and after correction, and improve the accuracy of extracting the difference.

画像データとしては多色のデータを用いても良い。かかる場合には、対応点の形状および色の双方に基づいて、対応点の抽出を行うことが好ましい。こうすることで対応点の抽出精度を向上することができる。例えば、対応点に対して、等高線や文字など対応点以外のオブジェクトが重なって印刷されている場合でも、両者の色が異なってさえいれば、精度良く対応点を抽出することが可能となる。また、対応点と形状が一致しているが色が異なるオブジェクトについて、対応点と誤認する可能性を低減することができる。   Multi-color data may be used as the image data. In such a case, it is preferable to extract the corresponding points based on both the shape and color of the corresponding points. By doing so, the extraction accuracy of corresponding points can be improved. For example, even when an object other than the corresponding point such as a contour line or a character is printed on the corresponding point, the corresponding point can be accurately extracted as long as both colors are different. In addition, it is possible to reduce the possibility that an object whose shape matches the shape of the corresponding point but has a different color is mistaken as a corresponding point.

多色の画像データを用いる場合、本発明の解析装置は、各オブジェクトについて、形状の変化および色の変化の少なくとも一方が生じている部分を、2枚の地図の差分として抽出してもよい。かかる抽出方法は、上述した画像データの補正を行うか否かに関わらず適用可能である。この抽出方法によれば、例えば、空き地だった場所に土地とほぼ同一形状の建造物ができた場合などオブジェクトの形状に明確に表れない差分についても、オブジェクトの色の変化に基づいて精度良く抽出することが可能となる。   When using multi-color image data, the analysis apparatus of the present invention may extract a portion where at least one of a change in shape and a change in color occurs for each object as a difference between two maps. Such an extraction method can be applied regardless of whether or not the above-described image data correction is performed. According to this extraction method, for example, a difference that does not appear clearly in the shape of the object, such as when a building having almost the same shape as the land is formed in a vacant place, is accurately extracted based on the change in the color of the object. It becomes possible to do.

多色の画像データを用いる場合には、画像データの色情報に基づいて画像データを分版した上で、抽出を行ってもよい。例えば、等高線が茶色で印刷されている場合、茶色とその他の色の画像データに分版することにより、等高線を削除した画像データを得ることができ、等高線と重なっているオブジェクトについて差分の抽出が容易となる。このように色情報に基づく分版処理を用いることにより、重なって印刷されたオブジェクトについて、差分の抽出精度を向上させることが可能となる。   When multicolor image data is used, extraction may be performed after the image data is separated based on the color information of the image data. For example, when contour lines are printed in brown, image data from which contour lines have been deleted can be obtained by separating the image data into image data of brown and other colors, and difference extraction is performed for objects that overlap the contour lines. It becomes easy. As described above, by using the color separation process based on the color information, it is possible to improve the accuracy of extracting the difference between the objects printed in an overlapping manner.

色情報は、通常、レッド、グリーン、ブルーの3原色など複数の成分で表されるが、本発明においては、この成分の数を、所定の演算に基づいて減少させる色補正を行うことが好ましい。かかる色補正としては、例えば、3原色のデータから、いわゆるグレースケールへの補正が含まれる。地図に用いられる色数は比較的少ないのが通常であるため、このように成分の数を減らしても、オブジェクトごとの色の相違は保たれる。このような地図の特性に基づき、成分数を減らすことにより、色の区別は確保しつつ、色情報を表すためのデータ量低減を図ることができる。   The color information is usually represented by a plurality of components such as the three primary colors of red, green, and blue. In the present invention, it is preferable to perform color correction that reduces the number of these components based on a predetermined calculation. . Such color correction includes, for example, correction of so-called gray scale from data of three primary colors. Since the number of colors used for the map is usually relatively small, even if the number of components is reduced in this way, the color difference for each object is maintained. By reducing the number of components based on such map characteristics, it is possible to reduce the amount of data for representing color information while ensuring color distinction.

色情報は、更に、減少後の成分値に基づいて量子化しても良い。量子化は、例えば、成分値が一定範囲にある色に対して同一の成分値を割り当てる方法などによって行うことができる。これは、色情報に若干の差違がある場合には、同一色とみなす補正に相当する。先に説明した通り、地図に用いられる色数は比較的少ないため、かかる量子化を行っても、色情報の有用性を確保すること、即ちオブジェクトごとの色を区別することが可能である。量子化には、このように色情報の有用性を確保したまま、印刷時やディジタル化の過程で色情報に生じるノイズによる影響を抑制することができ、差分の抽出精度を向上することができる利点がある。   The color information may be further quantized based on the reduced component value. The quantization can be performed by, for example, a method of assigning the same component value to colors whose component values are within a certain range. This corresponds to a correction for considering the same color when there is a slight difference in color information. As described above, since the number of colors used in the map is relatively small, it is possible to ensure the usefulness of the color information, that is, to distinguish colors for each object, even if such quantization is performed. Quantization can suppress the influence of noise generated in color information during printing or digitization while ensuring the usefulness of color information in this way, and improve the accuracy of difference extraction. There are advantages.

本発明の解析装置において、上述した種々の特徴は、必ずしも全てが適用されている必要はなく、適宜、組み合わせたり選択したりして適用することができる。本発明は、解析装置としての構成の他、コンピュータによって地図の差分を抽出する解析方法として構成してもよい。また、かかる解析をコンピュータに実現させるためのコンピュータプログラムや、かかるコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体として構成することもできる。   In the analysis apparatus of the present invention, all of the various features described above do not necessarily have to be applied, and can be applied by appropriately combining or selecting them. The present invention may be configured as an analysis method for extracting a map difference by a computer in addition to the configuration as an analysis apparatus. Further, the present invention can be configured as a computer program for causing a computer to perform such analysis, or a computer-readable recording medium on which such a computer program is recorded.

記録媒体としては、記録媒体としては、フレキシブルディスクやCD−ROM、光磁気ディスク、ICカード、ROMカートリッジ、パンチカード、バーコードなどの符号が印刷された印刷物、コンピュータの内部記憶装置(RAMやROMなどのメモリ)および外部記憶装置等、コンピュータが読取り可能な種々の媒体を利用できる。   As a recording medium, a flexible disk, a CD-ROM, a magneto-optical disk, an IC card, a ROM cartridge, a punch card, a printed matter on which a code such as a barcode is printed, an internal storage device of a computer (RAM or ROM) Etc.) and various media that can be read by a computer, such as an external storage device.

本発明の実施例について以下の順序で説明する。
A.装置構成:
B.地図解析処理:
B1.前処理ルーチン:
B2.対応点抽出処理:
B3.位置合わせ処理:
B4.差分抽出処理:
Embodiments of the present invention will be described in the following order.
A. Device configuration:
B. Map analysis processing:
B1. Preprocessing routine:
B2. Corresponding point extraction processing:
B3. Alignment process:
B4. Difference extraction processing:

A.装置構成:
図1は実施例としての地図の解析装置の概略構成を示す説明図である。解析装置は、パーソナルコンピュータ100、スキャナ10、ハードディスク20を接続したハードウェア構成となっている。この解析装置は、印刷物の形で入手された地図MAP2をスキャナ10で読み取って得られた画像データの解析に基づいて、地図間の差分、即ち地形や地物の差違を自動的に抽出する装置である。例えば、旧版の地図についてディジタル化された地図データが得られている状態で、印刷物の形で新版の地図が入手された場合、両者の差分を抽出し、地図データの更新に要する作業負荷を軽減するために利用することができる。ハードディスク20は、差分の抽出結果や地図データの保存に使用される。旧版の地図をスキャンした画像データの保存に使用してもよい。解析装置は、複数の地図の差分抽出一般に利用可能であるが、説明の便宜上、以下では新旧の地図比較を例にとって説明する。
A. Device configuration:
FIG. 1 is an explanatory diagram showing a schematic configuration of a map analyzing apparatus as an embodiment. The analysis apparatus has a hardware configuration in which a personal computer 100, a scanner 10, and a hard disk 20 are connected. This analyzer automatically extracts differences between maps, that is, differences in topography and features based on analysis of image data obtained by reading the map MAP2 obtained in the form of printed matter with the scanner 10. It is. For example, if a new version of a map is obtained in the form of a printout when digitized map data is obtained for an old version of the map, the difference between the two is extracted to reduce the workload required to update the map data. Can be used to The hard disk 20 is used to store difference extraction results and map data. An old version of the map may be used to store scanned image data. The analysis apparatus can be generally used to extract a difference between a plurality of maps, but for the sake of convenience of explanation, an explanation will be given below using a comparison between old and new maps.

解析装置としての機能は、パーソナルコンピュータ100に、所定のプログラムをインストールすることにより実現される。図中には、このプログラムによってソフトウェア的に構成される機能ブロックを示した。これらの機能ブロックの少なくとも一部を、ハードウェア的に構成したり、他のコンピュータやサーバと連携して分散処理によって提供したりしても構わない。   The function as an analysis apparatus is realized by installing a predetermined program in the personal computer 100. In the figure, functional blocks configured by software by this program are shown. At least a part of these functional blocks may be configured as hardware, or may be provided by distributed processing in cooperation with another computer or server.

画像データ入力部110は、解析対象となる画像データを入力する。新旧双方の地図をスキャナ10で読み込むようにしてもよいし、少なくとも一方のデータをハードディスク20などから入力するようにしてもよい。新旧双方についてディジタル化されたデータが用意されている場合、解析装置は、スキャナ10を省略したハードウェア構成とすることもできる。画像データの形式は任意に選択可能であるが、本実施例では、画像データとして、レッド(R)、グリーン(G)、ブルー(B)の3原色について画素ごとに8ビットの階調値が定義されたラスタデータを用いるものとして説明する。本実施例の地図は、黒、青、茶色で多色印刷されているものとする。この場合、地図画像は、背景の白色も含めた4色を含む画像となる。但し、印刷時やディジタル化での色ムラその他の原因により、各色は必ずしも同一の階調値になるとは限らず、現実の画像データは、上記4色よりも多色のデータを有することになる。   The image data input unit 110 inputs image data to be analyzed. Both the old and new maps may be read by the scanner 10, or at least one of the data may be input from the hard disk 20 or the like. When digitized data is prepared for both old and new, the analysis apparatus may have a hardware configuration in which the scanner 10 is omitted. Although the format of the image data can be arbitrarily selected, in this embodiment, the image data includes 8-bit gradation values for each pixel for the three primary colors of red (R), green (G), and blue (B). The description will be made assuming that the defined raster data is used. It is assumed that the map of this embodiment is printed in black, blue, brown and multicolor. In this case, the map image is an image including four colors including the white background. However, each color does not always have the same gradation value due to color unevenness or other causes at the time of printing or digitization, and actual image data has more color data than the above four colors. .

入力された画像データには、印刷物自体が有するずれや、ディジタル化の過程で生じる歪みなどが含まれているため、精度よく比較するためには、両者の位置合わせおよび歪みの修正などの補正を行うことが好ましい。対応点抽出部120は、この補正に用いる基準として対応点を各画像データから抽出する。対応点の位置は、画像データ上で設定された座標系で特定される。対応点として抽出すべき画像は、テンプレート121によって予め定義されている。本実施例では、三角点、地図枠の角、トンボと呼ばれる基準線を対応点として用いるものとした。   The input image data contains misalignments of the printed material itself and distortions that occur during the digitization process. For accurate comparison, corrections such as alignment and distortion correction are required. Preferably it is done. The corresponding point extraction unit 120 extracts corresponding points from each image data as a reference used for the correction. The position of the corresponding point is specified by a coordinate system set on the image data. An image to be extracted as a corresponding point is defined in advance by the template 121. In this embodiment, a triangular point, a corner of a map frame, and a reference line called a register mark are used as corresponding points.

地図には、等高線や種々の地物などが対応点に重ねて印刷されている場合がある。本実施例では、このような箇所についても対応点を精度良く抽出するため、色情報に基づく分版処理を適用する。本実施例において、分版処理とは、地図の画像データから、いずれか特定の色の部分を除去または抽出処理を言う。分版処理部160は、この分版処理を実行する。   On the map, contour lines, various features, and the like may be printed over corresponding points. In the present embodiment, a separation process based on color information is applied in order to accurately extract corresponding points for such locations. In the present embodiment, the color separation processing refers to processing for removing or extracting any specific color portion from map image data. The separation processing unit 160 executes this separation processing.

色補正部170は、分版処理を容易にするため、画像データの色情報をRGBの3成分から単一の成分に減ずるための色補正処理(以下、「グレースケール処理」と称することもある)、および色ムラに起因する誤差をなくし、4色のいずれかに区分する量子化処理を実行する。補正値テーブル171は、色補正処理に用いられる補正式や、量子化処理に用いられる基準値などを与える。   The color correction unit 170 may be referred to as color correction processing (hereinafter referred to as “grayscale processing”) for reducing color information of image data from three RGB components to a single component in order to facilitate color separation processing. ) And an error caused by color unevenness is eliminated, and a quantization process for classifying the color into one of four colors is executed. The correction value table 171 gives correction formulas used for color correction processing, reference values used for quantization processing, and the like.

位置合わせ部130は、対応点抽出部120で抽出された対応点の座標が一致するよう、新旧地図の画像データを補正する。こうして補正された画像データは、補正データ管理部131によって管理される。差分抽出部140は、補正後の新旧の画像データを比較し、両者の差分を抽出する。この抽出時においても、精度向上のため、適宜、分版処理が適用される。出力部150は、こうして得られた差分をハードディスク20に差分データとして格納する。   The alignment unit 130 corrects the image data of the old and new maps so that the coordinates of the corresponding points extracted by the corresponding point extraction unit 120 match. The corrected image data is managed by the correction data management unit 131. The difference extraction unit 140 compares the new and old image data after correction, and extracts the difference between the two. Also at the time of this extraction, a separation process is applied as appropriate to improve accuracy. The output unit 150 stores the difference thus obtained in the hard disk 20 as difference data.

図2は解析対象となる地図例を示す説明図である。上から新版の地図、旧版の地図、両者の差分を模式的に示した。陸地については白の背景色で表されている。左上に位置する海(破線状のハッチング部分)は、青で印刷されているものとする。等高線は茶色で表されているものとする。図中では、色の相違を表現するため、等高線を一点鎖線で表した。その他の道路、建造物(斜線ハッチング部分)、文字、三角点などは黒で印刷されている。   FIG. 2 is an explanatory diagram showing a map example to be analyzed. From the top, the new map, the old map, and the differences between them are shown schematically. The land is represented by a white background. It is assumed that the sea located at the upper left (dashed hatched portion) is printed in blue. Contour lines shall be represented in brown. In the figure, contour lines are represented by alternate long and short dash lines in order to express color differences. Other roads, buildings (hatched areas), letters, triangles, etc. are printed in black.

この例では、新版地図中に示す領域A〜Eについて、新旧の差分が生じている。差分地図では、新旧版を重ね合わせた地図上で差分が生じた箇所を、赤など、地図の印刷に使用される4色とは異なる色で表す出力形式を例示した。図示の便宜上、図中では、差分の箇所をクロスハッチで示した。差分地図は、旧版または新版の地図と重ね合わせて出力する必要はなく、差分の箇所のみを出力するようにしてもよい。   In this example, old and new differences are generated in areas A to E shown in the new version map. In the difference map, an output format is shown in which a difference is generated on a map in which the old and new versions are overlapped and expressed in a color different from the four colors used for printing the map, such as red. For convenience of illustration, the difference portions are shown by cross hatching in the drawing. The difference map does not need to be superimposed on the old version or new version of the map, and only the difference portion may be output.

B.地図解析処理:
図3は地図解析処理のフローチャートである。新旧地図の差分を抽出するための処理であり、解析装置を構成するパーソナルコンピュータ100のCPUが実行する処理である。処理が開始されると、CPUは、新旧地図の画像データを入力し(ステップS100)、差分を抽出するための前処理として色補正および量子化、ノイズ除去を施す(ステップS200)。
B. Map analysis processing:
FIG. 3 is a flowchart of the map analysis process. It is a process for extracting the difference between the old and new maps, and is a process executed by the CPU of the personal computer 100 constituting the analysis apparatus. When the process is started, the CPU inputs image data of old and new maps (step S100), and performs color correction, quantization, and noise removal as preprocessing for extracting the difference (step S200).

次に、CPUはこうして得られた画像データに対して、先に説明した対応点の抽出処理を実行し(ステップS300)、この対応点を基準として位置合わせの処理、即ち座標を合わせるように新旧地図の画像データの画像データを補正する処理を行う(ステップS400)。こうして得られた補正データに基づき、CPUは両者の差分を抽出し(ステップS500)、その結果を出力する(ステップS600)。以下、各処理について詳細に説明する。   Next, the CPU executes the corresponding point extraction process described above on the image data obtained in this way (step S300), and performs the alignment process based on the corresponding point, that is, the old and new so as to match the coordinates. A process of correcting the image data of the map image data is performed (step S400). Based on the correction data thus obtained, the CPU extracts the difference between the two (step S500) and outputs the result (step S600). Hereinafter, each process will be described in detail.

B1.前処理ルーチン:
図4は前処理ルーチンのフローチャートである。解析処理(図3)のステップS200に相当する処理である。
B1. Preprocessing routine:
FIG. 4 is a flowchart of the preprocessing routine. This is a process corresponding to step S200 of the analysis process (FIG. 3).

この処理では、CPUは、画像データの各画素について色補正および量子化を行う(ステップS210)。色補正として、まず、CPUは、次式により、各画素のRGBの階調値を、2つの成分値GD1、GD2に変換する。
GD1=0.596*R−0.274*G−0.322*B;
GD2=0.149*R+0.437*G+0.414*B
GD1は、YIQ表色系においてオレンジからシアンの色差信号に相当する値である。GD2は、RGB表色系の明度差を表すパラメータである。
In this process, the CPU performs color correction and quantization for each pixel of the image data (step S210). As color correction, the CPU first converts the RGB gradation values of each pixel into two component values GD1 and GD2 according to the following equation.
GD1 = 0.596 * R−0.274 * G−0.322 * B;
GD2 = 0.149 * R + 0.437 * G + 0.414 * B
GD1 is a value corresponding to a color difference signal from orange to cyan in the YIQ color system. GD2 is a parameter representing the brightness difference of the RGB color system.

CPUはこうして得られたデータに基づいて、画像データの各色を青(B)、茶(Br)、白(W)、黒(K)に分類する。各色を表す指標値として、本実施例では、8ビットのグレースケールGSを与えるものとした。各色の分類条件とグレースケールの値は、次の通り設定した。
−55<GD1<−11→GS=200(青:B);
9<GD1<50→GS=120(茶:Br);
200<GD2→GS=250(白:W);
GD2<140→GS=0(黒:K)
Based on the data thus obtained, the CPU classifies each color of the image data into blue (B), brown (Br), white (W), and black (K). In this embodiment, an 8-bit gray scale GS is given as an index value representing each color. The classification conditions and gray scale values for each color were set as follows.
−55 <GD1 <−11 → GS = 200 (blue: B);
9 <GD1 <50 → GS = 120 (Brown);
200 <GD2 → GS = 250 (white: W);
GD2 <140 → GS = 0 (black: K)

併せて図中に、各色の分類の様子を示した。パラメータGD1は、青と茶色の識別に用いられ、GD2は白と黒の識別に用いられる。つまり、先に示した変換式を用いた場合には、画像データ中の青色の画素は、パラメータGD2は種々の値を採るものの、GD1については「−55<GD1<−11」という範囲に分布する。従って、これらの画素については、量子化を施す、即ち、パラメータGD1、GD2における値の相違を無視して、一律、同一の色として扱うものとし、GS値として、青(B)を表す200を与える。   In addition, the state of classification of each color is shown in the figure. The parameter GD1 is used for identifying blue and brown, and GD2 is used for identifying white and black. That is, when the conversion formula shown above is used, the blue pixels in the image data are distributed in the range of “−55 <GD1 <−11” for GD1, although the parameter GD2 takes various values. To do. Therefore, these pixels are quantized, that is, the difference between the values in the parameters GD1 and GD2 is ignored, and they are treated as the same color, and 200 representing blue (B) is used as the GS value. give.

同様にして、パラメータGD1が「9<GD1<50」の画素については、一律、GS値として、茶(Br)を表す120を与える。白および黒については、パラメータGD2に基づいて評価し、それぞれ上述のGS値、即ち白に対しては250、黒に対しては0を与える。   Similarly, for a pixel whose parameter GD1 is “9 <GD1 <50”, 120 representing brown (Br) is uniformly given as the GS value. White and black are evaluated based on the parameter GD2, and the above-described GS values are given, that is, 250 for white and 0 for black, respectively.

この処理によって、画像データの色情報を、グレースケールGSという単一のパラメータで表すとともに、色情報に含まれる種々の誤差を排除することができる。こうすることで、地図が予め既知の数色で印刷されているという特徴を活かし、色情報の取扱の容易化を図ることができる。   By this processing, the color information of the image data can be expressed by a single parameter called gray scale GS, and various errors included in the color information can be eliminated. By doing so, it is possible to facilitate the handling of color information by taking advantage of the fact that the map is printed with several known colors in advance.

色補正および量子化で用いられる補正式またはパラメータ、および量子化のための基準値については、地図で用いられる色に応じて使い分けることが好ましい。本実施例では、先に図1で説明した補正値テーブル171によって、これらの補正式等を与えるものとした。こうすることにより、例えば、オペレータが、解析に先立って、地図で用いられている色数を指定することにより、補正式等を使い分けることが可能となり、適切な色補正および量子化を施すことが可能となる。図中の実施例では、青および茶色を識別するためのパラメータGD1と、白および黒を識別するためのパラメータGD2の2種類を用いたが、単一のパラメータまたは3以上のパラメータで評価しても構わない。   The correction formula or parameter used for color correction and quantization, and the reference value for quantization are preferably used according to the color used in the map. In this embodiment, these correction equations are given by the correction value table 171 described above with reference to FIG. In this way, for example, by specifying the number of colors used in the map prior to analysis, the operator can use different correction formulas and the like, and appropriate color correction and quantization can be performed. It becomes possible. In the embodiment in the figure, two types of parameter GD1 for identifying blue and brown and parameter GD2 for identifying white and black are used. However, evaluation is performed using a single parameter or three or more parameters. It doesn't matter.

CPUは、こうして色補正および量子化が施されたデータに対して、ノイズ除去を実行する(ステップS220)。ノイズ除去は、種々の方法を適用可能であるが、本実施例では、メディアンフィルタ、拡散・収縮処理という2種類の方法でノイズ除去を行うものとした。   The CPU performs noise removal on the data thus subjected to color correction and quantization (step S220). Although various methods can be applied to the noise removal, in this embodiment, the noise removal is performed by two types of methods: median filter and diffusion / shrinkage processing.

図中にメディアンフィルタの処理方法を模式的に示した。図中のマスは画素を示しており、ハッチングを施した画素と、白抜きの画素は異なる色であるものとする。ノイズ除去の処理対象画素をP1とすると、メディアンフィルタでは、この周囲を含む9つの画素に着目し(図中の太線で囲った部分)、これらの画素の階調値の中央値を対象画素P1の階調値とする。図の例では、9つの画素を階調値順に並べると、中央値、即ち5番目の画素は、ハッチングを施した画素となるため、対象画素P1にこの階調値を割り当てることになる。   The median filter processing method is schematically shown in the figure. The squares in the figure indicate pixels, and it is assumed that hatched pixels and white pixels have different colors. When the processing target pixel for noise removal is P1, the median filter pays attention to nine pixels including the periphery (portion surrounded by a thick line in the figure), and the median value of the gradation values of these pixels is the target pixel P1. Gradation value. In the example shown in the figure, when nine pixels are arranged in order of gradation values, the median value, that is, the fifth pixel is a hatched pixel, and therefore this gradation value is assigned to the target pixel P1.

図中に同じく拡散・収縮処理の処理方法を模式的に示した。収縮処理とは、対象画素についてその周囲の8つの画素の少なくとも一部に空白の画素がある場合には、その対象画素を空白画素に置き換える処理を言う。この処理によれば、図中の左端に示すように点在するノイズが消去される。   In the figure, the diffusion / shrinkage treatment method is schematically shown. The contraction process refers to a process of replacing a target pixel with a blank pixel when there is a blank pixel in at least a part of the surrounding eight pixels of the target pixel. According to this processing, the scattered noise is eliminated as shown at the left end in the figure.

拡散処理とは、逆に、空白の対象画素についてその周囲の8つの画素の少なくとも一部に階調値を有する非空白の画素がある場合には、その対象画素を非空白画素に置き換える処理を言う。この処理によれば、図中の右下に示すような点状に空白画素が存在するノイズが消去される。   Contrary to the diffusion process, when there is a non-blank pixel having a gradation value in at least a part of the surrounding eight pixels of the blank target pixel, the process of replacing the target pixel with the non-blank pixel is performed. say. According to this processing, noise having blank pixels in a dot shape as shown in the lower right in the figure is eliminated.

B2.対応点抽出処理:
図5は対応点抽出処理のフローチャートである。解析処理(図3)のステップS300に相当する処理である。CPUは処理が開始されると、対応点のテンプレートを読み込む(ステップS310)。図中に地図の一部を示すとともに、テンプレートの例を示した。図中でハッチングを施した部分が地図の図枠内部に相当する。
B2. Corresponding point extraction processing:
FIG. 5 is a flowchart of corresponding point extraction processing. This is a process corresponding to step S300 of the analysis process (FIG. 3). When the process is started, the CPU reads a template of corresponding points (step S310). A part of the map is shown in the figure, and an example of the template is shown. The hatched part in the figure corresponds to the inside of the map frame.

先に説明した通り、本実施例では、三角点、および図枠の角、トンボをそれぞれ対応点として用いるものとした。三角点を表すテンプレートT1としては、三角点を含む一定領域の画像データを用いる。テンプレートT1については、三角点以外の部分は空白または白色で構わない。図枠の角を表すテンプレートT2、トンボを表すテンプレートT3としてはこれらの部位を含む画像データを用いる。テンプレートT2、T3については、図枠内部の画像、ハッチングを施した部分については、どのような階調値であっても構わない。   As described above, in this embodiment, the triangular point, the corner of the picture frame, and the registration mark are used as corresponding points. As the template T1 representing a triangular point, image data of a certain region including the triangular point is used. For the template T1, the portions other than the triangular points may be blank or white. Image data including these parts is used as a template T2 representing a corner of a picture frame and a template T3 representing a registration mark. As for the templates T2 and T3, any gradation value may be used for the image inside the frame and the hatched portion.

次にCPUはテンプレートマッチングにより対応点の抽出を行う(ステップS320)。この際、対応点の抽出精度を向上させるため、分版処理を施す。図中に分版処理およびテンプレートマッチングの様子を例示した。図の例では、茶色とその他の色で分版処理することにより、等高線の画像PL2と、その他の画像PL1とを分離する。こうして画像PL1上で、テンプレートT1を順次移動させながら、それぞれの位置で、このテンプレートT1を構成する各画素と画像PL1との一致度を求める。一致度は、テンプレート中の三角点を形成する画素部分についてのみ評価するようにしてもよい。こうして得られた一致度が所定値以上となる場所に対応点としての三角点が存在すると判断することができる。   Next, the CPU extracts corresponding points by template matching (step S320). At this time, in order to improve the extraction accuracy of corresponding points, a color separation process is performed. The state of separation processing and template matching is illustrated in the figure. In the example shown in the figure, the contour line image PL2 and the other image PL1 are separated by performing color separation processing with brown and other colors. In this way, the degree of coincidence between each pixel constituting the template T1 and the image PL1 is obtained at each position while sequentially moving the template T1 on the image PL1. The degree of coincidence may be evaluated only for the pixel portion forming the triangular point in the template. It can be determined that a triangular point as a corresponding point exists in a place where the degree of coincidence obtained in this way is a predetermined value or more.

他のテンプレートについても同様である。テンプレートT2、T3を移動させながら、一致度が高くなるところに角およびトンボが存在すると判断する。テンプレートT2、T3については、図枠内の画像に相当する部分については、画像PL1が0以外であれば、テンプレートと一致するものとして評価するようにしてもよい。   The same applies to other templates. While moving the templates T2 and T3, it is determined that corners and registration marks exist where the degree of coincidence increases. Regarding the templates T2 and T3, portions corresponding to images in the figure frame may be evaluated as matching with the template if the image PL1 is other than 0.

CPUは以上の処理によって、新旧地図の画像データそれぞれについて、対応点の座標を特定する。本実施例では、地図の左下を原点とするx、y座標を用いるものとした。   The CPU specifies the coordinates of the corresponding point for each of the image data of the old and new maps through the above processing. In this embodiment, x and y coordinates with the origin at the lower left of the map are used.

B3.位置合わせ処理:
図6は位置合わせ処理のフローチャートである。解析処理(図3)のステップS400に相当する処理である。
B3. Alignment process:
FIG. 6 is a flowchart of the alignment process. This is a process corresponding to step S400 of the analysis process (FIG. 3).

CPUはまず、画像データをドロネー三角形に分割する(ステップS410)。ドロネー三角形とは、いずれの三角形においても、その外接円内に他の三角形の頂点が入らないという条件が満足されるよう設定された形状を言う。図中に分割の様子を示した。三角点は塗りつぶした三角形で示してある。ハッチングを施した領域が、ドロネー三角形の一つである。画像データの領域分割は、ドロネー三角形に限られるものではなく、任意の形状を適用可能である。但し、ドロネー三角形を用いれば、後述する画像データの補正が比較的容易かつ精度よく実現することができる利点がある。   The CPU first divides the image data into Delaunay triangles (step S410). A Delaunay triangle refers to a shape that is set to satisfy the condition that the vertex of another triangle does not enter the circumscribed circle of any triangle. The state of division is shown in the figure. Triangular points are shown as filled triangles. The hatched area is one of the Delaunay triangles. The area division of the image data is not limited to the Delaunay triangle, and any shape can be applied. However, the use of Delaunay triangles has the advantage that correction of image data, which will be described later, can be realized relatively easily and accurately.

CPUはこうして得られた三角形の各頂点が新旧の画像データで一致するよう、領域ごとに補正を行う。この補正は、種々の方法を適用可能であるが、本実施例では、アフィン変換を施すものとした。この変換を行うため、CPUは、アフィン変換の係数を決定する(ステップS412)。図中にアフィン変換のイメージを示した。旧版の地図におけるドロネー三角形の各頂点がA,B,Cであり、新版の地図におけるドロネー三角形の頂点a,b,cであるものとする。アフィン変換とは、平行移動、拡大・縮小、回転の組み合わせで実現される変換であり、変換前後のx、y座標が一次式で表される特徴がある。CPUは、新版のドロネー三角形の頂点a,b,cが、旧版の頂点A,B,Cに一致するように、これらの係数を設定することができる。本実施例では、新版地図の画像データを補正するものとしたが、旧版地図の画像データを補正してもよいし、双方を補正してもよい。   The CPU performs correction for each region so that the vertices of the triangle thus obtained match the new and old image data. For this correction, various methods can be applied. In this embodiment, affine transformation is performed. In order to perform this conversion, the CPU determines an affine transformation coefficient (step S412). The image of affine transformation is shown in the figure. Assume that the vertices of the Delaunay triangle in the old version of the map are A, B, and C, and the vertices a, b, and c of the Delaunay triangle in the new version of the map. The affine transformation is a transformation realized by a combination of parallel movement, enlargement / reduction, and rotation, and has a feature that the x and y coordinates before and after the transformation are expressed by a linear expression. The CPU can set these coefficients so that the vertices a, b, and c of the new version of the Delaunay triangle coincide with the vertices A, B, and C of the old version. In this embodiment, the image data of the new version map is corrected. However, the image data of the old version map may be corrected, or both may be corrected.

こうしてアフィン変換の係数が設定されると、CPUはまず、変換後のドロネー三角形、の画像データに含まれる未処理の画素を処理の対象画素として一つ選択する(ステップS414)。そして、この対象画素に対して逆アフィン変換を施すことにより、変換前の画像データにおける座標値を算出する(ステップS416)。次に、変換前の画像データの各画素におけるGS値を補間して、この座標値に対応するGS値を求める(ステップS418)。   When the coefficient of affine transformation is set in this way, the CPU first selects one unprocessed pixel included in the image data of the Delaunay triangle after the conversion as a processing target pixel (step S414). Then, by performing inverse affine transformation on the target pixel, a coordinate value in the image data before conversion is calculated (step S416). Next, the GS value in each pixel of the image data before conversion is interpolated to obtain a GS value corresponding to this coordinate value (step S418).

図中に補間演算の様子を示した。図の各マスは変換前の画像データにおける画素を示しており、ステップS416によって求められた座標が点Pで表されるものとする。図の例では、この点Pの周囲には、白抜きで示した4つの画素が存在する。従って、点PのGS値は、これらの4つの画素のGS値、GSa〜GSdを補間することで求められる。このような2次元的なデータの補間については周知の演算であるため、詳細な説明を省略する。CPUはこうして得られたGS値を対象画素に割り当てる。CPUは、以上の処理を変換後の全対象画素について終了するまで繰り返す(ステップS420)。   The state of interpolation calculation is shown in the figure. Each square in the figure represents a pixel in the image data before conversion, and the coordinates obtained in step S416 are represented by a point P. In the example shown in the figure, around the point P, there are four pixels shown in white. Therefore, the GS value of the point P can be obtained by interpolating the GS values of these four pixels, GSa to GSd. Since such two-dimensional data interpolation is a well-known calculation, a detailed description thereof will be omitted. The CPU assigns the GS value thus obtained to the target pixel. The CPU repeats the above processing for all the target pixels after conversion (step S420).

上述の補正方法によれば、次の利点がある。一般に画像データをアフィン変換した場合、変換前後の画素同士が完全に一対一で対応するとは限らない。変換後の一つの画素に対して、変換前の複数の画素が対応づけられる場合もあれば、いずれの画素も対応づけられない場合もある。かかる場合、変換後の画素のGS値は一義的には定まらないことになる。これに対し、上述の方法によれば、補間演算の適用により、変換後の各画素に対応するGS値を一義的に求めることができ、変換に伴うGS値の誤差またはノイズが発生する可能性を抑制することができる。   The above correction method has the following advantages. Generally, when image data is subjected to affine transformation, pixels before and after the transformation do not always correspond one-on-one. A plurality of pixels before conversion may be associated with one pixel after conversion, or none of the pixels may be associated with each other. In such a case, the GS value of the pixel after conversion is not uniquely determined. On the other hand, according to the method described above, by applying the interpolation calculation, the GS value corresponding to each pixel after conversion can be uniquely obtained, and there is a possibility that an error or noise of the GS value accompanying the conversion occurs. Can be suppressed.

実施例で示した変換方法は、一例に過ぎず、画像データの変換にはその他種々の方法を適用可能である。ステップS418では、補間演算後にGS値の量子化を施すようにしてもよいし、補間演算をRGBの階調値で行った上で色補正および量子化を施すようにしてもよい。   The conversion method shown in the embodiment is merely an example, and various other methods can be applied to the conversion of image data. In step S418, quantization of the GS value may be performed after the interpolation calculation, or color correction and quantization may be performed after the interpolation calculation is performed with RGB gradation values.

B4.差分抽出処理:
図7は差分抽出処理のフローチャートである。解析処理(図3)のステップS500に相当する処理である。本実施例では、新版地図の画像データの各画素について、旧版地図の画像データと一致するか否かを比較することで差分を抽出するものとした。
B4. Difference extraction processing:
FIG. 7 is a flowchart of the difference extraction process. This is a process corresponding to step S500 of the analysis process (FIG. 3). In the present embodiment, for each pixel of the image data of the new version map, the difference is extracted by comparing whether or not it matches the image data of the old version map.

かかる処理を実行するため、CPUは、まず、新版地図の画像データから未処理の画素の一つを処理の対象画素として選択する(ステップS502)。次に、この画素について新旧の画像データの比較を行う(ステップS504)。図中に比較の様子を模式的に示した。図中のマスは画素を表している。上側に新版地図の画像データ、下側に旧版地図の画像データを示した。塗りつぶしたマスが処理対象の画素である。本実施例では、対象画素は、旧版地図の画像データにおいて対応する位置にある画素(図中の塗りつぶした画素)だけでなく、その周辺の8つの画素(図中のハッチングを施した画素)とも比較される。   In order to execute such processing, the CPU first selects one of unprocessed pixels from the image data of the new version map as a processing target pixel (step S502). Next, the new and old image data are compared for this pixel (step S504). The comparison is schematically shown in the figure. The squares in the figure represent pixels. The image data of the new version map is shown on the upper side, and the image data of the old version map is shown on the lower side. Filled cells are pixels to be processed. In this embodiment, the target pixels are not only the pixels at the corresponding positions in the image data of the old version map (filled pixels in the figure) but also the eight neighboring pixels (hatched pixels in the figure). To be compared.

これらの少なくとも一つの画素とGS値が一致する場合には(ステップS506)、対象画素について新旧の差違はないと判断し、差分を表すデータとして値0を格納する(ステップS508)。一方、上述したいずれの画素ともGS値が一致しない場合には(ステップS508)、対象画素について新旧の差違が存在すると判断し、差分を表すデータとして値1を格納する(ステップS510)。CPUは以上の処理を、全画素について終了するまで繰り返す(ステップS512)。   When the GS value matches with at least one of these pixels (step S506), it is determined that there is no difference between the old and new for the target pixel, and the value 0 is stored as data representing the difference (step S508). On the other hand, if the GS value does not coincide with any of the above-described pixels (step S508), it is determined that there is an old / new difference for the target pixel, and a value 1 is stored as data representing the difference (step S510). The CPU repeats the above processing until all the pixels are finished (step S512).

この比較時には、色の相違を考慮してもよいし、無視してもよい。色の相違を考慮する場合には、例えば、空き地だった場所にほぼ土地と同一形状の建造物ができた場合や、ため池が埋め立てられて土地になった場合など、形状上の変化が現れない差違を、色情報に基づき差分として抽出することができる利点がある。   In this comparison, the color difference may be taken into account or ignored. When considering the difference in color, for example, when there is a building with almost the same shape as the land in a vacant place, or when the pond is reclaimed into land, there will be no change in shape. There is an advantage that the difference can be extracted as a difference based on the color information.

本実施例では、上述の通り、対象画素だけでなくその周辺の画素も含めて比較することにより、新旧地図の画像データに数画素分のずれが残存している場合でも、精度良く差分を認識することができる。比較対象とする領域を狭める程、差分抽出の感度が高くなり、領域を広げる程、感度が低くなる。比較対象とする領域は、差分抽出の要求感度と、画像データおよび位置合わせなどの精度に応じて任意に設定可能である。例えば、周辺の画素については比較対象に含めないようにしてもよい。   In this embodiment, as described above, by comparing not only the target pixel but also its surrounding pixels, the difference is accurately recognized even when a difference of several pixels remains in the image data of the old and new maps. can do. The narrower the region to be compared, the higher the sensitivity of difference extraction, and the wider the region, the lower the sensitivity. The area to be compared can be arbitrarily set according to the required sensitivity for difference extraction and the accuracy of image data and alignment. For example, peripheral pixels may not be included in the comparison target.

以上で説明した本実施例の解析装置によれば、対応点を自動的に抽出することができるため、新旧地図の位置合わせを軽い負荷で精度良く実施することができる。また、色情報の活用により、対応点の抽出および差分抽出の精度向上を図ることができる。更に、これらの処理において、色情報を、GS値という単一の成分に減らすとともに、量子化して扱うことにより、色情報に含まれる誤差を排除することができ、色情報を軽い負荷で有効活用することが可能となる。   According to the analysis apparatus of the present embodiment described above, the corresponding points can be automatically extracted, so that the new and old maps can be accurately aligned with a light load. In addition, by utilizing color information, it is possible to improve the accuracy of extraction of corresponding points and difference extraction. Furthermore, in these processes, the color information is reduced to a single component called a GS value, and by handling with quantization, errors contained in the color information can be eliminated, and the color information can be effectively used with a light load. It becomes possible to do.

以上、本発明の種々の実施例について説明したが、本発明はこれらの実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。   As mentioned above, although the various Example of this invention was described, it cannot be overemphasized that this invention is not limited to these Examples, and can take a various structure in the range which does not deviate from the meaning.

実施例としての地図の解析装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the map analysis apparatus as an Example. 解析対象となる地図例を示す説明図である。It is explanatory drawing which shows the example of a map used as analysis object. 地図解析処理のフローチャートである。It is a flowchart of a map analysis process. 前処理ルーチンのフローチャートである。It is a flowchart of a pre-processing routine. 対応点抽出処理のフローチャートである。It is a flowchart of a corresponding point extraction process. 位置合わせ処理のフローチャートである。It is a flowchart of an alignment process. 差分抽出処理のフローチャートである。It is a flowchart of a difference extraction process.

符号の説明Explanation of symbols

10...スキャナ
20...ハードディスク
100...パーソナルコンピュータ
110...画像データ入力部
120...対応点抽出部
121...テンプレート
130...位置合わせ部
131...補正データ管理部
140...差分抽出部
150...出力部
160...分版処理部
170...色補正部
171...補正値テーブル
DESCRIPTION OF SYMBOLS 10 ... Scanner 20 ... Hard disk 100 ... Personal computer 110 ... Image data input part 120 ... Corresponding point extraction part 121 ... Template 130 ... Positioning part 131 ... Correction data Management unit 140 ... Difference extraction unit 150 ... Output unit 160 ... Separation processing unit 170 ... Color correction unit 171 ... Correction value table

Claims (12)

2枚の地図の差分を抽出する解析装置であって、
前記2枚の地図を表す画像データを入力する画像データ入力部と、
前記画像データに基づいて、前記2枚の地図に共通して存在する所定の対応点を、抽出する対応点抽出部と、
前記画像データを前記対応点によって定義される複数の領域に分割するとともに、前記対応点の位置が一致するように前記領域ごとに前記画像データを補正する画像補正部と、
該補正後の画像データに基づいて前記2枚の地図の差分を抽出する差分抽出部とを備える解析装置。
An analysis device that extracts the difference between two maps,
An image data input unit for inputting image data representing the two maps;
Based on the image data, a corresponding point extracting unit that extracts a predetermined corresponding point that exists in common in the two maps;
An image correction unit that divides the image data into a plurality of regions defined by the corresponding points and corrects the image data for each of the regions so that the positions of the corresponding points match;
An analysis apparatus comprising: a difference extraction unit that extracts a difference between the two maps based on the corrected image data.
請求項1記載の解析装置であって、
前記対応点は、地図作製時の測量に利用される基準点、地図図枠の角、該地図図枠の各辺上の特定比率の内分点、およびトンボの少なくとも一部を含む解析装置。
The analysis device according to claim 1,
The corresponding point includes an analysis device including at least a part of a reference point used for surveying at the time of map creation, a corner of a map picture frame, an internal dividing point of a specific ratio on each side of the map picture frame, and a registration mark.
請求項1記載の解析装置であって、
前記画像データは画素ごとに階調値を有するラスタデータであり、
前記画像補正部は、前記補正後の各画素に対応する位置を補正前の画像データにおいて求め、補正前の画像データにおいて該位置の周辺に存在する複数の画素を用いた所定の演算に基づいて該位置における階調値を求め、該階調値を前記補正後の画素の階調値として設定する解析装置。
The analysis device according to claim 1,
The image data is raster data having a gradation value for each pixel,
The image correction unit obtains a position corresponding to each pixel after correction in the image data before correction, and based on a predetermined calculation using a plurality of pixels existing around the position in the image data before correction. An analysis apparatus that obtains a gradation value at the position and sets the gradation value as a gradation value of the pixel after correction.
請求項1記載の解析装置であって、
前記画像データは多色のデータであり、
前記対応点抽出部は、前記対応点の形状および色の双方に基づいて、該対応点の抽出を行う解析装置。
The analysis device according to claim 1,
The image data is multicolor data,
The corresponding point extraction unit is an analysis device that extracts the corresponding points based on both the shape and color of the corresponding points.
2枚の地図の差分を抽出する解析装置であって、
前記2枚の地図を表す多色の画像データを入力する画像データ入力部と、
前記2枚の地図に対応する画像データに表された各オブジェクトについて、形状の変化および色の変化の少なくとも一方が生じている部分を、前記2枚の地図の差分として抽出する差分抽出部とを備える解析装置。
An analysis device that extracts the difference between two maps,
An image data input unit for inputting multicolor image data representing the two maps;
For each object represented in the image data corresponding to the two maps, a difference extraction unit that extracts a portion where at least one of a change in shape and a change in color occurs as a difference between the two maps; Analyzing device provided.
請求項5記載の解析装置であって、
前記差分抽出部は、前記画像データの色情報に基づいて該画像データを分版した上で、前記抽出を行う解析装置。
The analysis device according to claim 5,
The differential extraction unit is an analysis device that performs the extraction after separating the image data based on color information of the image data.
請求項4〜6いずれか記載の解析装置であって、
前記画像データは多色の画像データであり、
該色を表すために用いられる成分の数を、所定の演算に基づいて減少させる色補正部を備える解析装置。
The analysis device according to any one of claims 4 to 6,
The image data is multicolor image data,
An analysis apparatus including a color correction unit that reduces the number of components used to represent the color based on a predetermined calculation.
請求項7記載の解析装置であって、
前記色補正部は、前記減少後の成分値に基づいて、前記画像データに含まれる色情報を量子化する解析装置。
The analysis device according to claim 7,
The color correction unit is an analysis apparatus that quantizes color information included in the image data based on the reduced component value.
2枚の地図の差分を抽出する解析方法であって、
コンピュータが実行する工程として、
前記2枚の地図を表す画像データを入力する工程と、
前記画像データに基づいて、前記2枚の地図に共通して存在する所定の対応点を、抽出する工程と、
前記画像データを前記対応点によって定義される複数の領域に分割するとともに、前記対応点の位置が一致するように前記領域ごとに前記画像データを補正する工程と、
該補正後の画像データに基づいて前記2枚の地図の差分を抽出する工程とを備える解析方法。
An analysis method for extracting the difference between two maps,
As a process executed by the computer,
Inputting image data representing the two maps;
A step of extracting a predetermined corresponding point existing in common in the two maps based on the image data;
Dividing the image data into a plurality of regions defined by the corresponding points, and correcting the image data for each region so that the positions of the corresponding points coincide;
And a step of extracting a difference between the two maps based on the corrected image data.
2枚の地図の差分を抽出する解析方法であって、
コンピュータが実行する工程として、
前記2枚の地図を表す多色の画像データを入力する工程と、
前記2枚の地図に対応する画像データに表された各オブジェクトについて、形状の変化および色の変化の少なくとも一方が生じている部分を、前記2枚の地図の差分として抽出する工程とを備える解析方法。
An analysis method for extracting the difference between two maps,
As a process executed by the computer,
Inputting multicolor image data representing the two maps;
Analyzing each object represented in the image data corresponding to the two maps by extracting a portion where at least one of a change in shape and a change in color occurs as a difference between the two maps Method.
2枚の地図の差分を抽出するためのコンピュータプログラムであって、
前記2枚の地図を表す画像データを入力する機能と、
前記画像データに基づいて、前記2枚の地図に共通して存在する所定の対応点を、抽出する機能と、
前記画像データを前記対応点によって定義される複数の領域に分割するとともに、前記対応点の位置が一致するように前記領域ごとに前記画像データを補正する機能と、
該補正後の画像データに基づいて前記2枚の地図の差分を抽出する機能とをコンピュータによって実現するためのコンピュータプログラム。
A computer program for extracting the difference between two maps,
A function of inputting image data representing the two maps;
Based on the image data, a function of extracting a predetermined corresponding point that exists in common in the two maps;
A function of dividing the image data into a plurality of regions defined by the corresponding points and correcting the image data for each of the regions so that the positions of the corresponding points coincide;
A computer program for realizing by a computer a function of extracting a difference between the two maps based on the corrected image data.
2枚の地図の差分を抽出するためのコンピュータプログラムであって、
前記2枚の地図を表す多色の画像データを入力する機能と、
前記2枚の地図に対応する画像データに表された各オブジェクトについて、形状の変化および色の変化の少なくとも一方が生じている部分を、前記2枚の地図の差分として抽出する機能とをコンピュータによって実現するためのコンピュータプログラム。
A computer program for extracting the difference between two maps,
A function of inputting multicolor image data representing the two maps;
A function of extracting at least one of a change in shape and a change in color of each object represented in the image data corresponding to the two maps as a difference between the two maps by a computer Computer program to realize.
JP2003370036A 2003-10-30 2003-10-30 Analysis system for map image Pending JP2005134601A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003370036A JP2005134601A (en) 2003-10-30 2003-10-30 Analysis system for map image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003370036A JP2005134601A (en) 2003-10-30 2003-10-30 Analysis system for map image

Publications (1)

Publication Number Publication Date
JP2005134601A true JP2005134601A (en) 2005-05-26

Family

ID=34647166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003370036A Pending JP2005134601A (en) 2003-10-30 2003-10-30 Analysis system for map image

Country Status (1)

Country Link
JP (1) JP2005134601A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007093904A (en) * 2005-09-28 2007-04-12 Nomura Research Institute Ltd Map unifying system and method
WO2007072815A1 (en) * 2005-12-20 2007-06-28 Zeon Corporation Electric double layer capacitor
WO2008016034A1 (en) * 2006-08-01 2008-02-07 Pasco Corporation Map information update supporting device, map information update supporting method, computer-readable recording medium
JP2009129084A (en) * 2007-11-21 2009-06-11 Mitsubishi Electric Corp Geography space data correction device
JP2010243597A (en) * 2009-04-01 2010-10-28 Sony Corp Device and method for presenting biological image, program, and biological image presentation system
JP2012048523A (en) * 2010-08-27 2012-03-08 Toshiba Corp Association device
JP2013041593A (en) * 2012-09-21 2013-02-28 Olympus Imaging Corp Information processor, control method of information processor, control program of information processor, camera, control method of camera, and control program of camera
CN105015184A (en) * 2014-04-21 2015-11-04 富士施乐株式会社 Image processing apparatus and image forming apparatus
JP5825498B1 (en) * 2014-06-06 2015-12-02 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and program
CN109816749A (en) * 2019-02-14 2019-05-28 中国测绘科学研究院 Figure spot map symbol fill method, device, computer equipment and storage medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4647451B2 (en) * 2005-09-28 2011-03-09 株式会社野村総合研究所 Map integration apparatus and method
JP2007093904A (en) * 2005-09-28 2007-04-12 Nomura Research Institute Ltd Map unifying system and method
WO2007072815A1 (en) * 2005-12-20 2007-06-28 Zeon Corporation Electric double layer capacitor
US8138960B2 (en) 2006-08-01 2012-03-20 Pasco Corporation Map information update support device, map information update support method and computer readable recording medium
WO2008016034A1 (en) * 2006-08-01 2008-02-07 Pasco Corporation Map information update supporting device, map information update supporting method, computer-readable recording medium
JP2008039848A (en) * 2006-08-01 2008-02-21 Pasuko:Kk Device, method and program for supporting map information update
CN101496079B (en) * 2006-08-01 2011-07-27 株式会社博思科 Map information update supporting device, map information update supporting method
JP2009129084A (en) * 2007-11-21 2009-06-11 Mitsubishi Electric Corp Geography space data correction device
JP2010243597A (en) * 2009-04-01 2010-10-28 Sony Corp Device and method for presenting biological image, program, and biological image presentation system
JP2012048523A (en) * 2010-08-27 2012-03-08 Toshiba Corp Association device
JP2013041593A (en) * 2012-09-21 2013-02-28 Olympus Imaging Corp Information processor, control method of information processor, control program of information processor, camera, control method of camera, and control program of camera
CN105015184A (en) * 2014-04-21 2015-11-04 富士施乐株式会社 Image processing apparatus and image forming apparatus
JP2015207903A (en) * 2014-04-21 2015-11-19 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and program
US9552621B2 (en) 2014-04-21 2017-01-24 Fuji Xerox Co., Ltd. Image processing apparatus, image forming apparatus, and computer readable medium
CN105015184B (en) * 2014-04-21 2017-06-09 富士施乐株式会社 Image processing equipment and image forming apparatus
US10356276B2 (en) 2014-04-21 2019-07-16 Fuji Xerox Co., Ltd. Image processing apparatus, image forming apparatus, and computer readable medium
JP5825498B1 (en) * 2014-06-06 2015-12-02 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and program
CN109816749A (en) * 2019-02-14 2019-05-28 中国测绘科学研究院 Figure spot map symbol fill method, device, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
US6898316B2 (en) Multiple image area detection in a digital image
JP3258122B2 (en) Image processing device
CN110727747B (en) Paper map rapid vectorization method and system based on longitude and latitude recognition
US8391595B2 (en) Image processing method and image processing apparatus
JP2002510824A (en) Method and system for detecting defects in a sample image
JPH05236260A (en) Picture processor
US20080031549A1 (en) Image processing apparatus, image reading apparatus, image forming apparatus, image processing method, and recording medium
JPH118755A (en) Method for scanning and detecting many photographs and removing artificial edge
US9407794B2 (en) Image processing apparatus and image processing system
US7680339B2 (en) Image processing method and apparatus for edge detection in an image
JP2005134601A (en) Analysis system for map image
CN115170525A (en) Image difference detection method and device
JP6771134B2 (en) Image correction method and image correction device
CN113808004B (en) Image conversion device, image conversion method, and computer program for image conversion
US20230316697A1 (en) Association method, association system, and non-transitory computer-readable storage medium
JP5929282B2 (en) Image processing apparatus and image processing program
JP4370950B2 (en) Image processing device
JP4312524B2 (en) Manga line image forming method, apparatus and computer program
JP4182891B2 (en) Image processing device
JP2006031245A (en) Image processing method and image processor by profile tracking of digital image
JP2003209704A (en) Image processing method, image processor, image forming device, image processing program, and recording medium
JP4259310B2 (en) Image processing apparatus and program
JP2005175641A (en) Image processor
JP4127691B2 (en) Character recognition apparatus and method
JP3615179B2 (en) Character recognition device and character recognition method