JPH06124339A - Street trace map generation system - Google Patents
Street trace map generation systemInfo
- Publication number
- JPH06124339A JPH06124339A JP3227891A JP22789191A JPH06124339A JP H06124339 A JPH06124339 A JP H06124339A JP 3227891 A JP3227891 A JP 3227891A JP 22789191 A JP22789191 A JP 22789191A JP H06124339 A JPH06124339 A JP H06124339A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- distance
- data
- image
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は街並追跡マップ作成方式
に係り、特に、車両、航空機等の移動体を用いて建築物
の改変を中心とした街並の変化を検知する過程におい
て、日照、陰り、移動体(車、人等)の影響を抑制して
効率的に建築物の改変を抽出する街並追跡マップ作成方
式に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for creating a streetscape tracking map, and more particularly, in the process of detecting a change in the streetscape centering on a modification of a building by using a moving body such as a vehicle or an aircraft. The present invention relates to a method for creating a streetscape tracking map for efficiently extracting a modification of a building by suppressing the influence of shadows and moving bodies (cars, people, etc.).
【0002】[0002]
【従来の技術】建築物の改変(新築、増築、改築、減失
等)を示す街並の画像及び、その街並の画像より改変部
分を表示したマップを自動的に効率的に作成することは
都市設備計画等において重要である。従来の街並追跡マ
ップの作成する場合は移動体(航空機、自動車等)を用
いて、定期的に写真を撮影し、コンピュータ処理により
ディジタル化された新旧の画像を記憶装置に入力し、そ
の記憶装置からディスプレイに表示させ、それらを人が
目視によって比較することで、改変部分を知る。2. Description of the Related Art Automatically and efficiently creating an image of a cityscape showing a modification of a building (new construction, extension, renovation, loss, etc.) and a map showing the modified portion from the image of the cityscape. Is important in urban equipment planning. When creating a conventional cityscape tracking map, a moving body (aircraft, automobile, etc.) is used to periodically take photographs, and old and new images digitized by computer processing are input to a storage device, and the memory is stored. By displaying on the display from the device and comparing them visually by a person, the modified portion is known.
【0003】その改変部分はディスプレイを有するワー
クステーション等から記憶装置指示入力される。従っ
て、記憶装置内の画像に変換部分が記憶され、次の撮像
時に比較される対象となる。The modified portion is input as a storage device instruction from a workstation having a display or the like. Therefore, the converted portion is stored in the image in the storage device and becomes a target to be compared at the time of the next imaging.
【0004】[0004]
【発明が解決しようとする課題】しかるに、従来の方式
は新旧画像の比較を全て、人手により行われる場合と、
機械処理により行なわれる場合がある。人手により行わ
れる場合は、ディスプレイされた画像上の全ての建造物
の形について目で確認して比較する必要があり、膨大な
作業量となる可能性があり、多大な労力を要する。However, in the conventional method, all comparisons of old and new images are manually performed.
It may be performed by mechanical processing. When performed manually, it is necessary to visually check and compare the shapes of all the buildings on the displayed image, which can be a huge amount of work and requires a lot of labor.
【0005】一方、機械処理により行われる場合は、日
照、影、車や人のような移動体、電灯(照明)の点滅等
の過渡的変化が建造物の改変情報に混入することによ
り、建造物自体が改変されたかの判断が不正確となる。
さらに、撮像写真に自然光の明るさ(天候)に差が生じ
ることにより撮像対象の捉え方が異なる。また、撮影位
置、撮影範囲等の環境属性(方位、水平性、対象との距
離等)の変化により同一撮像対象を把握することが困難
である等の問題がある。On the other hand, when it is carried out by mechanical processing, transient changes such as sunshine, shadows, moving bodies such as cars and people, blinking of electric lights (lights), etc. are mixed into the modification information of the building, thereby constructing the building. It becomes inaccurate to judge whether the object itself has been modified.
Further, a difference in the brightness of natural light (weather) occurs in the photographed images, which causes a difference in how to capture the imaged object. In addition, there is a problem that it is difficult to grasp the same image pickup target due to changes in environment attributes (azimuth, horizontality, distance to the target, etc.) such as shooting position and shooting range.
【0006】本発明は上記の点に鑑みなされたもので、
日照、影、移動体、電灯の点滅等の過渡的な変換の影響
を排除して、移動体上での容易な作業の自動化を図り、
多大なデータを扱う基地の作業においても高速化及び能
率化を図り、正確に建造物の改変を検知して表示する画
像及びマップを作成する街並追跡マップ作成方式を提供
することを目的とする。The present invention has been made in view of the above points,
By eliminating the effects of transitional conversions such as sunlight, shadows, moving objects, and flashing lights, automation of easy work on moving objects can be achieved.
It is an object of the present invention to provide a cityscape tracking map creation method that creates an image and a map that accurately detects changes in buildings and displays them by speeding up and improving the efficiency of work at bases that handle large amounts of data. .
【0007】[0007]
【課題を解決するための手段】図1は本発明の原理を説
明するための図である。撮像した画面に基づいて撮像対
象の改変を検知する街並追跡マップ作成方式において、
日時Aに撮像した第1の画面と日時Aより期間Bだけ経
過した日時Cに日時Aの撮像対象と同一対象を撮像した
第2の画面と、第1の画面と第2の画面で相互に異なる
影像を第1の画面または、第2の画面から削除し、合成
した画面である第3の画面と日時Aから期間Bより長い
期間Fだけ、過去に溯った日時Gに日時Aと同一対象を
撮像した第4の画面を用いて、第3の画面と第4の画面
を比較し、第3の画面と第4の画面に異なっている部分
があった場合に、その部分を撮像対象の改変部分として
検知する。FIG. 1 is a diagram for explaining the principle of the present invention. In the cityscape tracking map creation method that detects the alteration of the imaging target based on the imaged screen,
The first screen imaged at the date and time A and the second screen imaged at the same object as the imaged object at the date and time A at the date and time C after a lapse of a period B from the date and time A, and the first screen and the second screen are mutually exchanged. A different image is deleted from the first screen or the second screen, and the third screen, which is a composite screen, is combined with the date A from the date A to the period F that is longer than the period B. The third screen and the fourth screen are compared by using the fourth screen obtained by capturing, and if there is a different portion between the third screen and the fourth screen, that portion is targeted for imaging. Detect as a modified part.
【0008】また、撮像時と同時に画面撮像対象物と同
一の対象物を撮像する際に信号を発射して撮像側と対象
物との距離を測定して、測定結果を記録する距離記録を
作成し、撮像画面から建造物の改変を検知する場合にお
いて、撮像対象物を撮像する際に同時に信号を発射して
測定記録した第1の距離記録と、それ以前の時刻に同位
置で測定記録された第2の距離記録とを比較して第1の
距離記録と第2の距離記録間に差が生じた場合に第1の
距離記録に対応する撮像画面と第2の距離記録に対応す
る撮像画面を比較して撮像対象に異なっている部分があ
った場合にその部分を改変部分として検知する。Further, at the same time when the image is picked up, when the same object as the screen imaged object is imaged, a signal is emitted to measure the distance between the imaging side and the object, and a distance record for recording the measurement result is created. However, in the case of detecting a modification of a building from the imaging screen, the first distance record, which is obtained by emitting a signal at the same time when the image of the imaged object is imaged and recorded, is measured and recorded at the same position before the time. And a second distance record, and when there is a difference between the first distance record and the second distance record, an image capturing screen corresponding to the first distance record and an image capturing corresponding to the second distance record. When the screens are compared and there is a different part in the imaged object, that part is detected as a modified part.
【0009】また、撮像した画面に基づいて建造物の改
変を検知する街並追跡マップ作成方式において、撮像日
時の異なる時に同一対象物を撮像した複数の画面を比較
する場合に、各画面を同じ形で同面積のセルで同じセル
数に分割し、各セル内の平均濃度を全セルについて平均
した全セル平均濃度を求め、各セル内の平均濃度を全セ
ル平均濃度で除した各セルの正規化濃度を求め、さら
に、正規化濃度の標準偏差を求め、標準偏差から基準値
を求め、注目したセルの正規化濃度とセルが接する周辺
セルの正規化濃度の差が基準値以上の場合に、セルを撮
像対象に改変の可能性のある変化セルとして識別し、画
面相互間で画面内の変化セルのみについて比較して各画
面の明るさとコントラストが画面相互で異なることを抑
制する。Further, in a cityscape tracking map creating method for detecting a modification of a building based on the imaged screens, when comparing a plurality of screens of the same object imaged at different imaging dates and times, the respective screens are the same. Divide into the same number of cells with the same area in the form, calculate the average concentration of all cells by averaging the average concentration of each cell, and calculate the average concentration of each cell by the average concentration of all cells. If the normalized density is found, then the standard deviation of the normalized density is found, the standard value is found from the standard deviation, and the difference between the normalized density of the cell of interest and the normalized density of the neighboring cells that the cell touches is greater than or equal to the standard value. In addition, the cells are identified as change cells that may be modified as an imaging target, and only the change cells in the screens are compared between the screens to prevent the brightness and contrast of each screen from being different from each other.
【0010】さらに、撮像した画面に基づいて撮像対象
の改変を検知する街並追跡マップ作成方式において、第
4の画面は改変を検知するために比較すべき第1の画面
と第2の画面の少なくとも一方の画面を複数回撮影して
得られた画面を相互に異なる影像を削除し、合成して得
られた画面である。Further, in the streetscape tracking map creating method for detecting alteration of the imaged object based on the imaged image, the fourth screen is composed of the first screen and the second screen to be compared for detecting alteration. It is a screen obtained by deleting images different from each other in a screen obtained by photographing at least one screen a plurality of times.
【0011】[0011]
【作用】本発明は日照、影、車や人等の移動体、電灯等
の照明の点滅等の過渡的な変化の影響を排除するため
に、撮像日時の差が比較的短期間である朝と夕、或いは
当日と翌日等のタイミングで撮像した少なくとも2種類
の画像を比較し、両者で異なる部分を変化部分から排除
することで、短期間のうちに変化した部分を撮像対象と
なった建造物の改変部分と誤認することを避ける。The present invention eliminates the effects of transient changes such as sunshine, shadows, moving bodies such as cars and people, and blinking of lighting such as electric lights. And evening, or at least two types of images taken at the timing of the current day and the next day, etc. are compared, and the parts that differ between the two are excluded from the changed parts, so that the parts that have changed in a short period of time are targeted for imaging. Avoid misidentifying it as a modified part of the product.
【0012】また、新旧の写真の明るさの差は画像をセ
ル分別し、各セルの明るさを全セルの平均値で正規化
し、且つ、この正規化値の標準偏差を基礎とした値を基
準値として採用し、各セルの明るさが周囲のセルと比較
して、設定してある基準値以上であれば当該セルを識別
した画面を作成し、係る画面相互を画面内の識別したセ
ルのみについて比較して、建造物の変化の可能性がある
変化セルとして検知することにより明るさによる誤認を
解消する。The difference in brightness between old and new photographs is obtained by dividing the image into cells, normalizing the brightness of each cell by the average value of all cells, and using the standard deviation of this normalized value as a basis. Adopted as a reference value, the brightness of each cell is compared with the surrounding cells, and if the set reference value is exceeded, create a screen that identifies the cell, and identify the cells with each other within the screen. By comparing only the above, it is possible to eliminate the false recognition due to the brightness by detecting it as a change cell in which there is a possibility of a change in the structure.
【0013】また、方位、位置点、走行距離、カメラ位
置等を常時把握して、それを記録し、さらに、自動車測
定の場合は超音波を用いて建造物までの距離を測定する
という処理を行い、新旧の環境属性を把握することによ
り、同一性を維持することが可能となる。Further, there is a process in which the direction, the position point, the traveling distance, the camera position, etc. are constantly grasped and recorded, and in the case of automobile measurement, the distance to the building is measured using ultrasonic waves. It is possible to maintain the sameness by carrying out and grasping the old and new environmental attributes.
【0014】[0014]
【実施例】図2は本発明の車搭載システムの構成を示
す。同図は建造物を撮像する際に自動車から測定する場
合の構成である。まず、各構成について説明する。測定
検知撮像制御部として、カメラ21、超音波距離計2
2、測定端制御装置23、車走行距離計24、車輪操舵
角検知計25、方位角検知計26、慣性水準計39、支
柱制御装置40等があり、A/D変換信号送受信部2
7、データバス28、さらに、コンピュータ処理を行う
ための構成として、マップデータファイル装置30、新
画像データファイル装置32、旧画像データファイル装
置34、距離データファイル装置36、システム制御及
び環境データファイル装置41、システム制御及び環境
データ表示用ワークステーション29、マップ用ディス
プレイ装置31、新画像用ディスプレイ装置33、旧画
像用ディスプレイ装置35、距離用ディスプレイ装置3
7、中央制御装置(CPU)38等がある。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 2 shows the configuration of a vehicle mounting system according to the present invention. This figure shows a configuration in which measurement is performed from an automobile when a building is imaged. First, each configuration will be described. The camera 21 and the ultrasonic rangefinder 2 are used as the measurement detection imaging control unit.
2. There are a measuring end control device 23, a vehicle odometer 24, a wheel steering angle detector 25, an azimuth angle detector 26, an inertial level meter 39, a column control device 40, etc., and an A / D conversion signal transmitting / receiving unit 2
7, a data bus 28, and a map data file device 30, a new image data file device 32, an old image data file device 34, a distance data file device 36, a system control and environment data file device as a configuration for performing computer processing. 41, system control and environmental data display workstation 29, map display device 31, new image display device 33, old image display device 35, distance display device 3
7, a central control unit (CPU) 38 and the like.
【0015】次に各測定検知撮像制御部の構成における
動作について説明する。カメラ21は建造物を撮影する
ためのものである。超音波距離計22は撮像対象の建造
物との距離を測定する。測定端制御装置23はCPU3
8の指示によりカメラ21と超音波距離計22の位置を
測定する。車走行距離計24は車の走行距離を検知す
る。車輪操舵角検知計25は車輪の操舵角を検知する。
方位角検知計26は車の進行方向と磁石のN極と角度差
を検知する。慣性水平計39は車の傾きを検知する。支
柱制御装置40はCPU38の指示によりカメラ21と
超音波距離計22との高さを制御する。Next, the operation of the configuration of each measurement detection / imaging control section will be described. The camera 21 is for photographing a building. The ultrasonic range finder 22 measures the distance to the building to be imaged. The measuring end control device 23 is the CPU 3
The positions of the camera 21 and the ultrasonic range finder 22 are measured by the instruction of 8. The vehicle odometer 24 detects the mileage of the vehicle. The wheel steering angle detector 25 detects the steering angle of the wheels.
The azimuth detector 26 detects an angle difference between the traveling direction of the vehicle and the N pole of the magnet. The inertial level gauge 39 detects the inclination of the vehicle. The column control device 40 controls the heights of the camera 21 and the ultrasonic range finder 22 according to an instruction from the CPU 38.
【0016】上記の測定検知撮像制御部で検知された各
々のアナログデータはA/D変換信号送受信部27でデ
ィジタルデータに変換され、データバス28に送出され
る。システム制御及び環境データ表示用ワークステーシ
ョン(WS)29はシステム制御及び環境データファイ
ル装置41とデータの授受を行う。このシステム制御及
び環境データファイル装置41は新画像と旧画像の両方
の環境データを有する。この環境データは超音波距離計
22、測定端制御装置23、車走行距離計24、車輪操
舵角検知計25、方位角検知計26、慣性水平計39、
支柱制御装置40の各装置からのデータであり、これら
のデータはシステム制御及び環境データファイル装置4
1に蓄積され、システム制御及び環境データ用WS29
に出力される。Each analog data detected by the above-mentioned measurement / detection / imaging control section is converted into digital data by the A / D conversion signal transmitting / receiving section 27 and sent to the data bus 28. The system control / environmental data display workstation (WS) 29 exchanges data with the system control / environmental data file device 41. The system control and environment data file device 41 has environment data of both new and old images. This environmental data includes an ultrasonic range finder 22, a measurement end control device 23, a vehicle odometer 24, a wheel steering angle detector 25, an azimuth angle detector 26, an inertial level meter 39,
It is data from each device of the column control device 40, and these data are system control and environmental data file device 4
WS29 for system control and environmental data stored in 1
Is output to.
【0017】マップデータファイル装置30は予め測定
対象地域の建造物を含むベクトルマップが記憶されてお
り、その中のマップデータはマップ用ディスプレイ装置
31に出力され、さらに、システム制御及び環境データ
ファイル装置41と共働して測定点の表示と環境データ
を利用して軌跡についてマップ用ディスプレイ装置31
上にオンラインによる表示を行う。The map data file device 30 pre-stores a vector map including buildings in the measurement target area, the map data in the vector map is output to the map display device 31, and the system control and environmental data file device. 41. Display device for map 31 about display of measurement points and environment data in cooperation with 41
Display online above.
【0018】新画像データファイル装置32はカメラ2
1で撮影された画像を記憶し、新画像データ用ディスプ
レイ装置31に出力する。旧画像データファイル装置3
4は同様にカメラ21で撮影された画像を記憶し、旧画
像データ用ディスプレイ装置35に出力する。さらに、
新画像データファイル装置32と旧画像データファイル
装置34はそれぞれ、測定点の固定のために、予め一致
点を決定しておき、画像上に表示させるための点の情報
も有する。The new image data file device 32 is the camera 2
The image taken in 1 is stored and output to the new image data display device 31. Old image data file device 3
Similarly, 4 stores the image taken by the camera 21 and outputs it to the old image data display device 35. further,
Each of the new image data file device 32 and the old image data file device 34 also has information on points for determining coincident points in advance and fixing them on the image in order to fix the measurement points.
【0019】距離データファイル装置36は超音波距離
計22が計測した撮像対象物と測定点との距離を記憶
し、距離用ディスプレイ装置37に出力する。The distance data file device 36 stores the distance between the object to be imaged and the measurement point measured by the ultrasonic distance meter 22 and outputs it to the distance display device 37.
【0020】上記の各ファイル装置及び、ディルプレイ
装置は全て、データバス28を介してCPU28により
制御される。また、この制御用のソフトウェアはシステ
ム制御及び環境データファイル41に格納されており、
制御用の入出力はシステム制御及び環境データ用WS2
9を介して行われる。The above file devices and the display device are all controlled by the CPU 28 via the data bus 28. Further, this control software is stored in the system control and environment data file 41,
I / O for control is WS2 for system control and environmental data
It is done via 9.
【0021】図3は本発明の基地側のシステム構成を示
す。同図の構成は図2の自動車に搭載してあるシステム
とのデータの授受を行い、マップ作成処理を行うもので
ある。先ず、基地側の構成を説明する。基地側の構成は
新マップ用データファイル装置51、新マップ用WS5
2、旧マップ用データファイル装置53、旧マップ用W
S54、新画像データファイル装置55、新画像用WS
56、旧画像データファイル装置57、旧画像用WS5
8、新旧距離データファイル装置59、新旧距離用WS
60、システム制御及び、環境データ用WS61、CP
U62,プリンタ63、記録媒体作成装置64、データ
バス65、システム制御/データ用WS66により構成
される。FIG. 3 shows a system configuration on the base side of the present invention. The configuration shown in the figure exchanges data with the system mounted on the automobile shown in FIG. 2 to perform map creation processing. First, the configuration on the base side will be described. The configuration of the base side is the new map data file device 51, the new map WS5.
2, old map data file device 53, old map W
S54, new image data file device 55, new image WS
56, old image data file device 57, old image WS5
8, old and new distance data file device 59, old and new distance WS
60, system control and environmental data WS61, CP
A U62, a printer 63, a recording medium creating device 64, a data bus 65, and a system control / data WS 66.
【0022】次に基地側の構成の動作を説明する。新マ
ップ用データファイル装置51及び旧マップ用データフ
ァイル装置53は先に述べた自動車搭載のシステムでの
測定が終了するとその都度、マップデータファイル31
より移送される。新画像データファイル装置55及び旧
画像データファイル装置57は同様に測定が終了する
と、画像データが新画像データファイル32及び旧画像
データファイル34より移送される。新旧距離データフ
ァイル装置59は新旧の距離データを収容するもので、
自動車搭載のシステムでの測定終了の都度、距離データ
ファイル36から距離データが移送される。システム制
御及び新旧環境データファイル装置66は自動車搭載の
システムでの測定終了の都度、システム制御及び環境デ
ータファイル装置41よりシステム制御情報、環境デー
タ等が移送される。これらの各ファイル装置はデータバ
ス28を介して各々WSに接続され、データバス28を
介して情報の各WSより各ファイル情報にアクセスし
て、表示を行ったり、各ファイルに書込みを行う。プリ
ンタ63と記録媒体作成装置64は最終的に生成される
改変部分の強調表示済のマップ又は、画像を新マップ用
データファイル装置51、新画像データファイル装置5
5の情報を基にして、プリンタやプロッタ等で出力する
か、またはCD−ROM,磁気テープ、磁気ディスク等
に記憶されるものである。上記の各装置はデータバス6
5を介してCPU38により制御される。Next, the operation of the configuration on the base side will be described. The new map data file device 51 and the old map data file device 53 are connected to the map data file 31 each time measurement by the above-described vehicle-mounted system is completed.
Will be transferred. Similarly, when the new image data file device 55 and the old image data file device 57 complete the measurement, the image data is transferred from the new image data file 32 and the old image data file 34. The old and new distance data file device 59 accommodates old and new distance data.
The distance data is transferred from the distance data file 36 each time the measurement is completed in the vehicle-mounted system. The system control / environmental data file device 66 transfers system control information, environmental data, etc. from the system control / environmental data file device 41 each time measurement is completed in a system mounted on an automobile. Each of these file devices is connected to a WS via a data bus 28, and each file information is accessed from each WS of information via the data bus 28 to perform display and write to each file. The printer 63 and the recording medium creating device 64 display the map or the image of the modified portion that has been finally generated and which has been highlighted, to the new map data file device 51 and the new image data file device 5.
Based on the information of No. 5, it is output by a printer, a plotter or the like, or is stored in a CD-ROM, a magnetic tape, a magnetic disk or the like. Data bus 6
It is controlled by the CPU 38 via 5.
【0023】図4は本発明の測定車搭載のカメラ21、
超音波距離計22関連の構造を示す。同図中、図2と同
一構成部分には同一符号を付しその説明を省略する。同
図中(A)はカメラ21と超音波距離計22の構成の概
念図である。 同図中、測定車体100に搭載されるも
のとして、カメラ21、超音波距離計22、測定端制御
装置23、支柱103、支柱制御装置40等である。カ
メラ21と超音波距離計22が測定端制御装置23を介
して支柱103で支えられている。なお、支柱制御装置
40は測定車体100に固定されており、車輪101と
車軸が測定車体100を支えている。このカメラ21と
道路面104の高さhc 及び、超音波距離計22と道路
面104の高さhu は支柱制御装置40により支柱10
3を上下に動かすことにより調整される。FIG. 4 shows a camera 21 mounted on the measuring vehicle of the present invention,
The structure relevant to the ultrasonic range finder 22 is shown. 2, those parts which are the same as those corresponding parts in FIG. 2 are designated by the same reference numerals, and a description thereof will be omitted. In the same figure, (A) is a conceptual diagram of the configuration of the camera 21 and the ultrasonic range finder 22. In the figure, what is mounted on the measurement vehicle body 100 is a camera 21, an ultrasonic distance meter 22, a measuring end control device 23, a support 103, a support control device 40, and the like. A camera 21 and an ultrasonic range finder 22 are supported by a column 103 via a measuring end controller 23. The support column control device 40 is fixed to the measurement vehicle body 100, and the wheels 101 and the axles support the measurement vehicle body 100. The height h c of the camera 21 and the road surface 104 and the height h u of the ultrasonic range finder 22 and the road surface 104 are determined by the support column control device 40.
Adjusted by moving 3 up and down.
【0024】同図(B)は支柱上下移動の構造を示すも
のである。同図中、点線で囲まれた部分は支柱制御装置
40である。カメラ21は測定端制御装置23を介して
上下柱201で支えられている。この上下柱201の下
部にはネジ山があり、これに噛み合う形でガイド円板2
02が設けられる。モータ204の駆動によりガイド軸
203が回転し、その回転に伴いガイド円板202が回
転し、上下柱201が上下する。モータ204はモータ
回転制御線205を介してA/D変換信号送受信部27
からの信号で制御される。支柱内筒132は測定端制御
装置23を保護し、支柱外筒131は支柱内筒132と
摺動により上下し、上下柱201を保護する。測定端制
御装置23はデータ線133を介して制御する信号をA
/D変換信号送受信部27に送出し、A/D変換信号送
受信部27よりカメラ21を回転させる制御の指示を行
う信号を送出する。FIG. 1B shows a structure for vertically moving the support column. In the figure, the portion surrounded by the dotted line is the column control device 40. The camera 21 is supported by the upper and lower columns 201 via the measuring end control device 23. There is a thread at the bottom of the upper and lower columns 201, and the guide disc 2 is engaged with the thread.
02 is provided. The guide shaft 203 is rotated by driving the motor 204, and the guide disc 202 is rotated in accordance with the rotation, so that the upper and lower columns 201 are moved up and down. The motor 204 receives the A / D conversion signal transmitting / receiving unit 27 via the motor rotation control line 205.
Controlled by the signal from. The column inner column 132 protects the measuring end control device 23, and the column outer column 131 slides up and down with the column inner column 132 to protect the upper and lower columns 201. The measuring-end control device 23 outputs a signal for controlling the data line 133 via the data line 133.
The signal is transmitted to the A / D converted signal transmitting / receiving unit 27, and a signal for instructing control of rotating the camera 21 is transmitted from the A / D converted signal transmitting / receiving unit 27.
【0025】図5は本発明のカメラ21の回転角を示
す。カメラ21の回転角の設定は測定端制御装置23か
らの制御により行われる。同図はカメラ21の水平方向
回転角αc と垂直方向回転角βc について示される。水
平方向回転角αc は測定車体100の縦方向(x)から
横方向(y)に回転した場合の角度であり、垂直方向回
転角βc は垂直方向(z)に回転した場合の角度であ
る。FIG. 5 shows the rotation angle of the camera 21 of the present invention. The rotation angle of the camera 21 is set under the control of the measuring end controller 23. The figure shows the horizontal rotation angle α c and the vertical rotation angle β c of the camera 21. The horizontal rotation angle α c is the angle when the measurement vehicle body 100 is rotated from the vertical direction (x) to the horizontal direction (y), and the vertical rotation angle β c is the angle when it is rotated in the vertical direction (z). is there.
【0026】図4の(B)においてカメラ21で撮影さ
れた撮像データはデータ線133を通してA/D変換信
号送受信部27を介してデータバス28に送出される。
さらにデータバス28よりCPU38に伝達される。ま
た、モータ204の上下柱201の回転(hc )データ
はモータ回転制御線205を介してA/D変換信号送受
信部27に伝達され、さらに、データバス28よりCP
U38に送出される。The image data captured by the camera 21 in FIG. 4B is sent to the data bus 28 through the data line 133 and the A / D conversion signal transmitting / receiving section 27.
Further, it is transmitted to the CPU 38 from the data bus 28. Further, the rotation (h c ) data of the upper and lower columns 201 of the motor 204 is transmitted to the A / D conversion signal transmitting / receiving unit 27 via the motor rotation control line 205, and further, the CP is transmitted from the data bus 28.
It is sent to U38.
【0027】図4(A)に示す超音波距離計22は上記
のカメラ21の制御と同様の機構により制御される。図
4(B)において、測定端制御装置23に組み込まれて
いるカメラ21の代わりに超音波距離計22を設置した
場合、カメラ21をセットした場合と全く同様であるた
め、図示しない。また、図5において、超音波距離計2
2の水平方向回転角をαu とし、垂直方向回転角をβu
とする。The ultrasonic range finder 22 shown in FIG. 4A is controlled by the same mechanism as the control of the camera 21 described above. In FIG. 4 (B), when the ultrasonic range finder 22 is installed instead of the camera 21 incorporated in the measuring end control device 23, it is completely the same as the case where the camera 21 is set, and is not shown. Further, in FIG. 5, the ultrasonic rangefinder 2
Let α u be the horizontal rotation angle of 2 and β u be the vertical rotation angle.
And
【0028】図6は本発明の車走行距離計の概念図を示
す。同図中(A)は車走行距離計24の検出円板を示
す。検出円板405は車軸102に固着する。検出円板
405上には発光素子402の光を通過させるための検
出円板孔404がある。同図中(B)に検出回路を示
す。同図(B)では同図(A)に示した検出円板405
を断面から見た場合について示す。車走行距離計の検出
回路は検出円板405、A/D変換信号送受信部27、
パルス距離データ変換機401、発光素子402、受光
素子402、検出円板405、検出円板孔406と、車
軸102により構成される。検出回路は発光素子402
からの光を車軸102を中心にして回転している検出円
板405に出射する。この発光素子402からの光は検
出円板孔406を通過することで、発光素子402に対
向して位置している受光素子403に受光される。受光
素子403は検出円板405が1回転する毎に発光素子
402から受光し、その回転に伴って電流パルスが発生
する。その電流パルスはパルス距離データ変換機401
に入力される。パルス距離データ変換機401はその電
流パルスにより、距離データ2πγを計算する。但し、
γは検出円板の半径である。従って、自動車は2πγだ
け走行したとして、そのデータをA/D変換信号送受信
部27に送出する。FIG. 6 shows a conceptual diagram of the vehicle odometer of the present invention. In the figure, (A) shows a detection disk of the vehicle odometer 24. The detection disc 405 is fixed to the axle 102. On the detection disc 405, there is a detection disc hole 404 for passing the light of the light emitting element 402. The detection circuit is shown in FIG. In FIG. 3B, the detection disc 405 shown in FIG.
Is shown from the cross section. The detection circuit of the vehicle odometer includes a detection disk 405, an A / D conversion signal transmitting / receiving unit 27,
It is composed of a pulse distance data converter 401, a light emitting element 402, a light receiving element 402, a detection disk 405, a detection disk hole 406, and an axle 102. The detection circuit is the light emitting element 402.
The light from is emitted to the detection disk 405 rotating around the axle 102. The light from the light emitting element 402 passes through the detection disk hole 406, and is thus received by the light receiving element 403 located opposite to the light emitting element 402. The light receiving element 403 receives light from the light emitting element 402 each time the detection disk 405 makes one rotation, and a current pulse is generated in accordance with the rotation. The current pulse is a pulse distance data converter 401
Entered in. The pulse distance data converter 401 calculates the distance data 2πγ from the current pulse. However,
γ is the radius of the detection disk. Therefore, assuming that the automobile has traveled by 2πγ, the data is sent to the A / D conversion signal transmitting / receiving unit 27.
【0029】図7は本発明の車輪操舵角検知計の概念図
を示す。同図中、(A)は車輪操舵角検知計25の車輪
操舵角検出部の構成を示し、(B)は車輪操舵角検出回
路を示す。車輪操舵角検出部は車軸突起部502、受光
素子503、発光素子504、パルス角度データ変換器
505、パルス伝送線506により構成される。車輪1
01及び、車軸102は車軸回転軸501の周りを回転
する。車軸102に固着している車軸突起部502は光
を反射する面を有し、発光素子504の光を車軸突起部
502が反射し、これを受光素子503が受光して、電
流パルスがパルス伝送線506を介してパルス角度デー
タ変換器505に入力される。受光素子503と発光素
子504は円周上に並んで設けられているので、電流パ
ルスが流れたパルス伝送線506をパルス角度データ変
換器505で識別する。これにより操舵角γを知ること
ができる。パルス角度データ変換器505は操舵角γの
データをA/D変換信号送受信機27に送出する。FIG. 7 is a conceptual diagram of the wheel steering angle detector of the present invention. In the figure, (A) shows the configuration of the wheel steering angle detection unit of the wheel steering angle detector 25, and (B) shows the wheel steering angle detection circuit. The wheel steering angle detection unit includes an axle protrusion 502, a light receiving element 503, a light emitting element 504, a pulse angle data converter 505, and a pulse transmission line 506. Wheel 1
01 and the axle 102 rotate around the axle rotation shaft 501. The axle projection 502 fixed to the axle 102 has a surface that reflects light, and the light from the light emitting element 504 is reflected by the axle projection 502, which is received by the light receiving element 503, and a current pulse is transmitted as a pulse. It is input to the pulse angle data converter 505 via the line 506. Since the light receiving element 503 and the light emitting element 504 are arranged side by side on the circumference, the pulse transmission line 506 through which the current pulse has flown is identified by the pulse angle data converter 505. This allows the steering angle γ to be known. The pulse angle data converter 505 sends the data of the steering angle γ to the A / D conversion signal transmitter / receiver 27.
【0030】図8は本発明の方位角検知計26の概念図
を示す。同図(A)はコアの上面図であり、同図(B)
はコアの側面図である。同図において方位角検知計26
は、コア601、回転軸604、上部巻線602、下部
巻線603、回転軸604、回転軸突起605、発光素
子606、受光素子607、モータ608、位相方位角
変換機609により構成される。コア601の周りには
上部巻線602と下部巻線603が巻かれている。回転
軸604はモータ608の起動により回転し、その回転
軸604には回転軸突起605が固着しており、回転軸
604の回転と共に回転する。この回転軸突起605を
挟むような形に発光素子606と受光素子607が設け
られており、回転状態を光電検知している。また、誘起
電圧Eφは上部巻線602及び下部巻線603によって
誘起される電圧である。E0 は発光素子606と受光素
子607の出力電圧である。FIG. 8 is a conceptual diagram of the azimuth detector 26 of the present invention. The figure (A) is a top view of the core, and the figure (B).
[Fig. 3] is a side view of the core. In the figure, the azimuth detector 26
Is composed of a core 601, a rotary shaft 604, an upper winding 602, a lower winding 603, a rotary shaft 604, a rotary shaft protrusion 605, a light emitting element 606, a light receiving element 607, a motor 608, and a phase / azimuth angle converter 609. An upper winding 602 and a lower winding 603 are wound around the core 601. The rotating shaft 604 is rotated by the activation of the motor 608, and the rotating shaft protrusion 605 is fixed to the rotating shaft 604, and the rotating shaft 604 rotates together with the rotation of the rotating shaft 604. A light emitting element 606 and a light receiving element 607 are provided so as to sandwich the rotary shaft protrusion 605, and the rotational state is photoelectrically detected. The induced voltage Eφ is a voltage induced by the upper winding 602 and the lower winding 603. E 0 is the output voltage of the light emitting element 606 and the light receiving element 607.
【0031】図9は本発明の方位角検知計の回転軸の回
転状態を示す。同図中、矢印で示される610は地磁気
磁束であり、611は位相差を示す。同図中(a)〜
(b)の回転により地磁気磁束の方向が変化する。FIG. 9 shows the rotating state of the rotating shaft of the azimuth angle detector of the present invention. In the figure, 610 indicated by an arrow is a geomagnetic flux, and 611 is a phase difference. (A) ~ in the figure
The rotation of (b) changes the direction of the geomagnetic flux.
【0032】図10は本発明の方位角検知計の回転軸の
回転状態における誘起電圧と出力電圧の関係を示す。同
図(A)は誘起電圧Eφを示している。図9において、
回転軸の回転状態(a)時の誘起電圧は図10の(a)
の電圧となり、回転状態(b)時は図10の(b)の電
圧となり、電圧はピークとなる。回転状態(c)時は図
10の(c)の電圧となる。また、発光素子606と受
光素子607の出力電力は図10の(B)に示すように
なる。同図(A)と(B)において、状態(a)とd1
間の位相差611は地磁気磁束方向により変化する。こ
の位相差φ0 を位相方位角変換器609が誘起電圧E
φ、出力電圧E0 から検知して、地磁気磁束の方向(方
位角)を算出して、方位角データをA/D変換信号送受
信部27に送出する。FIG. 10 shows the relationship between the induced voltage and the output voltage in the rotating state of the rotating shaft of the azimuth angle detector of the present invention. FIG. 7A shows the induced voltage Eφ. In FIG.
The induced voltage when the rotating shaft is rotating (a) is shown in (a) of FIG.
In the rotating state (b), the voltage becomes the voltage of (b) in FIG. 10, and the voltage has a peak. In the rotating state (c), the voltage becomes as shown in (c) of FIG. The output powers of the light emitting element 606 and the light receiving element 607 are as shown in FIG. In the same figure (A) and (B), the states (a) and d 1
The phase difference 611 between the two changes depending on the direction of the geomagnetic flux. The phase azimuth converter 609 converts the phase difference φ 0 into the induced voltage E
The direction (azimuth) of the geomagnetic flux is calculated by detecting φ and the output voltage E 0 , and the azimuth data is sent to the A / D conversion signal transmitting / receiving unit 27.
【0033】図11は本発明の慣性水準計の概念図を示
し、図12は本発明の慣性水準計を説明するための図を
示す。図12の(A)は測定車100が縦方向傾斜地面
713に位置しており、平面より縦方向傾斜角(ε)だ
け傾斜している状態である。(B)は測定車100が横
方向傾斜地面714に位置しており、平面より横方向傾
斜角(ψ)だけ傾斜している状態である。図11に示す
この慣性水準計39は基本的には羅針盤と構造が同じで
あり、横方向傾斜検知板701は横方向回転軸702の
周囲を回転するが、横方向傾斜検知板701の重心は横
方向回転軸702よりも下部にある。横方向発光素子7
03と横方向受光素子704は各々を横方向発光素子と
受光素子で横方向傾斜検知板701の回転を光電検知し
て横方向傾斜角(ψ)検知器712に伝達する。縦方向
傾斜検知円筒705は縦方向回転軸707の周囲を回転
し、その重心は縦方向回転軸707よりも下部にある。
縦方向回転軸707は外部支持筐体706に支持され
る。縦方向傾斜検知板708は縦方向傾斜検知円筒70
5に固着して設置される。縦方向傾斜検知円筒705を
回転させることにより縦方向傾斜検知板708が回転
し、発光素子709と、受光素子710で光電検知を行
い、縦方向傾斜角(ε)検知器711に伝達する。次に
縦方向傾斜角(ε)検知器711は横方向傾斜角(ψ)
と縦方向傾斜角(ε)をA/D変換信号送受信部27に
送出する。FIG. 11 shows a conceptual diagram of the inertial level meter of the present invention, and FIG. 12 shows a diagram for explaining the inertial level meter of the present invention. In FIG. 12A, the measurement vehicle 100 is located on the vertically inclined ground 713 and is inclined from the plane by the vertical inclination angle (ε). (B) is a state in which the measurement vehicle 100 is located on the laterally inclined ground 714 and is inclined from the plane by the lateral inclination angle (ψ). The inertial level meter 39 shown in FIG. 11 has basically the same structure as the compass, and the lateral tilt detection plate 701 rotates around the lateral rotation axis 702, but the center of gravity of the lateral tilt detection plate 701 is It is below the lateral rotation axis 702. Lateral light emitting element 7
03 and the lateral light receiving element 704 photoelectrically detect the rotation of the lateral tilt detecting plate 701 by the lateral light emitting element and the light receiving element, and transmit the rotation to the lateral tilt angle (ψ) detector 712. The vertical tilt detection cylinder 705 rotates around the vertical rotation shaft 707, and its center of gravity is located below the vertical rotation shaft 707.
The vertical rotation shaft 707 is supported by the external support housing 706. The vertical tilt detection plate 708 is a vertical tilt detection cylinder 70.
It is fixedly installed on 5. By rotating the vertical tilt detection cylinder 705, the vertical tilt detection plate 708 is rotated, photoelectrically detected by the light emitting element 709 and the light receiving element 710, and transmitted to the vertical tilt angle (ε) detector 711. Next, the vertical tilt angle (ε) detector 711 determines the horizontal tilt angle (ψ).
And the vertical tilt angle (ε) are sent to the A / D conversion signal transmitting / receiving unit 27.
【0034】次に測定車100より撮像対象を撮像した
撮像画面の構成について説明する。図13は本発明の撮
像画面の構成図を示す。本例の撮像画面中、800は地
表面を示し、801は建造物を示す。802は測定点M
m より面段CO の画面を撮像したBm , O 画面である。
ここで面段とは画面の段数を示し、CO は下段、C1で
上段を示す。また、画面のBm , O の第1の閾値は測定
点Mm の閾値であり、第2の閾値は面段CO の閾値であ
る。803はMm C1 (Bm,1 )画面であり、804は
Bm,0 とBm,1 画面のオーバーラップ部である。805
はMm+1 C0 (Bm+1,0 )画面、806はMm+1,C
1(Bm+1,1 )画面、807はBm+1,0 とB m+1,1 画面
のオーバーラップ部、808はBm,0 とBm+1,0 画面の
オーバーラップ部、809はBm,1 とBm+1 , 1の各画
面相互のオーバーラップ部である。また、hは画面の縦
の長さで面段長であり、wは画面の横の長さの面巾長で
ある。Next, the object to be imaged is imaged from the measuring vehicle 100.
The structure of the imaging screen will be described. FIG. 13 is a photograph of the present invention.
The block diagram of an image screen is shown. In the imaging screen of this example, 800 is the ground
The surface is shown, and 801 is a building. 802 is the measurement point M
mLevel COB of the screen ofm,OIt is a screen.
Here, the surface step indicates the number of steps on the screen, and COIs the lower row, C1so
The upper row is shown. Also, on screen Bm,OThe first threshold of is measured
Point MmAnd the second threshold is the surface step COIs the threshold of
It 803 is MmC1(Bm, 1) Screen, 804 is
Bm, 0And Bm, 1It is the overlapping part of the screen. 805
Is Mm + 1C0(Bm + 1,0) Screen, 806 is Mm + 1, C
1(Bm + 1,1) Screen, 807 is Bm + 1,0And B m + 1,1screen
Overlap part, 808 is Bm, 0And Bm + 1,0Screen
Overlap part, 809 is Bm, 1And Bm + 1, Each picture of 1
It is the overlapping part of the surfaces. Also, h is the screen height
Is the surface step length, and w is the width of the horizontal width of the screen.
is there.
【0035】次に新撮像環境データと旧撮像環境データ
を収容しているシステム制御及び環境データファイル装
置41について説明する。この環境データは測定検知撮
像制御部であるカメラ21、超音波距離計22、測定端
制御装置23、車走行距離計24、車輪操舵角検知計2
5、方位角検知計26、慣性水準計39、支柱制御装置
40の各装置とデータを授受して、得られたデータを蓄
積記憶し、システム制御環境データ用ワークステーショ
ン29に出力する。Next, the system control and environment data file unit 41 which contains the new imaging environment data and the old imaging environment data will be described. This environmental data includes a camera 21, which is a measurement / detection / imaging control unit, an ultrasonic distance meter 22, a measurement end control device 23, a vehicle odometer 24, and a wheel steering angle detector 2.
5, data is exchanged with each device of the azimuth angle detector 26, the inertial level meter 39, and the strut control device 40, and the obtained data is accumulated and stored, and output to the system control environment data workstation 29.
【0036】図14は本発明のシステム制御及び環境デ
ータファイルの新撮像用環境データのフォーマットを示
す。このシステム制御及び環境データファイルの環境デ
ータのフォーマットは新旧画像用環境データ共に同じフ
ォーマットである。環境データフォーマットの内容はフ
ァイル項番号141、対象コード142、撮像開始時刻
143、対象長144、面巾長145、測定点146、
面段長147、面段範囲148、測定点149、面段1
50、走行距離151、操舵角152、方位角153、
傾斜角154、カメラ高さ155、カメラ水平角15
6、カメラ垂直角157、超音波距離計の高さ158、
超音波距離計の水平面159、超音波の垂直面160等
である。FIG. 14 shows the format of the environment data for new imaging of the system control and environment data file of the present invention. The format of the environment data of this system control and environment data file is the same for both the environment data for old and new images. The contents of the environmental data format are the file item number 141, the target code 142, the imaging start time 143, the target length 144, the width width 145, the measurement point 146,
Face length 147, face range 148, measurement point 149, face 1
50, mileage 151, steering angle 152, azimuth 153,
Tilt angle 154, camera height 155, camera horizontal angle 15
6, camera vertical angle 157, height of ultrasonic rangefinder 158,
The horizontal plane 159 of the ultrasonic rangefinder, the vertical plane 160 of the ultrasonic wave, and the like.
【0037】ファイル項番号141は一意にファイル毎
に付与されるファイルの項目番号であり、10の位は測
定点のMk に対応し、1の位は面段のCs に対応する。
対象コード142は測定車100で撮像測定を行う対象
地域毎に付与するコードである。撮像開始時刻143は
撮像測定を開始した年月日時分を記する。対象長144
は撮像測定対象の長さであり、各測定点149の直線距
離の合計を示す。面巾長145は1枚の画面の横巾を示
す。測定範囲146は道路上の対象長144を幾つかに
分割した点を測定点149とし、その両端の測定点まで
の範囲である。面段長147は1面段の長さを示す。面
段範囲148は各段の画面の段数を示す。面段150は
C0 を記入する。走行距離151は測定車100の車走
行距離計24のデータにより設定され、そのうち実質的
に走行した距離と、走行距離より測定点間の直線距離成
分を取り出して設定される。操舵角152は車輪操舵角
検知計25のデータにより設定される。方位角153は
方位角検知計26のデータにより設定される。傾斜角1
54は慣性水準計39より縦傾斜角と横傾斜角が設定さ
れる。支柱制御装置40によりカメラの高さ155、カ
メラ水平角156及び、カメラ垂直角157が設定され
る。また、支柱制御装置40により超音波距離計の高さ
158、超音波距離計の水平角159、超音波距離計の
垂直角160が設定される。The file item number 141 is an item number of the file that is uniquely assigned to each file, position 10 corresponds to a M k of the measurement point, the first position corresponds to C s of Mendan.
The target code 142 is a code assigned to each target area in which the measurement vehicle 100 performs image pickup measurement. The imaging start time 143 indicates the date and time when the imaging measurement is started. Target length 144
Is the length of the imaging measurement target, and indicates the total of the linear distances of the respective measurement points 149. The width 145 indicates the width of one screen. The measurement range 146 is a range up to the measurement points at both ends of the measurement point 149, which is a point obtained by dividing the target length 144 on the road into several points. Face length 147 indicates the length of one face. The plane range 148 indicates the number of stages of the screen of each stage. The surface 150 is filled with C 0 . The travel distance 151 is set based on the data of the vehicle odometer 24 of the measurement vehicle 100, and the travel distance 151 and the linear distance component between the measurement points are set from the travel distance and set. The steering angle 152 is set by the data of the wheel steering angle detector 25. The azimuth 153 is set by the data of the azimuth detector 26. Inclination angle 1
In the 54, the vertical inclination angle and the horizontal inclination angle are set by the inertial level meter 39. The height 155 of the camera, the horizontal angle 156 of the camera, and the vertical angle 157 of the camera are set by the strut controller 40. Further, the column controller 40 sets the height 158 of the ultrasonic rangefinder, the horizontal angle 159 of the ultrasonic rangefinder, and the vertical angle 160 of the ultrasonic rangefinder.
【0038】次に上記のフォーマットにデータを設定し
てみた場合について説明する。図15は本発明のシステ
ム制御及び環境データファイルの新撮像環境データの設
定を行った例を示す。Next, a case where data is set in the above format will be described. FIG. 15 shows an example in which the system control of the present invention and the setting of new imaging environment data in the environment data file are performed.
【0039】ファイル項番号141を10から開始す
る。対象コード142を撮像対象とする地域のコード
“1521”を設定する。対象コード142は新旧の画
面の比較を行う場合にこのコードにより比較対象を設定
する。例えば、開始時刻143は撮像を開始した西暦の
年下2桁、月、日、24時間で表される時刻“92,0
3,21,16,10”を設定する。対象長144は対
象長が90mの場合は、SL=90と設定する。一画面
の面巾長145は本実施例では10mとしたのでML=
10と記す。測定点範囲146は測定点の両端をM0 〜
M9 とし、その中間をM1,M2,M3,M4,M5,M6,M7,M
8 とする。そして対象長90を9分割した地点を測定点
とする。面段長147は本実施例では5mとし、CL=
5とし、その面段範囲148はC0 〜C1 より構成され
る。The file item number 141 starts from 10. The code “1521” of the area where the target code 142 is the imaging target is set. The target code 142 sets a comparison target by this code when comparing old and new screens. For example, the start time 143 is the time "92,0" represented by the last two digits of the Christian era, the month, the day, and 24 hours when the image capturing is started.
3, 21, 16, 10 "are set. The target length 144 is set to SL = 90 when the target length is 90 m. Since the surface width length 145 of one screen is 10 m in this embodiment, ML =
Write as 10. The measurement point range 146 includes M 0 to both ends of the measurement point.
M 9 and the middle of them is M 1, M 2, M 3, M 4, M 5, M 6, M 7, M
8 Then, a point obtained by dividing the target length 90 into 9 is set as a measurement point. The surface step length 147 is 5 m in this embodiment, and CL =
5, the surface step range 148 is composed of C 0 to C 1 .
【0040】次にファイル項番号“00”のデータにつ
いて説明する。測定点149にM0を記入し、面段15
0でC0 を記入する。走行距離151は走行距離eと測
定点間直線距離成分Qを記入する。但し、走行距離eと
測定点間直線距離成分QはM 0 では共に“0”である。
操舵角152をγ、方位角μ153は車の信号方向の方
位を示す角度としてM、傾斜角154は車の横傾斜角
ε、縦傾斜角ψ、カメラの高さ155はカメラ21の道
路の表面からの高さhc 、カメラの水平角156はカメ
ラ21の水平面内の回転を示す角度としてαc 、カメラ
の垂直角157はカメラ21の垂直面内の傾きをβu と
する。Next, regarding the data of the file item number "00",
And explain. M at measurement point 1490And fill in 15
0 for C0Fill in. The mileage 151 is measured as the mileage e.
Enter the linear distance component Q between fixed points. However, with the travel distance e
The linear distance component Q between measurement points is M 0Then, both are “0”.
Steering angle 152 is γ and azimuth μ153 is in the signal direction of the vehicle.
M is the angle indicating the position, and the inclination angle 154 is the lateral inclination angle of the car.
ε, vertical tilt angle ψ, and camera height 155 are the paths of the camera 21.
Height h from the road surfacec, The horizontal angle 156 of the camera is a turtle
Α is the angle indicating the rotation of the la 21 in the horizontal plane.c,camera
The vertical angle 157 of theuWhen
To do.
【0041】超音波による距離測定は一枚の撮像画面を
水平方向に10等分して、10回測定し、超音波距離計
の垂直方向のhu を可変にして測定し、最下級のhu が
hu0、最上級のhu がhugであり、超音波距離計の水平
角159αu をαu0からαugまでの間を均等に10回に
変化させて測定する。超音波距離計の垂直角160であ
るβu は基本的には、水平角αu が変化しても垂直角β
u が変化しないかを参考として、水平角αu0,αugに対
応するβu0,βugを記録する。即ち、超音波距離計の水
平角159において、水平角αu0,αugは超音波距離計
の垂直角160におけるβu0,βugである。以下、本実
施例ではファイル項番号141は“00”より“91”
まで記録される。For distance measurement by ultrasonic waves, one image pickup screen is divided into 10 equal parts in the horizontal direction and 10 times are measured, and the vertical direction h u of the ultrasonic range finder is made variable to measure the lowest h. u is h u0, superlative h u is h ug, measured equally varied 10 times between the horizontal angle 159Arufa u ultrasonic distance meter from alpha u0 to alpha ug. Β u, which is the vertical angle 160 of the ultrasonic rangefinder, is basically the vertical angle β even if the horizontal angle α u changes.
Record β u0 and β ug corresponding to the horizontal angles α u0 and α ug with reference to whether u does not change. That is, at the horizontal angle 159 of the ultrasonic range finder, the horizontal angles α u0 and α ug are β u0 and β ug at the vertical angle 160 of the ultrasonic range finder. Hereinafter, in this embodiment, the file item number 141 is "91" from "00".
Is recorded up to.
【0042】図16は本発明のシステム制御及び環境デ
ータファイルの旧撮像環境データ設定を行った例を示
す。この例は図15と比較すると撮像開始時刻143が
新撮像環境データの時刻よりも過去の時刻となっていな
ければならない。旧撮像環境データの項目のフォーマッ
ト構成は新撮像環境データと同様である。FIG. 16 shows an example in which the system control of the present invention and the old imaging environment data setting of the environment data file are performed. In this example, the imaging start time 143 must be a time earlier than the time of the new imaging environment data as compared with FIG. The format configuration of the items of the old imaging environment data is the same as that of the new imaging environment data.
【0043】図14〜図16に示したフォーマットの新
旧撮像環境データはシステム制御及び環境データファイ
ル装置41に格納され、その出力はデータバス28を介
してシステム制御及び環境データWS29に出力され
る。また、フォーマットの新旧撮像環境データは図3に
示すシステム制御及び環境データファイル装置66にも
格納され、データバス65を介してシステム制御及び環
境データ用WS61に出力される。The old and new imaging environment data in the formats shown in FIGS. 14 to 16 are stored in the system control and environment data file device 41, and the output is output to the system control and environment data WS 29 via the data bus 28. The old and new imaging environment data in the formats are also stored in the system control and environment data file device 66 shown in FIG. 3, and are output to the system control and environment data WS 61 via the data bus 65.
【0044】次に新画像データファイル32について説
明する。また、このファイルは新画像データファイル装
置32は基地側が有する新画像データファイル装置55
と同一のフォーマットであるので、ここでは新画像デー
タファイル装置55の説明は省略する。Next, the new image data file 32 will be described. In addition, this file is stored in the new image data file device 32 and the new image data file device 55 on the base side.
Since it has the same format as the above, the description of the new image data file device 55 is omitted here.
【0045】図17は本発明の新画像データファイルの
フォーマットを示す。同図において、171は新画像デ
ータファイル32のキーを示し、それより下段はそのキ
ー171に対応する画像データ172が記憶されてい
る。キー171は前述のシステム制御及び環境データフ
ァイル41または66の新画像データの対象コード14
2と開始時刻143を合成したものである。画像データ
172は画像Bm,m に対応する画面データである。ま
た、基地側のシステムでの新画像データファイル55は
このフォーマットと同様であり、それぞれ、車搭載の新
画像データディスプレイ33及び、基地側の新画像デー
タWS56に出力される。FIG. 17 shows the format of the new image data file of the present invention. In the figure, reference numeral 171 denotes a key of the new image data file 32, and the image data 172 corresponding to the key 171 is stored below the key. The key 171 is the target code 14 of the new image data of the system control and environment data file 41 or 66 described above.
2 and the start time 143 are combined. The image data 172 is screen data corresponding to the image B m, m . The new image data file 55 in the system on the base side is similar to this format, and is output to the new image data display 33 mounted on the vehicle and the new image data WS56 on the base side, respectively.
【0046】図18は本発明の旧画像データファイルの
フォーマットを示す。同図において、181は旧画像デ
ータファイル34のキーを示し、それより下段はそのキ
ー181に対応する画像データ182が記憶されてい
る。キー181は前述のシステム制御及び環境データフ
ァイル41の旧画像データの対象コード142と開始時
刻143を合成したものである。画像データ182は画
像Bm,m に対応する画面データである。また、基地側の
システムでの旧画像データファイル57はこのフォーマ
ットと同様であり、それぞれ、車搭載の旧画像データデ
ィスプレイ35、及び、基地側の旧画像データWS58
に出力される。FIG. 18 shows the format of the old image data file of the present invention. In the figure, reference numeral 181 denotes a key of the old image data file 34, and the image data 182 corresponding to the key 181 is stored below the key 181. The key 181 is a combination of the target code 142 of the old image data of the system control and environment data file 41 and the start time 143. The image data 182 is screen data corresponding to the image B m, m . The old image data file 57 in the system on the base side is similar to this format, and the old image data display 35 mounted on the vehicle and the old image data WS58 on the base side are respectively provided.
Is output to.
【0047】図19は本発明の新画像用マップデータフ
ァイルのフォーマットを示す。この新画像用マップデー
タファイル51は基地側のシステムでは旧画像用マップ
データファイル53とは別に有しており、マップデータ
はディジタル形式で記録されている。キー191は前述
の新旧画像データファイル55、57と同様にシステム
制御及び環境データファイル41又は66の対象コード
142と開始時刻143を合成したものである。それよ
り下段はそのキー191に対応する新画像用マップデー
タ192であり、該当測定点に属する面段のデータが一
致点Um,n と共に含まれる。FIG. 19 shows the format of the map data file for new image of the present invention. This new image map data file 51 is separately provided in the base system from the old image map data file 53, and the map data is recorded in digital format. The key 191 is a combination of the target code 142 of the system control / environment data file 41 or 66 and the start time 143 like the old and new image data files 55 and 57. Below that is the new image map data 192 corresponding to the key 191, and the data of the plane belonging to the relevant measurement point is included together with the coincidence point U m, n .
【0048】図20は本発明の旧画像用マップデータフ
ァイルのフォーマットを示す。この旧画像用マップデー
タファイル53は基地側のシステムでは新画像用マップ
データファイル51とは別に有しており、マップデータ
はディジタル形式で記録されている。キー201は前述
の新旧画像データファイル55、57と同様にシステム
制御及び環境データファイル41又は66の対象コード
142と開始時刻143を合成したものである。それよ
り下段はそのキー201に対応する新画像用マップデー
タ202であり、該当測定点に属する面段のデータが一
致点Um,n と共に含まれる。FIG. 20 shows the format of the old image map data file of the present invention. The old image map data file 53 is provided separately from the new image map data file 51 in the base system, and the map data is recorded in digital format. The key 201 is a combination of the target code 142 of the system control / environment data file 41 or 66 and the start time 143, like the old and new image data files 55 and 57. Below that is the new image map data 202 corresponding to the key 201, and the data of the surface step belonging to the relevant measurement point is included together with the coincidence point U m, n .
【0049】図2に示す車搭載のマップデータファイル
30は図19と図20に示したマップデータファイルの
それぞれの新画像用マップデータ格納エリアと旧画像用
マップデータ格納エリアを有し、マップ用ディスプレイ
31に出力される。一方、図3に示す基地側の新画像用
マップデータファイル51に格納されているデータは新
画像用マップデータWS52に出力され、旧画像用マッ
プデータファイル53に格納されているデータは旧画像
用マップデータWS54に出力される。The map data file 30 mounted on the vehicle shown in FIG. 2 has a map data storage area for a new image and a map data storage area for an old image of the map data files shown in FIGS. 19 and 20, respectively. It is output to the display 31. On the other hand, the data stored in the map image file for new image 51 on the base side shown in FIG. 3 is output to the map data for new image WS52, and the data stored in the map data file for old image 53 is for the old image. It is output to the map data WS54.
【0050】図21は本発明の距離データファイル3
6、59のフォーマット(新画像用データ)を示す。こ
の距離データファイル36、59は超音波距離計22に
より計測された超音波距離計22から撮像対象物までの
距離データdijを格納する。キー211は上記の各ファ
イルと同様にシステム制御及び環境データファイル41
又は66の対象コード142と開始時刻143を合成し
たものである。測定点面段212は測定点Mm と面段C
n により示され、測定点Mm より面段Cn で測定した距
離データという意味をもつ( Dm , n ) で表される。距
離データ部213は道路と並行方向に測定した支柱10
3と撮像対象の間の距離をMm Cn (Bm n )の画面に
対応してこれを縦横10分割し、各々分割された格子の
中心での対象物までの距離を計測し、この値をdijで表
す。ここでiは縦方向の上からの格子の順番であり、j
は横方向の左からの格子の順番である。FIG. 21 shows the distance data file 3 of the present invention.
6 and 59 formats (data for new image) are shown. The distance data files 36 and 59 store the distance data d ij measured by the ultrasonic distance meter 22 from the ultrasonic distance meter 22 to the imaging target. The key 211 is the system control and environment data file 41 as in the above files.
Alternatively, the target code 142 of 66 and the start time 143 are combined. The measurement point surface step 212 has a measurement point M m and a surface step C.
indicated by n, it is represented by having the sense of distance data measured from measuring point M m in Mendan C n (D m, n) . The distance data part 213 is for the pillar 10 measured in the direction parallel to the road.
3 and the object to be imaged are divided into 10 in the vertical and horizontal directions corresponding to the screen of M m C n (B m n ), and the distance to the object at the center of each divided grid is measured. The value is represented by dij . Where i is the order of the grid from the top in the vertical direction, and j
Is the order of the grid from the left in the horizontal direction.
【0051】図22は本発明の距離データファイル3
6、59のフォーマット(旧画像用データ)を示す。こ
の距離データファイルは超音波距離計22により計測さ
れた超音波距離計22から撮像対象物までの距離データ
dijを格納する。キー221は上記の各ファイルと同様
にシステム制御及び環境データファイル41又は66の
対象コード142と開始時刻143を合成したものであ
る。測定点面段222は測定点Mm と面段Cn により示
され、測定点Mm より面段Cn で測定した距離データと
いう意味をもつ( Dm , n ) で表される。距離データ部
223は道路と並行方向に測定した支柱103と撮像対
象の間の距離をMm Cn (Bm n )の画面に対応してこ
れを縦横10分割し、各々分割された格子の中心での対
象物までの距離を計測し、この値をdijで表す。FIG. 22 shows the distance data file 3 of the present invention.
Formats 6 and 59 (old image data) are shown. This distance data file stores the distance data d ij measured by the ultrasonic range finder 22 from the ultrasonic range finder 22 to the imaging target. The key 221 is a combination of the target code 142 of the system control / environment data file 41 or 66 and the start time 143 similarly to the above files. The measurement point surface step 222 is represented by the measurement point M m and the surface step C n , and is represented by (D m , n ) which means the distance data measured at the surface step C n from the measurement point M m . The distance data unit 223 divides the distance between the pillar 103 measured in the direction parallel to the road and the object to be imaged into 10 vertically and horizontally corresponding to the screen of M m C n (B mn ), and the center of each divided grid. The distance to the target object is measured, and this value is represented by dij .
【0052】図21、及び図22に示すデータは距離デ
ータファイル装置36及び59に格納され、距離用ディ
スプレイ装置37及び、新旧距離用WS60に出力され
る。The data shown in FIGS. 21 and 22 are stored in the distance data file devices 36 and 59 and output to the distance display device 37 and the old and new distance WS 60.
【0053】次に各ディスプレイ装置に表示される撮像
画面について説明する。図23は本発明の撮像画面(B
m,n ) を示す。この撮像画面は新撮像画面データファイ
ル装置32または、旧撮像画面データファイル装置34
の撮像画面データをCPU38の制御によりそれぞれ、
画像用ディスプレイ33または、35に表示される。同
図中、230a,230b,230cの各々は一致点U
mnで最初の回の撮像画像上の特徴点を複数指定して、入
力した点である。231は建造物である。232はテク
スチャー処理メッシュで画面の背景に常に一定のメッシ
ュを出力して画面の位置決めを容易にする。Next, the image pickup screen displayed on each display device will be described. FIG. 23 shows an image pickup screen (B
m, n ). This imaging screen is the new imaging screen data file device 32 or the old imaging screen data file device 34.
The image pickup screen data of is controlled by the CPU 38,
It is displayed on the image display 33 or 35. In the figure, each of 230a, 230b and 230c is a coincidence point U.
This is the point that was input by specifying multiple feature points on the first captured image with mn . 231 is a building. 232 is a texture processing mesh which always outputs a constant mesh on the background of the screen to facilitate the positioning of the screen.
【0054】図24は本発明の第1実施例のマップ画面
(Mm ) を示す。このマップ画面はマップデータファイ
ル装置30からCPU38の制御によりマップ用ディス
プレイ31に表示されるものである。241は家形、2
42は道路であり、243は各測定点を示し、243a
は測定点Mm-1 ,243bは測定点Mm ,243cは測
定点Mm+1 を示す。244は軌跡ベクトルで測定車10
0の走行した軌跡を示す。245は測定点243a,2
43b,243cを直線で結んだ直線ルートである。FIG. 24 shows a map screen (M m ) according to the first embodiment of the present invention. This map screen is displayed on the map display 31 from the map data file device 30 under the control of the CPU 38. 241 is the house shape, 2
42 is a road, 243 is each measurement point, 243a
Indicates a measurement point M m-1 , 243b indicates a measurement point M m , and 243c indicates a measurement point M m + 1 . 244 is a locus vector and the measurement vehicle 10
The locus of 0 travel is shown. 245 is a measurement point 243a, 2
It is a straight line route connecting straight lines 43b and 243c.
【0055】次に第1実施例として新旧の撮像画面を比
較して建造物の改変を検知する方法について説明する。
先ず前記の構成による処理について説明する。Next, as a first embodiment, a method of detecting alteration of a building by comparing old and new image pickup screens will be described.
First, the processing with the above configuration will be described.
【0056】図25は本発明の第1実施例の移動体の最
初の回の処理フローチャートである。最初回とは、ある
測定対象の街路に対して、最初に測定する場合を意味し
ている。同図では測定車100により測定検知撮像制御
部を用いて複数の測定点で撮像を行う場合を例として説
明する。同図において、右端のコーナーに黒いマークが
あるのは人手により行われる処理であり、他は機械処理
される部分である。 ステップ271; 測定対象に対して最初の測定である
かを判断し、最初回の測定以外の場合には一般の測定の
ルーチンに移行するので、このフローチャート上では出
口によりルーチンを抜ける。 ステップ272; システム制御及び環境データファイ
ル41において、対象コード142、撮像対象長144
(本実施例ではSc=90),面巾長145(ML=1
0),測定点範囲146(M0 〜M9 )、面段長147
(CL=5),面段範囲148(C0 〜C1 )、測定点
149(M0 ),面段150(C0 )等を設定する。こ
の処理はワークステーション等を用いてオペレータによ
り行われる。 ステップ273; 新画像用マップデータファイル30
に現地調査により予め準備したマップデータM0 〜M9
を設定する。この処理もワークステーション等を用いて
オペレータにより行われる。 ステップ274; 測定点M0 で測定撮像を行う。 ステップ275; 測定点のカウントmの初期値を0と
する。 ステップ276; 面段のカウントnの初期値を0とす
る。 ステップ277; m=0,n=0からm=m+1,n
=n+1と順次測定点のカウントをインクリメントし、
M0 〜M9 に停車してMm Cn の画面の測定、撮像を行
い、各種のデータを取得する。 ステップ278; ステップ277で取得したデータを
各ファイルより読み出してシステム制御及び環境データ
表示用WS29、マップ用ディスプレイ31、新画像用
ディスプレイ33、距離用ディスプレイ37に表示され
た環境画面Em,n,距離画面Dm,n ,撮像画面Bm,n の
データ画像を参照して、最適な環境画面E m,n ,距離画
面Dm,n ,撮像画面Bm,n を決定し、撮像画面Bm,n 内
に最適な一致点Um,n を複数点設定し、これらをマップ
データファイル30、システム制御及び環境データファ
イル41、距離データファイル36にそれぞれ記入す
る。なお、ここでは、超音波距離計の高さ158hu0
〜hu8,超音波距離計の水平角159αu0〜αu
0、超音波距離計の垂直角160βu0〜βu9の各値
はそれぞれ、hu0〜hu8の間、αu0〜αu0の
間、βu0〜βu9の間の値の1/10ずつのステップ
で変換する値であるので、ファイルには設定しない。 ステップ279; カウント値m≠0であれば、ステッ
プ281へ移行し、カウント値m=0であれば、次のス
テップへ移行する。 ステップ280; システム制御及び環境データファイ
ル41の測定車100の走行距離e=0、直線距離Q=
0,操舵角γ=0、横傾斜角ψ=0とする。カウント値
m≠0であれば、次のステップへ移行する。 ステップ281; システム制御及び環境データEm,n
をシステム制御及び環境データファイル41に設定し、
撮像画面データBm,n 及び、一致点データUm,nを新画
像データファイル32に設定し、距離データDm,n を距
離データファイル36に設定する。 ステップ282; 面段のカウント値n=0であるかを
判定し、n=0であれば、ステップ283に移行する。 ステップ283; 1カウントアップしてステップ27
7に移行する。 ステップ284; 面段のカウント値n=0であれば、
カウント値m=9であるかを判定し、m=9であれば、
測定点Mm での測定撮像が終了する。 ステップ285; カウント値mが9に満たないとき
は、測定車100を次の測定点Mm+1 に移動させる。 ステップ286; ここで、ベクトル相加処理を行い、
測定車100の移動に従ってマップデータファイル30
に記入すると共に、マップ用ディスプレイ31に表示す
る。(ベクトル相加処理は図29に示すフローチャート
で詳細に説明する) ステップ287; 測定車100が測定点Mm に到達し
た場合には、直線距離Qが測定点Mm-1 とMm の間の直
線方向Tm に等しくなるまで続行する。 ステップ288; 直線距離Qが測定点Mm-1 とMm の
間の直線方向Tm に等しくなったら、システム制御及び
環境データファイル41のMm 領域に走行距離e,及び
Qを記入する。 ステップ289; カウント値mを1インクリメント
し、ステップ276に移行する。FIG. 25 shows the moving body of the first embodiment of the present invention.
It is a processing flowchart of the first time. First time is
It means the first measurement for the street to be measured.
ing. In the figure, the measurement vehicle 100 controls measurement detection and imaging.
As an example, the case of imaging at multiple measurement points using
Reveal In the figure, a black mark is on the rightmost corner.
Some are manual processes, others are mechanical processes.
It is the part that is done. Step 271; This is the first measurement for the measurement target.
If it is not the first measurement,
Since it will shift to the routine, it will not appear in this flowchart.
Exit the routine by mouth. Step 272; System control and environmental data file
In the target 41, the target code 142 and the imaging target length 144
(Sc = 90 in this embodiment), surface width 145 (ML = 1)
0), measuring point range 146 (M0~ M9), Step length 147
(CL = 5), surface area 148 (C0~ C1), Measurement point
149 (M0), Step 150 (C0) Etc. are set. This
Is processed by an operator using a workstation, etc.
Is carried out. Step 273; New image map data file 30
Map data M prepared in advance by field survey0~ M9
To set. This process also uses a workstation etc.
It is done by the operator. Step 274; measurement point M0Measurement imaging is performed with. Step 275: The initial value of the measurement point count m is set to 0.
To do. Step 276: The initial value of the face count n is set to 0.
It Step 277; m = 0, n = 0 to m = m + 1, n
= N + 1 and sequentially increment the count of the measurement points,
M0~ M9Stop at MmCnScreen measurement and imaging
I get various data. Step 278; the data acquired in Step 277
System control and environmental data read from each file
WS29 for display, display 31 for map, for new image
Displayed on the display 33 and the distance display 37
Environment screen Em, n, Distance screen Dm, n, Imaging screen Bm, nof
Refer to the data image to find the optimal environment screen E m, n, Distance image
Surface Dm, n, Imaging screen Bm, nAnd select the imaging screen Bm, nWithin
Best match point Um, nSet multiple points and map these
Data file 30, system control and environmental data file
Fill in the file 41 and the distance data file 36 respectively.
It Here, the height of the ultrasonic range finder is 158 hu0.
~ Hu8, horizontal angle 159αu0 ~ αu of ultrasonic rangefinder
0, the vertical angle of the ultrasonic rangefinder 160 βu0 ~ βu9 each value
Are respectively αu0 to αu0 between hu0 to hu8.
, Step of 1/10 of the value between βu0 to βu9
Since it is a value to be converted by, do not set it in the file. Step 279: If the count value m ≠ 0, the step
281 and if the count value m = 0, the next step
Move to step. Step 280; System control and environmental data file
Le 41 running distance e of the measuring vehicle 100, straight line distance Q =
0, steering angle γ = 0, and lateral inclination angle ψ = 0. Count value
If m ≠ 0, the process proceeds to the next step. Step 281; System control and environmental data Em, n
To the system control and environment data file 41,
Imaging screen data Bm, nAnd coincidence point data Um, nThe new picture
Set it in the image data file 32 and set the distance data Dm, nDistance
Set in the separation data file 36. Step 282; Check whether the surface count value n = 0.
If it is determined that n = 0, the process proceeds to step 283. Step 283; count up by 1 and step 27
Move to 7. Step 284: If the surface count value n = 0,
It is determined whether the count value m = 9, and if m = 9,
Measuring point MmThe measurement image pickup at is completed. Step 285: When the count value m is less than 9
The measurement vehicle 100 to the next measurement point Mm + 1Move to. Step 286; Here, vector addition processing is performed,
Map data file 30 according to movement of measurement vehicle 100
And display it on the map display 31.
It (Vector addition processing is the flowchart shown in FIG. 29.
Step 287; the measuring vehicle 100 measures point MmReached
If the linear distance Q ism-1And MmStraight between
Line direction TmContinue until equal to. Step 288; the straight line distance Q is the measurement point Mm-1And Mmof
Straight direction T betweenmEqual to the system control and
M of environmental data file 41mMileage e, and
Enter Q. Step 289: increment the count value m by 1
Then, the process proceeds to step 276.
【0057】次にステップ286のベクトル相加処理に
ついて説明する。図26は本発明の第1実施例の測定車
の移動に伴うマップ画面上におけるベクトル相加図であ
る。このベクトル相加図はマップディスプレイ31上に
表示される。同図は測定点Mm で測定車100が測定点
Mm-1 から次の測定点Mm に移行した状態を示す。測定
車100が測定点Mm-1 に存在したことはΔV0 の変位
を行い(この時の方位角Σ0 )、次にΔV1 の変位(こ
の時の方位角Σ1 )、次にΔV2 の変位(この時の方位
角Σ2 )を行って、測定点Mm に到達する。Next, the vector addition process of step 286 will be described. FIG. 26 is a vector additive diagram on the map screen accompanying the movement of the measuring vehicle of the first embodiment of the present invention. This vector addition diagram is displayed on the map display 31. The figure shows a state where the measurement vehicle 100 is shifted from the measurement point M m-1 to the next measurement point M m at the measurement point M m. The presence of the measuring vehicle 100 at the measurement point M m-1 causes displacement of ΔV 0 (azimuth Σ 0 at this time), then displacement of ΔV 1 (azimuth Σ 1 at this time), and then ΔV. A displacement of 2 (azimuth angle Σ 2 at this time) is performed to reach the measurement point M m .
【0058】方位角は測定点Mm-1 とMm の間の直線方
向Tm を基準として測定する。これらのΔV0 〜ΔVK
は測定車100が測定点Mm-1 に存在する時からマップ
用ディスプレイ31に表示されている。ΔVK は変位ベ
クトルであり、測定車100の進行方向(Σ)が一定範
囲(ΔΣ)以上の変化をするか、または、走行距離
(e)のTm 方向成分がΔe以上となった時点での従来
の変位ベクトルとの終点を始点とする測定車100の変
位ベクトルである。また、変位ベクトルΔeはMm、M
m-1 間の距離に比して小さくする。但し、同図における
ベクトルの関係は|ΔV0 |=Δe0 ,|ΔV1 |=Δ
e 1 ,|ΔV2 |=Δe2 とある。なお、マップ用ディ
スプレイ31のマップ画面には旧画像撮像時の変位ベク
トル軌跡(ΔV'0, ΔV'1) もマップデータファイル3
0から読み出されて表示される。The azimuth is the measurement point Mm-1And MmStraight line between
Direction TmIs used as a reference. These ΔV0~ ΔVK
Is the measuring vehicle 100 at the measuring point Mm-1Map from the time it exists in
It is displayed on the display 31. ΔVKIs the displacement
The measurement vehicle 100 travels in a certain direction (Σ).
Change (circle) or more (ΔΣ) or mileage
(E) TmConventional when the direction component exceeds Δe
Of the measurement vehicle 100 starting from the end point with the displacement vector of
It is a rank vector. The displacement vector Δe is Mm, M
m-1Make it smaller than the distance between them. However, in the figure
Vector relation is | ΔV0│ = Δe0, | ΔV1│ = Δ
e 1, | ΔV2│ = Δe2a. Note that the map display
The map screen of the spray 31 shows the displacement vector when the old image is captured.
Toru locus (ΔV '0, ΔV '1) Is also a map data file 3
It is read from 0 and displayed.
【0059】図27は本発明の第2実施例の測定車の移
動に伴う変位ベクトルの相加処理のフローチャートであ
る。このフローチャートの処理は図27のフローチャー
トのステップ286について説明するものである。 ステップ291; 測定車100が測定点Mm-1 からM
m 方向に移動を開始する。ステップ292; 変位ベク
トルの変数をK=0とする。 ステップ293; 方位角Σ0 =ΣK とし、且つ走行距
離e=0とする。 ステップ294; 方位角検知計26が計測した方位角
μが予め設定してある一定範囲ΔΣ以上に変化していれ
ば、ステップ295に移行する。方位角μの変化が所定
値ΔΣに満たなければ、ステップ298に移行する。 ステップ295; 車輪操舵角検知計25が検知した操
舵角γの変化が予め設定してある所定値Δγ以上に変化
した場合はステップ296へ移行し、所定値Δγに満た
ない場合にはステップ298に移行する。 ステップ296; 方位角の和Σが方位角のμの変化量
Δμだけ変化すると方位角の和Σの値はΣ0 +Δμとな
る。 ステップ297; 方位角ΣK =Σ、ΔeK =eの絶対
値を有する変位ベクトルΔVK が生成される。ステップ
299に移行する。 ステップ298; 測定車100の移動に伴って車走行
距離計24が計測した走行距離eの直線距離成分Tm (
=e cosΣ0 )が予め決定してあるΔe<<Tm長(M
m-1 とMm 間の直線距離)であるΔeに達していなけれ
ば、ステップ294に戻り、Δeに達した場合には次の
ステップに移行する。 ステップ299; 直線距離Qについての計算を行う。FIG. 27 is a flow chart of the addition processing of the displacement vector according to the movement of the measuring vehicle according to the second embodiment of the present invention. The process of this flowchart explains step 286 of the flowchart of FIG. Step 291: Measuring vehicle 100 measures points M m-1 to M
Start moving in the m direction. Step 292; The variable of the displacement vector is set to K = 0. Step 293: The azimuth angle Σ 0 = Σ K and the traveling distance e = 0. Step 294: If the azimuth angle μ measured by the azimuth angle detector 26 has changed to be equal to or more than the preset constant range ΔΣ, the process proceeds to step 295. If the change in the azimuth angle μ is less than the predetermined value ΔΣ, the process proceeds to step 298. Step 295; When the change of the steering angle γ detected by the wheel steering angle detector 25 is changed to a preset predetermined value Δγ or more, the process proceeds to step 296, and when it is less than the predetermined value Δγ, the process proceeds to step 298. Transition. Step 296: When the sum Σ of azimuth angles changes by the change amount Δμ of μ of the azimuth angle, the value of the sum Σ of azimuth angles becomes Σ 0 + Δμ. Step 297; A displacement vector ΔV K having an absolute value of azimuth angle Σ K = Σ and Δe K = e is generated. Control goes to step 299. Step 298; A straight line distance component T m of the traveling distance e measured by the vehicle odometer 24 with the movement of the measuring vehicle 100 (
= E cos Σ 0 ) is predetermined Δe << T m length (M
If Δe, which is the linear distance between m−1 and M m ) has not been reached, the process returns to step 294, and if Δe is reached, the process proceeds to the next step. Step 299; The straight line distance Q is calculated.
【数1】 ステップ300; 直線距離Qが直線距離成分Tm の長
さになるまで上記の処理を繰り返し、Q=Tm の長さで
あれば、処理を終了し、Qに満たなければステップ30
1へ移行する。 ステップ301; 変位ベクトル変数Kを1インクリメ
ントし、ステップ293に移行する。[Equation 1] Step 300; The above process is repeated until the straight line distance Q becomes the length of the straight line distance component T m , and if Q = T m , the process is ended, and if it is less than Q, step 30
Move to 1. Step 301: The displacement vector variable K is incremented by 1, and the process proceeds to step 293.
【0060】図29のフローチャートに示すように走行
距離eには測定車100が測定点M m-1 からM mに到達
するまでの走行距離eの合計Traveling as shown in the flow chart of FIG.
The measuring vehicle 100 is at the measuring point M at the distance e. m-1To MmReached
Total of travel distance e until
【数2】 が距離データファイル36に記入され、最終の直線距離
Qには[Equation 2] Is entered in the distance data file 36, and the final straight line distance Q is
【数3】 が距離データファイル36に記入される。[Equation 3] Is entered in the distance data file 36.
【0061】先に説明した最初回の処理のフローチャー
トに続く測定車100の処理を説明する。図28及び図
29は本発明の第1実施例の測定車による一般処理のフ
ローチャートを示す。そのうち図28は前処理部分のフ
ローチャートであり、図29のフローチャートは図28
のフローチャートに続く実質的な処理の部分である。 ステップ310; 先ず最初回の処理でデータを記入し
たシステム制御及び環境データファイル41を旧情報を
有しているファイルと考えて処理を進める。このファイ
ルは環境データについては新旧データについては測定開
始時刻により新旧管理を行っているため、前回の処理デ
ータを旧データとして扱う。また、最初回で用いた新画
像データファイル32を旧画像データファイルとして扱
う。マップデータファイル30についても前回の処理デ
ータを旧データとして扱う。距離データファイル36も
同様である。 ステップ311; システム制御及び環境データファイ
ル41の旧データの対象コード142、対象長144
(SL),面巾長145(ML),測定点範囲146
(M0 〜M9 ),面段長147(CL),面段範囲14
8(C0 〜C1 )をシステム制御及び環境データファイ
ル41の新データとして設定する。また、測定開始時刻
をシステム制御及び環境データファイル41に記入す
る。さらに、システム制御および環境データファイル4
1の対象コードと測定開始時刻をキーとして新画像デー
タファイル32、新画像用マップデータファイル30、
距離データファイル36に記入する。 ステップ312; マップデータファイル30の旧デー
タの前回の軌跡(ΔVK')を消去してΔVK と旧軌跡Δ
VK ' として書き換える。 ステップ313; 最初の測定点M0 の位置に測定車1
00を移動する。 ステップ314; カウント値mの初期値を0とする。 ステップ315; カウント値nの初期値を0とする。 ステップ316; 各測定点mとその面段n(M
m Cn )の毎に撮像して、その値をシステム制御及び環
境データファイル41、及び新画像データファイル32
に書込み、それらのファイルからシステム制御及び環境
データ表示用WS29、新画像用ディスプレイ33に表
示する。さらに、各ファイルの旧データを読み、それぞ
れ、システム制御及び環境データ表示用WS29、マッ
プ用ディスプレイ31、旧画像用ディスプレイ35、距
離用ディスプレイ37に表示する。 ステップ317; カウント値m=0であればステップ
320へ移行し、カウウント値m≠0であれば、次のス
テップへ移行する。 ステップ318; 撮像画面と旧画像データの一致点U
mnが一致するようにシステム制御及び環境データファイ
ル41のデータであるカメラの高さ155(hc)、カ
メラの水平角156(αc)、カメラの垂直角157
(βc)を調整する。 ステップ319; 撮像画面と旧画像データの一致点が
一致すれば、図29の処理に移行する。一致しなければ
一致するまでこの処理を続行する。 ステップ320; 初期値として、走行距離e=0,直
線距離Q=0,操舵角γ=0、方位角μ=0をセットす
る。 ステップ321; 旧画像用ディスプレイ35と新画像
用ディスプレイ33との画面で一致点U0nが一致するよ
うに、システム制御及び環境データファイル41のデー
タカメラの高さ155(hc)、カメラの水平角156
(αc)、カメラの垂直角157(βc)を調整する。 ステップ322; 新画像用ディスプレイ35の画像の
一致点と旧画像用ディスプレイ33の画像の一致点が一
致すれば、図29のフローチャートの処理に移行する。
一致しなければ、ステップ321の処理を一致するまで
続行する。The processing of the measuring vehicle 100 following the flowchart of the first processing described above will be described. 28 and 29 show flowcharts of general processing by the measuring vehicle according to the first embodiment of the present invention. 28 is a flowchart of the preprocessing portion, and the flowchart of FIG. 29 is the flowchart of FIG.
This is the part of the substantial processing that follows the flowchart of FIG. Step 310; First, the system control and environment data file 41 in which the data is entered in the first processing is considered as a file having old information and the processing is advanced. Since this file manages old and new environmental data according to the measurement start time, the previously processed data is treated as old data. Further, the new image data file 32 used at the first time is treated as an old image data file. Also for the map data file 30, the previous processed data is treated as old data. The same applies to the distance data file 36. Step 311; target code 142, target length 144 of the old data in the system control and environment data file 41
(SL), surface width 145 (ML), measurement point range 146
(M 0 ~M 9), Mendancho 147 (CL), Mendan range 14
8 (C 0 to C 1 ) is set as new data in the system control and environment data file 41. Further, the measurement start time is entered in the system control and environment data file 41. In addition, system control and environmental data files 4
The new image data file 32, the new image map data file 30, using the target code of 1 and the measurement start time as keys,
Fill in the distance data file 36. Step 312; Erase the previous trajectory (ΔV K ') of the old data in the map data file 30 and delete ΔV K and the old trajectory Δ.
Rewrite as V K '. Step 313; the measurement vehicle 1 at the position of the first measurement point M 0
Move 00. Step 314: The initial value of the count value m is set to 0. Step 315: The initial value of the count value n is set to 0. Step 316; each measurement point m and its step n (M
m C n ), an image is taken for each of the values, and the value is recorded in the system control and environment data file 41 and the new image data file 32.
, And displays them on the system control and environment data display WS 29 and new image display 33. Further, the old data of each file is read and displayed on the system control and environment data display WS 29, the map display 31, the old image display 35, and the distance display 37, respectively. Step 317; If the count value m = 0, the process proceeds to step 320, and if the count value m ≠ 0, the process proceeds to the next step. Step 318; Match point U between the imaged screen and the old image data
The height of the camera 155 (hc), the horizontal angle 156 (αc) of the camera, and the vertical angle 157 of the camera, which are the data of the system control and environment data file 41 so that mn match.
Adjust (βc). Step 319; If the coincidence points of the image pickup screen and the old image data match, the process moves to the process of FIG. If they do not match, this process is continued until they match. Step 320: As initial values, the traveling distance e = 0, the straight line distance Q = 0, the steering angle γ = 0, and the azimuth angle μ = 0 are set. Step 321: The height 155 (hc) of the data camera of the system control and environment data file 41, the horizontal angle of the camera so that the coincidence points U 0n coincide on the screens of the old image display 35 and the new image display 33. 156
(Αc), the vertical angle 157 (βc) of the camera is adjusted. Step 322; If the matching point of the image on the new image display 35 and the matching point of the image on the old image display 33 match, the process moves to the process of the flowchart in FIG. 29.
If they do not match, the process of step 321 is continued until they match.
【0062】次に図29のフローチャートについて説明
する。 ステップ323; 新旧の画面の一致点が一致した状態
によりシステム制御及び環境データファイル41のデー
タ(Emn)、新画像データファイル32のデータ
(Bmn),距離データファイル36の距離データ
(Dmn)を取得する。 ステップ324; ステップ323で取得したデータを
それぞれシステム制御及び環境データWS29、新画像
用ディスプレイ33、距離用ディスプレイ37に表示
し、システム制御及び環境データファイル41、新画像
データファイル32、距離データファイル36に取得デ
ータを格納する。 ステップ325; カウント値n=0であれば、ステッ
プ327に移行する。 ステップ326; カウント値m=9であれば、この処
理を終了し、m<9であれば、ステップ328に移行す
る。 ステップ327; カウント値nを1インクリメント
し、図30のステップ316に移行する。 ステップ328; マップ用ディスプレイ31の新画像
用のマップ画面を参照しながら、測定車100を測定点
Mm からMm+1 へ移動させる。 ステップ329; 前述(図27に示す)の相加処理に
より、ΔVK ベクトルの軌跡を求め、測定車100の移
動に応じてマップデータファイル30に記入する。 ステップ330; マップ用ディスプレイ31に測定車
100の軌跡及び、直線成分等を表示する。 ステップ331; 測定車100が最終測定点Mm+1 に
到達し、直線距離Qが直線成分Tm の長さと等しけれ
ば、次のステップに移行し、Q<Tm の長さであれば、
ステップ328に戻る。 ステップ332; システム制御及び環境データファイ
ル41にMm 領域の距離データとして走行距離を走行距
離151の走行距離eと直線距離Qに書き込む。 ステップ333; カウント値mを1インクリメントす
る。Next, the flowchart of FIG. 29 will be described. Step 323: Data of the system control and environment data file 41 (E mn ), data of the new image data file 32 (B mn ), distance data of the distance data file 36 (D mn depending on the coincidence points of the old and new screens). ) To get. Step 324: The data acquired in step 323 are displayed on the system control and environment data WS29, the new image display 33, and the distance display 37, respectively, and the system control and environment data file 41, the new image data file 32, and the distance data file 36 are displayed. Store the acquired data in. Step 325; If the count value n = 0, the process proceeds to step 327. Step 326: If the count value m = 9, this process is ended, and if m <9, the process moves to step 328. Step 327: The count value n is incremented by 1, and the process proceeds to step 316 of FIG. Step 328: The measurement vehicle 100 is moved from the measurement point M m to M m + 1 while referring to the map screen for the new image on the map display 31. Step 329: The locus of the ΔV K vector is obtained by the above-described addition processing (shown in FIG. 27), and is written in the map data file 30 according to the movement of the measuring vehicle 100. Step 330: The locus of the measuring vehicle 100, the straight line component and the like are displayed on the map display 31. Step 331; If the measuring vehicle 100 reaches the final measurement point M m + 1 and the straight line distance Q is equal to the length of the straight line component T m , the process proceeds to the next step, and if Q <T m ,
Return to step 328. Step 332: Write the traveling distance in the system control and environment data file 41 as the traveling distance e of the traveling distance 151 and the straight distance Q as distance data of the M m area. Step 333; The count value m is incremented by 1.
【0063】上記の処理のうち、変位ベクトルである軌
跡ΔVK はマップ用ディスプレイ31に追記表示されて
いく形となる。また、一致点調整では、システム制御及
び環境データファイル41のデータの調整は容易に自動
化が可能である。In the above processing, the locus ΔV K, which is the displacement vector, is additionally displayed on the map display 31. Further, in the matching point adjustment, the system control and the adjustment of the data of the environment data file 41 can be easily automated.
【0064】上記は測定車100による処理を説明した
が、次に基地側での処理について説明する。この処理は
基地側で新旧の画像データファイル55、57、新旧の
マップ用データファイル51、53、システム制御及び
新旧環境データファイル66、新旧距離データファイル
59の各ファイルを基に、建造物の変化部分を抽出した
画像、マップ、印刷物、CD−ROM,MT,磁気ディ
スクのような電子媒体を作成する。The above is the description of the processing by the measuring vehicle 100. Next, the processing on the base side will be described. This process is based on the old and new image data files 55 and 57, the old and new map data files 51 and 53, the system control and old and new environment data file 66, and the old and new distance data file 59. An electronic medium such as an image, a map, a printed matter, a CD-ROM, an MT, and a magnetic disk from which the portion is extracted is created.
【0065】図30は本発明の第1実施例の基地側にお
ける変化セル抽出までの処理のフローチャートを示す。 ステップ341; カウント値mの初期値を0とする。 ステップ342; カウント値nの初期値を0とする。 ステップ343; 新画像データファイル55と旧画像
データファイル57の撮像画像についてそれぞれ、新画
像用WS56及び旧画像用WS58に表示して比較す
る。 ステップ344; 新画像用WS56及び、旧画像用W
S58の両方の画像との間にずれや傾きがないかを判断
し、ずれや傾きがあった場合にはステップ345へ、な
い場合にはステップ347に移行する。 ステップ345; 旧マップデータファイル53、新マ
ップデータファイル51、システム制御及び新旧の環境
データファイル66のマップデータMmn,環境データE
mnを参照してずれ、及び傾きを補正する。 ステップ346; 旧画像データファイル57より画像
データBmnを抽出して、旧画像データBmnとする。 ステップ347; ここで変化セルを抽出する。変化セ
ル抽出処理は後で詳細に説明する。 ステップ348; 新旧距離データファイル59より新
距離データDmnと旧距離データDmnを抽出し、新距離デ
ータのd00〜d99と旧距離データのd00〜d99を比較し
てその中で異なる距離データを抽出する。 ステップ349; 画像データBmn上の変化セルについ
て距離データDmnの新旧相違点と同じ箇所であるかをチ
ェックする。 ステップ350; 同じ箇所であれば、ステップ352
に移行し、異なる場所であれば、ステップ351に移行
する。 ステップ351; 画像データBmn上の変化セルを青で
囲んで強調表示し、ステップ353へ移行する。 ステップ352; 画像データBmn上の変化セルを赤で
囲んで強調表示し、ステップ353へ移行する。FIG. 30 shows a flowchart of the process up to extraction of a changed cell on the base side according to the first embodiment of the present invention. Step 341: The initial value of the count value m is set to 0. Step 342: The initial value of the count value n is set to 0. Step 343: The captured images of the new image data file 55 and the old image data file 57 are displayed on the new image WS 56 and the old image WS 58 for comparison. Step 344; WS56 for new image and W for old image
In step S58, it is determined whether or not there is a shift or tilt between both images. If there is a shift or tilt, the process proceeds to step 345, and if not, the process proceeds to step 347. Step 345; Map data M mn of the old map data file 53, new map data file 51, system control and old and new environment data file 66, environment data E
Correct the shift and inclination by referring to mn . Step 346; The image data B mn is extracted from the old image data file 57 to be the old image data B mn . Step 347; Here, the changed cell is extracted. The changed cell extraction processing will be described later in detail. Step 348; New distance data D mn and old distance data D mn are extracted from the old and new distance data file 59, new distance data d 00 to d 99 and old distance data d 00 to d 99 are compared, and Extract different distance data. Step 349; It is checked whether the changed cell on the image data B mn is the same as the old and new difference of the distance data D mn . Step 350; If the same place, Step 352
If it is a different place, the process proceeds to step 351. Step 351: Change cells on the image data B mn are highlighted in blue and the process moves to step 353. Step 352: The changed cells on the image data B mn are highlighted in red and the process moves to step 353.
【0066】次に図30から連続する図31の処理につ
いて説明する。図31は本発明の第1実施例の基地側処
理の新マップ作成処理のフローチャートを示す。 ステップ353; ステップ351及びステップ352
で強調表示済画面を新画像用WS56に表示する。 ステップ354; 旧画面データを旧画像用WS58に
表示する。 ステップ355; 新画像用WS56と旧画像用WS5
8の表示を確認してオペレータが新画像用WS56に判
断入力を行う。 ステップ356; 最終変化部分のセルを新画像WS5
6に強調表示する。 ステップ357; 新画像データファイル55の画像デ
ータBmnに最終変換部分セルを強調表示してその内容を
Z−ファイルのアイテムとして書き込む。Next, the processing of FIG. 31, which is continuous from FIG. 30, will be described. FIG. 31 shows a flowchart of the new map creation process of the base side process of the first embodiment of the present invention. Step 353; Step 351 and Step 352
The highlighted display screen is displayed on the new image WS 56. Step 354: The old screen data is displayed on the old image WS 58. Step 355; WS56 for new image and WS5 for old image
After confirming the display of No. 8, the operator makes a judgment input to the new image WS 56. Step 356: The cell of the final change portion is set to the new image WS5
6 is highlighted. Step 357: The final conversion partial cell is highlighted in the image data B mn of the new image data file 55, and its contents are written as an item of the Z-file.
【0067】ここでいうZファイルとは旧画像データの
Bmnと変化セルを比較して人手により最終適に建造物が
改変しているセルを抽出し、強調表示した新画像データ
ファイル55をZファイルと名付けて作成する。 ステップ358; カウント値n=0であればステップ
359へ移行し、n≠0であれば、ステップ360に移
行する。 ステップ359; カウント値nを1インクリメントし
て、図32のステップ343に移行する。 ステップ360; カウント値m=9であれば、ステッ
プ362に移行し、m<9であれば、ステップ361に
移行する。 ステップ361; カウント値mを1インクリメントし
て図32のステップ342に移行する。 ステップ362; 所定回の処理を繰り返し、旧画像と
異なる部分のデータによりZファイルを完成させる。 ステップ363; ステップ362で完成したZファイ
ルと新マップ用データファイル51により、建造物の改
変部分を強調表示されているデータをYファイルとして
作成する。ここでいうYファイルはZファイルと新マッ
プファイル51より建造物の改変部分を強調表示してあ
る新マップファイル51をYファイルと名付ける。 ステップ364; 上記で完成したZファイル及びYフ
ァイルを用いて、建造物の改変部分が強調表示されてい
るマップとその画像を印刷する。 ステップ365; 上記で完成したZファイル及びYフ
ァイルを用いて、建造物の改変部分が強調表示されてい
るマップと画像等の情報を電子媒体に記憶させる。The Z file referred to here is the new image data file 55 highlighted by comparing B mn of the old image data with the changed cells and extracting the cells where the structure is finally modified manually by hand. Create as a file. Step 358: If the count value n = 0, the process proceeds to step 359, and if n ≠ 0, the process proceeds to step 360. Step 359: The count value n is incremented by 1, and the process proceeds to step 343 of FIG. Step 360: If the count value m = 9, the process proceeds to step 362, and if m <9, the process proceeds to step 361. Step 361: The count value m is incremented by 1 and the process proceeds to step 342 of FIG. Step 362: The process is repeated a predetermined number of times to complete the Z file with the data of the portion different from the old image. Step 363: The Z file completed in step 362 and the new map data file 51 are used to create the data in which the modified portion of the building is highlighted as the Y file. The Y file here is named the Y file, which is the new map file 51 in which the modified portion of the building is highlighted from the Z file and the new map file 51. Step 364; Using the Z and Y files completed above, print the map and its image in which the modified portion of the building is highlighted. Step 365: Using the Z and Y files completed above, information such as a map and an image in which the modified portion of the building is highlighted is stored in an electronic medium.
【0068】次に上記の処理でステップ347での変化
セル抽出処理について説明する。図32は本発明の第1
実施例の撮像画面のドメイン分割を示す。同図は撮像画
面P0 をM×N(本実施例では3×8)のドメインに分
割し、各ドメインについて以下の処理を行う。Next, the changed cell extraction processing in step 347 in the above processing will be described. FIG. 32 shows the first of the present invention.
The domain division of the imaging screen of an Example is shown. In the figure, the imaging screen P 0 is divided into M × N (3 × 8 in this embodiment) domains, and the following processing is performed for each domain.
【0069】図32中のドメインD3,8 (m=3,n=
8)のドメインについて述べる。図33は本発明の一実
施例の撮像画面のドメインのセル分割を示す。図32中
81はドメインでD3,8 である。このドメイン81をI
×J(本実施例では8×8)のセルに分割する。82は
分割されたセルに1つである。Domain D 3,8 in FIG. 32 (m = 3, n =
The domain 8) will be described. FIG. 33 shows cell division of a domain of an image pickup screen according to an embodiment of the present invention. Reference numeral 81 in FIG. 32 is a domain D 3,8 . This domain 81
It is divided into cells of × J (8 × 8 in this embodiment). 82 is one for the divided cells.
【0070】図34は本発明の一実施例の撮像画面P0
のセル毎のセル内平均濃度を表示したものである。図3
3で示した画像に対してのセル個別の平均濃度を求め
る。同図中、7が最大濃度を示し、0が最小濃度を示
す。空白のセルは0となる。ここでの平均濃度は2.0
9である。FIG. 34 shows an image pickup screen P 0 according to an embodiment of the present invention.
The average cell concentration in each cell is displayed. Figure 3
The average density of each cell for the image shown in 3 is obtained. In the figure, 7 indicates the maximum density and 0 indicates the minimum density. Blank cells are 0. The average concentration here is 2.0
It is 9.
【0071】図35は本発明の第1実施例の撮像画面の
正規化濃度表示を示す。同図において、空白のセルの濃
度は0であるので記載しない。ここでは各セルの平均濃
度を全セル平均濃度で割った正規化濃度を各セルについ
て求め、この正規化濃度の標準偏差σを求める。本実施
例ではσ=1.1である。FIG. 35 shows the normalized density display of the image pickup screen of the first embodiment of the present invention. In the figure, the density of a blank cell is 0, so it is not described. Here, the normalized density obtained by dividing the average density of each cell by the average density of all cells is found for each cell, and the standard deviation σ of this normalized density is found. In this embodiment, σ = 1.1.
【0072】図36は本発明の第1実施例の撮像画面の
2値化表示を示す。正規化標準偏差を求めた後、σの定
数倍α(本実施例では=0.5としたがこれは正規分布
の性質から全体を濃度により8水準に分けることにな
る。)を閾値α・σ=0.55としてこの2値化処理を
行う。図38の撮像画面P0 の2値化表示を得る。空白
セルの値は0である。FIG. 36 shows a binarized display of an image pickup screen according to the first embodiment of the present invention. After obtaining the normalized standard deviation, a constant multiple α of α (= 0.5 in the present embodiment, but this is divided into eight levels depending on the density due to the nature of the normal distribution) is a threshold α ·. This binarization processing is performed with σ = 0.55. The binarized display of the imaging screen P 0 of FIG. 38 is obtained. The value of the blank cell is 0.
【0073】ここで2値化処理は以下のように行われ
る。Cはセルを示す。 Ci,j −Ci,j-1 ≧ ασの時di j =1 Ci,j −Ci,j-1 < ασの時di j =0 Ci,j −Ci,j+1 ≧ ασの時di j =1 Ci,j −Ci,j+1 < ασの時di j =0 上記の処理の後にdi j =0のi,j に対して次の処理を
行う。 Ci,j −Ci-1,j ≧ ασの時di j =1 Ci,j −Ci-1,j < ασの時di j =0 Ci,j −Ci+1,j ≧ ασの時di j =1 Ci,j −Ci+1,j < ασの時di j =0 但し、C0,j =Ci,0 =C10,j =C i,10 =0と仮定
し、Ci,j は正規化濃度であり、di j は2値化された
値であるとする。The binarization process is performed as follows. C indicates a cell. When C i, j −C i, j-1 ≧ ασ d ij = 1 C i, j −C i, j-1 <α σ d ij = 0 C i, j −C i, j + 1 ≧ When α σ, d ij = 1 C i, j −C i, j + 1 <α σ, d ij = 0 After the above processing, the following processing is performed on i, j where d ij = 0. When C i, j −C i-1, j ≧ ασ, d ij = 1 C i, j −C i-1, j <α σ, d ij = 0 C i, j −C i + 1, j ≧ When α σ d ij = 1 C i, j −C i + 1, j <α σ d ij = 0 where C 0, j = C i, 0 = C 10, j = C i, 10 = 0 Assuming that C i, j is a normalized density, and d ij is a binarized value.
【0074】図37は本発明の第1一実施例の撮像画面
のドメイン分割を示す。同図中(A)は撮像画面P1 の
ドメイン分割を示し、(B)は撮像画面P2 のドメイン
分割を示す。これら2つの撮像画面は撮像画面P0 を撮
像してから一定の期間後に、同じ街並を撮像した撮像画
面を図34と同様にドメイン分割した図である。但し、
撮像画面P1 と撮像画面P2 は1日〜2日程度の期間の
経過があるが、撮像画面P0 と撮像画面P1 は1ヵ月以
上の期間の経過があるとする。撮像画面P1 と撮像画面
P2 には撮像画面P0 にない増築部分があり、また、撮
像画面P2 は撮像画面P1 にない、影の部分が存在して
いる。撮像画面P1 のドメインD3,8 について、図3
8、図39、図40、図41及び撮像画面P2 のドメイ
ンD3,8 について、図42、図43、図44、図45で
撮像画面P0 の図34、図35、図36、図37と同様
の処理を行い、撮像画面P1 と撮像画面P2 の2値表示
の図41と、図45を得る。これにより図41と図45
のdijを比較し、図41と図45のdijが等しくないセ
ルを抽出する。FIG. 37 shows domain division of an image pickup screen according to the first embodiment of the present invention. In the figure, (A) shows the domain division of the imaging screen P 1 , and (B) shows the domain division of the imaging screen P 2 . These two imaging screens are diagrams obtained by domain-dividing the imaging screens of the same cityscape after a certain period of time from the imaging of the imaging screen P 0 , as in FIG. 34. However,
It is assumed that the imaging screen P 1 and the imaging screen P 2 have a period of about 1 to 2 days, but the imaging screen P 0 and the imaging screen P 1 have a period of one month or more. The image pickup screen P 1 and the image pickup screen P 2 have an extension portion that is not included in the image pickup screen P 0 , and the image pickup screen P 2 has a shadow portion that is not included in the image pickup screen P 1 . FIG. 3 shows the domain D 3,8 on the imaging screen P 1 .
8, FIG. 39, FIG. 40, FIG. 41, and FIG. 34, FIG. 35, FIG. 36 of the imaging screen P 0 in FIG. 42, FIG. 43, FIG. 44, and FIG. 45 for the domain D 3,8 of the imaging screen P 2 . By performing the same processing as 37, the binary display of the image pickup screen P 1 and the image pickup screen P 2 is obtained as shown in FIGS. 41 and 45. As a result, FIG. 41 and FIG.
Comparing the d ij, to extract the cell unequal d ij in FIG. 41 and FIG. 45.
【0075】図46は本発明の一実施例の撮像画面P1
と撮像画面P2 から合成した2値化表示を示す。同図
中、“N”となっているセルが合成の際の不一致のセル
である。この“N”となっている不一致のセルに図36
の対応するdijを挿入したものが、図47に示す撮像画
面P1 と撮像画面P2 と撮像画面P0 から構成した2値
化表示である。図47と図36のdijを比較して、dij
が等しくないセルを抽出して“C”を記入した図が図4
8である。FIG. 46 shows an image pickup screen P 1 according to one embodiment of the present invention.
And a binarized display synthesized from the image pickup screen P 2 . In the figure, cells having “N” are mismatched cells at the time of combining. The non-matching cells with “N” are shown in FIG.
The corresponding d ij is inserted into the binarized display composed of the imaging screen P 1 , the imaging screen P 2 and the imaging screen P 0 shown in FIG. By comparing the d ij in FIG. 47 and FIG. 36, d ij
Figure 4 shows the cells with unequal values extracted and marked with "C".
8
【0076】図48の“C”がついているセルが建造物
の改変の可能性のある変化セルである。変化セル抽出処
理において、撮像画面P1 と撮像画面P2 からのdijの
等しくないセルを排除したのは、車、歩行者、影等の一
過性の撮像の影響を排除するためであり、その後で、撮
像画面P0 、撮像画面P1 及び撮像画面P2 を比較し、
不一致のdijのセルを変化セルと判定したが、削除段階
で、一過性の撮像として排除したセルでの建造物改変の
検知は不可能であり、誤差が発生し易いが、その量は非
排除のセル数に比べて小さいので、大きな問題にはなら
ない。The cell marked with "C" in FIG. 48 is a change cell which has the possibility of modification of the building. In the changed cell extraction process, the cells having unequal dij from the image pickup screen P 1 and the image pickup screen P 2 are excluded in order to eliminate the influence of transient image pickup such as a car, a pedestrian, and a shadow. After that, the imaging screen P 0 , the imaging screen P 1 and the imaging screen P 2 are compared,
Although the cells of non-coincidence d ij were judged to be changed cells, it is impossible to detect the modification of the building in the cells excluded as the transient imaging at the deletion stage, and an error is likely to occur, but the amount is Since it is smaller than the number of non-excluded cells, it is not a big problem.
【0077】また、本発明では、明るさ、コントラス
ト、影の方向に撮像画面P0 、撮像画面P1 及び撮像画
面P2 で大きな差があると、誤差が大きくなるので、こ
れらの撮像は撮像画面P0 、撮像画面P1 及び撮像画面
P2 とも明るさ、影の方向に余り差がなく、コントラス
トの少ない薄暮等の撮影が好ましい。Further, in the present invention, if there is a large difference between the image pickup screen P 0 , the image pickup screen P 1 and the image pickup screen P 2 in the directions of brightness, contrast, and shadow, the error becomes large, so these image pickups are performed. It is preferable to take an image of dusk or the like, in which there is little difference in brightness and shadow direction between the screen P 0 , the imaging screen P 1, and the imaging screen P 2, and there is little contrast.
【0078】以上の処理の説明は新旧の各ファイルの比
較を中心として述べたが、実際には、先ず、撮像画面P
1 を旧ファイル、撮像画面P2 を新ファイルとして図2
6、図27に示した処理及び、図28、図29、図3
0、図31の変化セル抽出処理までを行い、図31の変
化セル抽出処理で撮像画面P1 及び撮像画面P2 から合
成された図46を作成し、次に撮像画面P0 を旧ファイ
ル、撮像画面P1 を新ファイルとして、図26、図2
7、図28、図29、図30、図31の変化セル抽出処
理を行い、変化セル抽出処理を先に作成してある図46
を用いて図48を作成し、次に図30、図31の変化セ
ル抽出処理以降の処理を行う。Although the above description of the processing has been centered on the comparison of old and new files, in reality, first, the image pickup screen P
Figure 1 with 1 as the old file and imaging screen P 2 as the new file
6, the processing shown in FIG. 27 and FIGS. 28, 29, and 3
0, the change cell extraction process of FIG. 31 is performed, and FIG. 46 synthesized from the image pickup screen P 1 and the image pickup screen P 2 is created by the change cell extraction process of FIG. 31. Then, the image pickup screen P 0 is changed to the old file, The image pickup screen P 1 as a new file is shown in FIGS.
FIG. 46 in which the changed cell extraction processing of FIG. 7, FIG. 28, FIG. 29, FIG. 30, and FIG. 31 is performed and the changed cell extraction processing is created in advance.
FIG. 48 is created by using, and the process after the changed cell extraction process of FIGS. 30 and 31 is performed.
【0079】ここで、第2実施例として測定車100と
撮像対象物との距離を知ることにより建造物の改変を検
知する方法について説明する。図49は本発明の第1実
施例の距離画面(Dm,n ) を示す。この距離画面は距離
データファイル36からCPU38の制御により距離用
ディスプレイ37に表示されるものである。距離画面
(Dm,n ) は撮像画面(Bm,n )毎に対応するが、距離
画面(Dm,n ) は縦方向(i)と横方向(j)を10均
等分割し、各格子の中心位置で超音波距離計22から撮
像対象物までの距離(dij) を測定し、その(dij)を
距離データファイル36の距離データ部213に格納す
る。また、同時にdijの逆数1/dijを層別化し、各装
置に逆数1/dijの値に比例した黒点数を割り当ててそ
れを該当する縦i,横jに相当する格子に記入する。こ
れをディザ処理し、その格子全体の濃淡により撮像対象
物までの距離が図49のように示される。Here, as a second embodiment, a method of detecting the modification of the building by knowing the distance between the measuring vehicle 100 and the object to be imaged will be described. FIG. 49 shows a distance screen (D m, n ) according to the first embodiment of the present invention. This distance screen is displayed on the distance display 37 from the distance data file 36 under the control of the CPU 38. The distance screen (D m, n ) corresponds to each imaging screen (B m, n ), but the distance screen (D m, n ) divides the vertical direction (i) and the horizontal direction (j) into 10 equal parts, and The distance (d ij ) from the ultrasonic range finder 22 to the object to be imaged is measured at the center position of the lattice, and the (d ij ) is stored in the distance data section 213 of the distance data file 36. At the same time the reciprocal 1 / d ij of d ij stratified, fill it assigns a black number proportional to the reciprocal value of 1 / d ij with each device corresponding vertical i, the lattice corresponding to the horizontal j . This is subjected to dither processing, and the distance to the image pickup object is shown by the shading of the whole lattice as shown in FIG.
【0080】図50は本発明の第2実施例の超音波距離
計22から撮像対象物までの距離を求めるための図であ
る。同図中、O点は超音波距離計22の存在点であり、
Z軸方向に支柱103が存在する。S点は建造物存在点
であり、超音波はO点からS点に発射され、S点からO
点に反射される。αuは超音波距離計22の水平角を表
し、βuは超音波距離計22の垂直角を表す。FIG. 50 is a diagram for obtaining the distance from the ultrasonic rangefinder 22 of the second embodiment of the present invention to the object to be imaged. In the figure, point O is the existence point of the ultrasonic rangefinder 22,
The pillar 103 exists in the Z-axis direction. The point S is a building existence point, and ultrasonic waves are emitted from the point O to the point S
Reflected in a point. αu represents the horizontal angle of the ultrasonic rangefinder 22, and βu represents the vertical angle of the ultrasonic rangefinder 22.
【0081】超音波距離計22から撮像対象物までの距
離(dij) の逆数をディザ化処理して表示する。超音波
距離計22から撮像対象物までの距離(dij) は以下の
計算式によりdijを求める。The reciprocal of the distance (d ij ) from the ultrasonic range finder 22 to the object to be imaged is dithered and displayed. Distance from the ultrasonic distance meter 22 to the imaged object (d ij) obtains the d ij by the following equation.
【数4】 上記の数式の各項は図50に示される角度αu ,βu を
代入することにより算出できる。従って、距離データフ
ァイル36のキー221を参照して新旧のデータ毎にd
ijを求め比較することにより撮像対象物の改変が検知で
きる。[Equation 4] Each term of the above formula can be calculated by substituting the angles α u and β u shown in FIG. Therefore, by referring to the key 221 of the distance data file 36, d
The alteration of the imaging target can be detected by obtaining and comparing ij .
【0082】なお、本実施例では、慣性水準計に検知値
の安定化のためオイルダンピング、その他のダンピング
機能を付加することも可能である。In this embodiment, it is possible to add an oil damping function or other damping function to the inertial level meter for stabilizing the detected value.
【0083】なお、図4で距離測定に超音波を用いた
が、赤外線、レーザ光線等を用いることも考えられる。Although ultrasonic waves are used for distance measurement in FIG. 4, infrared rays, laser beams, etc. may be used.
【0084】本実施例では測定車が静止して、超音波に
よる距離測定を行う方式であるが、測定車が低速で移動
しながら、測定することも可能であり、この場合は測定
対象物が10m以内とすると測定率の最高測定速度(x
km/h) に応じて Δ〔Δ=(10×2m /340m)×(x/3600)×
1000=0.016x(m)〕 だけの巾で複数の超音波受波部を測定車に設置すればよ
い。In this embodiment, the measuring vehicle is stationary and the distance is measured by ultrasonic waves, but it is also possible to measure while the measuring vehicle is moving at a low speed. In this case, the object to be measured is Maximum measurement speed of measurement rate (x
Δ [Δ = (10 × 2 m / 340 m) × (x / 3600) × according to km / h)
It is sufficient to install a plurality of ultrasonic wave receiving units in the measuring vehicle with a width of 1000 = 0.016x (m)].
【0085】さらに、建造物改変検知処理は極度にコン
トラストが強く、且つ、影の部分が異なる画面比較で
は、誤差が大きくなるので、撮像はモノクロで可能な限
り、薄暮等の日照コントラストの少ない頃と明るさが同
程度の時を選んだほうがよい。また、赤外線、カメラ、
ソフト化フィルタによるコントラスト軟調化等を配慮す
ると共に撮像能率を向上させるための広角性のカメラが
望ましい。Further, the construction alteration detection process has extremely strong contrast, and an error becomes large in a screen comparison in which shadow portions are different. Therefore, imaging can be performed in monochrome as much as possible when there is little sunlight contrast such as dusk. It is better to choose when the brightness is similar. Also, infrared, camera,
A wide-angle camera for improving the imaging efficiency while considering softening of contrast by the softening filter is desirable.
【0086】さらに図4でカメラ21と、超音波距離計
22は別の支柱103と測定端制御装置23で支持して
いるが、カメラ21と超音波距離計22を合体構造にし
てカメラ21と超音波距離計22の位置のずれを少なく
する構造も考えられる。Further, in FIG. 4, the camera 21 and the ultrasonic range finder 22 are supported by another column 103 and the measuring end control device 23. However, the camera 21 and the ultrasonic range finder 22 are integrated into a camera 21 and an ultrasonic range finder 22. A structure in which the displacement of the ultrasonic rangefinder 22 is reduced is also conceivable.
【0087】[0087]
【発明の効果】上記のように本発明によれば、建造物の
改変の可能性のある箇所を日照、影、人や車のような移
動体、電灯の点滅等の過渡的な変換に影響を抑制して可
能な限り機械化処理により、抽出、表示することができ
るので、建造物改変箇所を表示した画像または、地図等
の資料を効率的に作成できる特長がある。また、本発明
は測定するものとして車両を使用したが、この例に限ら
ず、超音波の使用を除き他の距離検出手段を使用するこ
とで航空機であっても基本的には同じであるため効率的
な街並の変化に基づく画像または、地図を提供できる。As described above, according to the present invention, there is a possibility that a portion of a building that is likely to be modified will be affected by transitions such as sunlight, shadows, moving bodies such as people and cars, and blinking of electric lights. Since it is possible to extract and display by suppressing mechanization by mechanization processing as much as possible, there is a feature that an image showing a building modification portion or a material such as a map can be efficiently created. In addition, although the present invention uses a vehicle as a measurement, the present invention is not limited to this example, and basically the same is obtained even in an aircraft by using other distance detecting means except the use of ultrasonic waves. It is possible to provide an image or a map based on efficient changes in the cityscape.
【図1】本発明の原理を説明するための図である。FIG. 1 is a diagram for explaining the principle of the present invention.
【図2】本発明の車搭載システム構成図である。FIG. 2 is a configuration diagram of a vehicle mounting system of the present invention.
【図3】本発明の基地側のシステム構成図である。FIG. 3 is a system configuration diagram on the base side of the present invention.
【図4】本発明のカメラ、超音波距離計の関連の構造を
示す図である。FIG. 4 is a diagram showing a related structure of a camera and an ultrasonic range finder of the present invention.
【図5】本発明のカメラの回転角を示す図である。FIG. 5 is a diagram showing a rotation angle of the camera of the present invention.
【図6】本発明の車走行距離計の概念図である。FIG. 6 is a conceptual diagram of a vehicle odometer of the present invention.
【図7】本発明の車輪操舵角検知計の概念図である。FIG. 7 is a conceptual diagram of a wheel steering angle detector according to the present invention.
【図8】本発明の方位角検知計の概念図である。FIG. 8 is a conceptual diagram of an azimuth angle detector of the present invention.
【図9】本発明の方位角検知計の回転軸の回転状態を示
す図である。FIG. 9 is a diagram showing a rotating state of a rotating shaft of the azimuth angle detector of the present invention.
【図10】本発明の方位角検知計の回転軸の回転状態に
おける誘起電圧と出力電圧の関係を示す図である。FIG. 10 is a diagram showing the relationship between the induced voltage and the output voltage in the rotating state of the rotating shaft of the azimuth detector of the present invention.
【図11】本発明の慣性水準計の概念図である。FIG. 11 is a conceptual diagram of an inertial level meter of the present invention.
【図12】本発明の慣性水準計を説明するための図であ
る。FIG. 12 is a diagram for explaining an inertial level meter of the present invention.
【図13】本発明の撮像画面の構成図である。FIG. 13 is a configuration diagram of an image pickup screen of the present invention.
【図14】本発明のシステム制御及び環境データファイ
ルの新撮像用環境データのフォーマットを示す図であ
る。FIG. 14 is a diagram showing a format of environment data for new imaging of a system control and environment data file of the present invention.
【図15】本発明のシステム制御及び環境データファイ
ルの新撮像環境データの設定を行った例を示す図であ
る。FIG. 15 is a diagram showing an example in which system control of the present invention and setting of new imaging environment data in an environment data file are performed.
【図16】本発明のシステム制御及び環境データファイ
ルの旧撮像環境データの設定を行った例を示す図であ
る。FIG. 16 is a diagram showing an example of system control and setting of old imaging environment data of an environment data file according to the present invention.
【図17】本発明の新画像データファイルのフォーマッ
トを示す図である。FIG. 17 is a diagram showing a format of a new image data file of the present invention.
【図18】本発明の旧画像データファイルのフォーマッ
トを示す図である。FIG. 18 is a diagram showing a format of an old image data file of the present invention.
【図19】本発明の新画像用マップデータファイルのフ
ォーマットを示す図である。FIG. 19 is a diagram showing a format of a map data file for new image of the present invention.
【図20】本発明の旧画像用マップデータファイルのフ
ォーマットを示す図である。FIG. 20 is a diagram showing a format of an old image map data file of the present invention.
【図21】本発明の距離データファイルのフォーマット
を示す図(新画像用データ)である。FIG. 21 is a diagram (new image data) showing a format of a distance data file of the present invention.
【図22】本発明の距離データファイルのフォーマット
を示す図(旧画像用データ)である。FIG. 22 is a diagram (old image data) showing the format of a distance data file of the present invention.
【図23】本発明の撮像画面(Bm,n )を示す図であ
る。FIG. 23 is a diagram showing an imaging screen (B m, n ) according to the present invention.
【図24】本発明のマップ画面(Mm )を示す図であ
る。FIG. 24 is a diagram showing a map screen (M m ) of the present invention.
【図25】本発明の第1実施例の測定車の最初の回の処
理フローチャートである。FIG. 25 is a processing flowchart of the first round of the measuring vehicle according to the first embodiment of the present invention.
【図26】本発明の第1実施例の測定車の移動に伴うマ
ップ画面上におけるベクトル相加図である。FIG. 26 is a vector additive diagram on the map screen accompanying the movement of the measurement vehicle according to the first embodiment of the present invention.
【図27】本発明の第1実施例の測定車の移動に伴う変
位ベクトルの相加処理のフローチャートである。FIG. 27 is a flowchart of a displacement vector addition process associated with movement of the measurement vehicle according to the first embodiment of the present invention.
【図28】本発明の第1実施例の測定車による一般処理
のフローチャート(前処理)である。FIG. 28 is a flowchart (preprocessing) of general processing performed by the measuring vehicle according to the first embodiment of the present invention.
【図29】本発明の第1実施例の測定車による一般処理
のフローチャートである。FIG. 29 is a flowchart of general processing by the measuring vehicle according to the first embodiment of the present invention.
【図30】本発明の第1実施例の基地側における変化セ
ル抽出までの処理のフローチャートである。FIG. 30 is a flowchart of a process up to extraction of a changed cell on the base side according to the first embodiment of this invention.
【図31】本発明の第1実施例の基地側処理の新マップ
作成処理のフローチャートである。FIG. 31 is a flowchart of a new map creation process of base side processing according to the first embodiment of this invention.
【図32】本発明の第1実施例の撮像画面のドメイン分
割を示す図である。FIG. 32 is a diagram showing domain division of an image pickup screen according to the first embodiment of the present invention.
【図33】本発明の第1実施例の撮像画面P0 のドメイ
ンのセル分割を示す図である。FIG. 33 is a diagram showing cell division of domains of the imaging screen P 0 according to the first embodiment of the present invention.
【図34】本発明の第1実施例の撮像画面P0 のセル毎
のセル内平均濃度表示を示す図である。FIG. 34 is a diagram showing an in-cell average density display for each cell of the imaging screen P 0 according to the first embodiment of the present invention.
【図35】本発明の第1実施例の撮像画面の正規化濃度
表示を示す図である。FIG. 35 is a diagram showing a normalized density display of an image pickup screen according to the first embodiment of the present invention.
【図36】本発明の第1実施例の撮像画面P1 の2値化
表示を示す図である。FIG. 36 is a diagram showing binarized display of the image pickup screen P 1 according to the first embodiment of the present invention.
【図37】本発明の第1実施例の撮像画面のドメイン分
割を示す図である。FIG. 37 is a diagram showing domain division of an image pickup screen according to the first embodiment of the present invention.
【図38】本発明の第1実施例の撮像画面P1 のドメイ
ンのセル分割を示す図である。FIG. 38 is a diagram showing cell division of domains of the image pickup screen P 1 according to the first embodiment of the present invention.
【図39】本発明の第1実施例の撮像画面P1 のセル内
平均濃度表示を示す図である。[Fig. 39] Fig. 39 is a diagram showing average cell in-cell density display of the imaging screen P 1 according to the first embodiment of the present invention.
【図40】本発明の第1実施例の撮像画面P1 の正規化
濃度表示を示す図である。FIG. 40 is a diagram showing a normalized density display on the image pickup screen P 1 according to the first embodiment of the present invention.
【図41】本発明の第1実施例の撮像画面P1 の2値化
表示を示す図である。FIG. 41 is a diagram showing binarized display of the image pickup screen P 1 according to the first embodiment of the present invention.
【図42】本発明の第1実施例の撮像画面P2 のドメイ
ンのセル分割を示す図である。FIG. 42 is a diagram showing cell division of domains of the image pickup screen P 2 according to the first embodiment of the present invention.
【図43】本発明の第1実施例の撮像画面P2 のセル内
平均濃度表示を示す図である。[Fig. 43] Fig. 43 is a diagram showing an average cell internal density display of the imaging screen P 2 according to the first embodiment of the present invention.
【図44】本発明の第1実施例の撮像画面P2 の正規化
濃度表示を示す図である。FIG. 44 is a diagram showing a normalized density display on the imaging screen P 2 according to the first embodiment of the present invention.
【図45】本発明の第1実施例の撮像画面P2 の2値化
表示を示す図である。FIG. 45 is a diagram showing binarized display of the image pickup screen P 2 according to the first embodiment of the present invention.
【図46】本発明の第1実施例の撮像画面P1 とP2 か
ら合成した2値化表示を示す図である。FIG. 46 is a diagram showing a binarized display synthesized from image pickup screens P 1 and P 2 according to the first embodiment of the present invention.
【図47】本発明の第1実施例の撮像画面P1 、P2 、
P3 から合成した2値化表示を示す図である。FIG. 47 is an image pickup screen P 1 , P 2 of the first embodiment of the present invention;
It is a diagram illustrating a binary display synthesized from P 3.
【図48】本発明の第1実施例の変化セルを示す図であ
る。FIG. 48 is a diagram showing a change cell according to the first embodiment of the present invention.
【図49】本発明の第2実施例の距離画面(Dm,n )を
示す図である。FIG. 49 is a diagram showing a distance screen (D m, n ) according to the second embodiment of the present invention.
【図50】本発明の第2実施例の超音波距離計から撮像
対象物までの距離を求めるための図である。FIG. 50 is a diagram for obtaining the distance from the ultrasonic range finder according to the second embodiment of the present invention to the object to be imaged.
1 第1の画面 2 第2の画面 3 第3の画面 4 第4の画面 21 カメラ 22 超音波距離計(USWM) 23 測定端制御装置 24 車走行距離計 25 車輪操舵角検知計 26 方位角検知計 27 A/D変換信号送受信部 28 データバス 29 システム制御及び環境データ表示用ワークステー
ション 30 マップデータ磁気ファイル装置 31 マップ用ディスプレイ 32 新画像データ光磁気ファイル装置 33 新画像用ディスプレイ 34 旧画像データ光磁気ファイル装置 35 旧画像用ディスプレイ 36 距離データ磁気ファイル装置 37 距離用ディスプレイ 38 CPU 39 慣性水準計 40 支柱制御装置 41 システム制御及び環境データ磁気ファイル装置 51 Nマップデータファイル装置 52 Nマップデータファイル装置 53 旧マップ用ワークステーション 54 旧マップ用ワークステーション 55 新画像データファイル装置 56 新画像データ用ワークステーション 57 旧画像データファイル装置 58 旧画像用ワークステーション 59 新,旧距離データファイル装置 60 距離用ワークステーション 61 システム制御及び環境データ用ワークステーショ
ン 62 CPU 63 印刷機 64 記録媒体作成装置(CD・ROM,MT,磁気デ
ィスク等) 65 データバス 66 システム制御及びN.O環境データ磁気ファイル
装置 100 測定車体 101 車輪 102 車軸 103 支柱 104 道路面 131 支柱外筒 132 支柱内筒 133 データ線 201 上下柱 202 ガイド円板 203 ガイド軸 204 モータ 205 モータ回転制御線 210 N環境(Ε)ファイル 211 ファイル項番号 212 対象コード 213 開始時刻 214 面巾長 215 測定点・範囲 216 面段長 217 面段範囲 218 測定点 219 面的 220 走行距離 221 操舵角 222 方位角 223 縦横傾斜角 224 カメラ筒 225 カメラ水平角 226 カメラ垂直角 227 USW高さ 228 USW水平角 229 USW垂直角 230 対象長 231 O環境(Ε)ファイル 232 キー 233 画面データ 234 キー 235 画面データ 236 キー 237 画面データ 238 キー 239 マップデータ 240 キー 241 測定点面段点 242 距離データ 243 キー 244 測定点面段点 245 距離データ 401 パルス距離データ変換器 402 発光素子 403 受光素子 404 検出円板孔 405 検出円板 501 車軸回転軸 502 車軸突起部 503 受光素子 504 発光素子 505 パルス角度データ変換器 506 パルス伝送線 601 コア 602 上部巻線 603 下部巻線 604 回転軸 605 回転軸突起 606 発光素子 607 受光素子 608 モータ 609 位相方位角変換器 610 地磁気磁束 611 位相差 701 横方向傾斜検知枝 702 横方向回転軸 703 横方向発光素子 704 横方向受光素子 705 縦方向傾斜検知円筒 706 外部支持筐体 707 縦方向回転軸 708 縦方向傾斜検知枝 709 縦方向発光素子 710 縦方向受光素子 711 縦方向傾斜角(ε)検知器 712 横方向傾斜角(φ)検知器 713 縦方向傾斜地面 714 横方向傾斜地面 800 地表面 801 建造物 802 Mm Cp (Bm,0 )画面 803 Mm C1 (Bm,1 )画面 804 Bm,0 とBm,1 画面のオーバーラップ部 805 Mm+1 C0 (Bm+1,0 )画面 806 Mm+1,C 1(Bm+1,1 )画面 807 Bm+1,0 とBm+1,1 画面のオーバーラップ部 808 Bm,0 とBm+1,0 画面のオーバーラップ部 809 Bm,1 とBm+1 , 1画面のオーバーラップ部1 1st screen 2 2nd screen 3 3rd screen 4 4th screen 21 Camera 22 Ultrasonic range finder (USWM) 23 Measuring end controller 24 Vehicle odometer 25 Wheel steering angle detector 26 Azimuth angle detection Total 27 A / D conversion signal transmitter / receiver 28 Data bus 29 System control and environmental data display workstation 30 Map data magnetic file device 31 Map display 32 New image data optical magnetic file device 33 New image display 34 Old image data optical Magnetic file device 35 Display for old image 36 Distance data Magnetic file device 37 Display for distance 38 CPU 39 Inertial level meter 40 Strut controller 41 System control and environmental data Magnetic file device 51 N map data file device 52 N map data file device 53 Old map Workstation 54 old map workstation 55 new image data file device 56 new image data workstation 57 old image data file device 58 old image workstation 59 new and old distance data file device 60 distance workstation 61 system Control and environment data workstation 62 CPU 63 Printing machine 64 Recording medium creation device (CD / ROM, MT, magnetic disk, etc.) 65 Data bus 66 System control and N.V. O environment data magnetic file device 100 measurement vehicle body 101 wheel 102 axle 103 pillar 104 road surface 131 pillar outer cylinder 132 pillar inner cylinder 133 data line 201 upper and lower pillars 202 guide disk 203 guide shaft 204 motor 205 motor rotation control line 210 N environment ( Ε) File 211 File item number 212 Target code 213 Start time 214 Face width 215 Measuring point / range 216 Face length 217 Face range 218 Measuring point 219 Face 220 mileage 221 Steering angle 222 Azimuth 223 Vertical and horizontal inclination 224 Camera Cylinder 225 Camera horizontal angle 226 Camera vertical angle 227 USW height 228 USW horizontal angle 229 USW vertical angle 230 Target length 231 O environment (Ε) file 232 key 233 screen data 234 key 235 screen data 236 key 2 37 screen data 238 key 239 map data 240 key 241 measurement point plane step 242 distance data 243 key 244 measurement point plane step 245 distance data 401 pulse distance data converter 402 light emitting element 403 light receiving element 404 detection disc hole 405 detection circle Plate 501 Axle rotating shaft 502 Axle protrusion 503 Light receiving element 504 Light emitting element 505 Pulse angle data converter 506 Pulse transmission line 601 Core 602 Upper winding 603 Lower winding 604 Rotating shaft 605 Rotating shaft protrusion 606 Light emitting element 607 Light receiving element 608 Motor 609 Phase azimuth converter 610 Geomagnetic flux 611 Phase difference 701 Horizontal tilt detection branch 702 Horizontal rotation axis 703 Horizontal light emitting element 704 Horizontal light receiving element 705 Vertical tilt detection cylinder 706 External support housing 707 Vertical rotation 708 Vertical tilt detecting branch 709 Vertical light emitting element 710 Vertical light receiving element 711 Vertical tilt angle (ε) detector 712 Horizontal tilt angle (φ) detector 713 Vertical tilt ground 714 Horizontal tilt ground 800 Ground surface 801 Building 802 M m C p (B m, 0 ) screen 803 M m C 1 (B m, 1 ) screen 804 B m, 0 and B m, 1 screen overlap area 805 M m + 1 C 0 (B m + 1,0 ) screen 806 M m + 1 , C 1 (B m + 1,1 ) screen 807 B m + 1,0 and B m + 1,1 screen overlap 808 B m, 0 and B m + 1,0 screen overlap area 809 B m, 1 and B m + 1 , 1 screen overlap area
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小関 重二 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 (72)発明者 本多 満 愛知県名古屋市千種区今池南26番4号 本 多興業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Shigeji Ozeki 1-1-6 Uchisaiwai-cho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation (72) Mitsuru Honda 26 Imaike Minami, Chikusa-ku, Nagoya-shi, Aichi No. 4 Honda Takou Co., Ltd.
Claims (4)
を検知する街並追跡マップ作成方式において、 日時Aに撮像した第1の画面と該日時Aより期間Bだけ
経過した日時Cに日時Aの撮像対象と同一対象を撮像し
た第2の画面と、該第1の画面と該第2の画面で相互に
異なる影像を該第1の画面または、該第2の画面から削
除し、合成した画面である第3の画面と該日時Aから期
間Bより長い期間Fだけ、過去に溯った日時Gに日時A
と同一対象を撮像して得られた第4の画面を用いて、 前記第3の画面と前記第4の画面を比較し、前記第3の
画面と前記第4の画面に異なっている部分があった場合
に、その部分を撮像対象の改変部分として検知すること
を特徴とする街並追跡マップ作成方式。1. In a cityscape tracking map creation method for detecting alteration of an imaging target based on a screen imaged, a first screen imaged at a time A and a date A at a time C elapsed by a period B from the time A. The second screen, which is the same as the target image, and the different images on the first screen and the second screen are deleted from the first screen or the second screen and are combined. The third screen, which is a screen, and the date and time A from the date and time A to the date and time G, which has been past in the past, for a period F longer than the period B.
Using the fourth screen obtained by imaging the same object as above, the third screen and the fourth screen are compared, and the difference between the third screen and the fourth screen is If there is, it detects the part as a modified part of the imaging target, a streetscape tracking map creation method.
対象物を撮像する際に信号を発射して撮像側と該対象物
との距離を測定して、測定結果を記録する距離記録を作
成し、撮像画面から建造物の改変を検知する場合におい
て、 前記撮像対象物を撮像する際に同時に前記信号を発射し
て測定記録した第1の距離記録と、それ以前の時刻に同
位置で測定記録された第2の距離記録とを比較して該第
1の距離記録と該第2の距離記録間に差が生じた場合に
該第1の距離記録に対応する撮像画面と該第2の距離記
録に対応する撮像画面を比較して撮像対象に異なってい
る部分があった場合にその部分を改変部分として検知す
ることを特徴とする街並追跡マップ作成方式。2. A distance record for recording a measurement result by emitting a signal to measure the distance between the image pickup side and the object when the same object as the screen image object is picked up at the same time of image pickup. In the case of creating and detecting a modification of a building from an imaging screen, at the same position as the first distance record measured and recorded by emitting the signal at the same time when the object to be imaged is imaged. When a difference is generated between the first distance record and the second distance record by comparing with the second distance record measured and recorded, an image pickup screen corresponding to the first distance record and the second distance record. A method for creating a cityscape tracking map, which compares the image pickup screens corresponding to the distance record of 1. and detects the changed portion as the changed portion when there is a different portion in the image pickup target.
検知する街並追跡マップ作成方式において、 撮像日時の異なる時に同一対象物を撮像した複数の画面
を比較する場合に、各画面を同じ形で同面積のセルで同
じセル数に分割し、各セル内の平均濃度を全セルについ
て平均した全セル平均濃度を求め、各セル内の平均濃度
を該全セル平均濃度で除した各セルの正規化濃度を求
め、さらに、該正規化濃度の標準偏差を求め、 前記標準偏差から基準値を求め、 注目したセルの正規化濃度と該セルが接する周辺セルの
正規化濃度の差が基準値以上の場合に、該セルを撮像対
象に改変の可能性のある変化セルとして識別し、画面相
互間で画面内の該変化セルのみについて比較して各画面
の明るさとコントラストが画面相互で異なることを抑制
することを特徴とする請求項1記載の街並追跡マップ作
成方式。3. In a cityscape tracking map creating method for detecting a modification of a building based on a screen imaged, when comparing a plurality of screen images of the same object at different imaging dates and times, each screen is the same. In the same shape, the cells are divided into the same number of cells in the same area, the average concentration in each cell is averaged for all cells, the average concentration of all cells is obtained, and the average concentration in each cell is divided by the average concentration of all cells Then, the standard deviation of the standardized density is calculated, and the standard value is calculated from the standard deviation. The difference between the standardized density of the cell of interest and the normalized density of the peripheral cells in contact with the cell is the standard. When the value is equal to or more than the value, the cell is identified as a changed cell that may be modified in the imaging target, and only the changed cell in the screen is compared between screens, and the brightness and contrast of each screen are different from each other. To suppress that The streetscape tracking map creation method according to claim 1, wherein:
を検知する街並追跡マップ作成方式において、 前記第4の画面は改変を検知するために比較すべき前記
第1の画面と前記第2の画面の少なくとも一方の画面を
複数回撮影して得られた画面のうち、相互に異なる影像
を削除し、合成して得られた画面であることを特徴とす
る請求項1記載の街並追跡マップ作成方式。4. A cityscape tracking map creation method for detecting alteration of an imaging target based on an imaged screen, wherein the fourth screen is the first screen and the second screen to be compared in order to detect alteration. 2. The streetscape tracking according to claim 1, wherein among the screens obtained by photographing at least one of the two screens a plurality of times, images different from each other are deleted and synthesized. Map creation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3227891A JP2953131B2 (en) | 1991-09-09 | 1991-09-09 | Street tracking map creation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3227891A JP2953131B2 (en) | 1991-09-09 | 1991-09-09 | Street tracking map creation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06124339A true JPH06124339A (en) | 1994-05-06 |
JP2953131B2 JP2953131B2 (en) | 1999-09-27 |
Family
ID=16867946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3227891A Expired - Fee Related JP2953131B2 (en) | 1991-09-09 | 1991-09-09 | Street tracking map creation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2953131B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11144042A (en) * | 1997-11-12 | 1999-05-28 | Naoki Harigai | Method for finding new flaw of rental car and flaw finding device for implementing same method |
JP2015007838A (en) * | 2013-06-24 | 2015-01-15 | 富士通株式会社 | Image processing program, image processing method, and image processing apparatus |
WO2021177471A1 (en) * | 2020-03-06 | 2021-09-10 | 株式会社エクォス・リサーチ | Detection device, tracking device, detection program, and tracking program |
JP2022089879A (en) * | 2017-12-25 | 2022-06-16 | キヤノン株式会社 | Image processing device and control method of the same |
-
1991
- 1991-09-09 JP JP3227891A patent/JP2953131B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11144042A (en) * | 1997-11-12 | 1999-05-28 | Naoki Harigai | Method for finding new flaw of rental car and flaw finding device for implementing same method |
JP2015007838A (en) * | 2013-06-24 | 2015-01-15 | 富士通株式会社 | Image processing program, image processing method, and image processing apparatus |
JP2022089879A (en) * | 2017-12-25 | 2022-06-16 | キヤノン株式会社 | Image processing device and control method of the same |
US11830177B2 (en) | 2017-12-25 | 2023-11-28 | Canon Kabushiki Kaisha | Image processing apparatus, control method and non-transitory computer-readable recording medium therefor |
WO2021177471A1 (en) * | 2020-03-06 | 2021-09-10 | 株式会社エクォス・リサーチ | Detection device, tracking device, detection program, and tracking program |
JP2021140561A (en) * | 2020-03-06 | 2021-09-16 | 株式会社エクォス・リサーチ | Detection device, tracking device, detection program, and tracking program |
Also Published As
Publication number | Publication date |
---|---|
JP2953131B2 (en) | 1999-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11482008B2 (en) | Directing board repositioning during sensor calibration for autonomous vehicles | |
US20200401617A1 (en) | Visual positioning system | |
CN110146910B (en) | Positioning method and device based on data fusion of GPS and laser radar | |
US8665263B2 (en) | Aerial image generating apparatus, aerial image generating method, and storage medium having aerial image generating program stored therein | |
CN101163940B (en) | Imaging position analyzing method | |
CN104865578B (en) | A kind of parking garage fine map creation device and method | |
US8649610B2 (en) | Methods and apparatus for auditing signage | |
JP5062498B2 (en) | Reference data generation system and position positioning system for landscape matching | |
JP2011227888A (en) | Image processing system and location positioning system | |
CN106568456B (en) | Non-stop charging method based on GPS/ Beidou positioning and cloud computing platform | |
CN105674993A (en) | Binocular camera-based high-precision visual sense positioning map generation system and method | |
CN101689296A (en) | Method of and apparatus for producing road information | |
CN101842808A (en) | Method of and apparatus for producing lane information | |
CN110702132A (en) | Method for acquiring map data of micro-road network based on road marking points and road attributes | |
CN106296814A (en) | Highway maintenance detection and virtual interactive interface method and system | |
CN112418081B (en) | Method and system for quickly surveying traffic accidents by air-ground combination | |
CN1804552A (en) | Vehicle mounted navigation three-dimensional path display system | |
CN111739323A (en) | Method and device for acquiring intersection information | |
JPH031300A (en) | System of preparing and conserving current data file for road transportation | |
JP4334155B2 (en) | Image map creation device and method | |
CN110223223A (en) | Street scan method, device and scanner | |
JP2953131B2 (en) | Street tracking map creation method | |
JP3437671B2 (en) | Landmark recognition device and landmark recognition method | |
He et al. | Automatic analysis of highway features from digital stereo-images | |
CN111047694A (en) | Three-dimensional road modeling method and system based on vision and rules |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080716 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |