JP2011170599A - Outdoor structure measuring instrument and outdoor structure measuring method - Google Patents

Outdoor structure measuring instrument and outdoor structure measuring method Download PDF

Info

Publication number
JP2011170599A
JP2011170599A JP2010033594A JP2010033594A JP2011170599A JP 2011170599 A JP2011170599 A JP 2011170599A JP 2010033594 A JP2010033594 A JP 2010033594A JP 2010033594 A JP2010033594 A JP 2010033594A JP 2011170599 A JP2011170599 A JP 2011170599A
Authority
JP
Japan
Prior art keywords
outdoor structure
data
outdoor
dimensional
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010033594A
Other languages
Japanese (ja)
Inventor
Junichi Shibayama
純一 柴山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010033594A priority Critical patent/JP2011170599A/en
Publication of JP2011170599A publication Critical patent/JP2011170599A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To measure the location, shape and color of an outdoor structure. <P>SOLUTION: This outdoor structure measuring instrument includes: a location and shape specifying part 6 for analyzing point group data and locus data acquired by a three-dimensional data acquiring device 2, extracting an outdoor structure from outdoor features, specifying a three-dimensional location where the outdoor structure is installed, and specifying the three-dimensional shape of the outdoor structure; and a color specifying part 8 for collating the three-dimensional location and three-dimensional shape specified by the location and shape specifying part 6 with photographed image data acquired by a photographed image data acquiring device 3, specifying an area where the outdoor structure is reflected on the photographed image shown by the photographed image data, and specifying the color of the outdoor structure from a pixel value of the area. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、屋外構造物(例えば、道路上の標識、案内広告板、建物の壁から道路上に突き出ている屋外広告物、小屋などの固定物)が設置されている三次元位置、屋外構造物の三次元形状及び色彩を計測する屋外構造物計測装置及び屋外構造物計測方法に関するものである。   The present invention relates to a three-dimensional position where an outdoor structure (for example, a sign on a road, a guide advertisement board, an outdoor advertisement projecting on a road from a wall of a building, or a fixed object such as a hut) is installed, an outdoor structure The present invention relates to an outdoor structure measuring apparatus and an outdoor structure measuring method for measuring a three-dimensional shape and color of an object.

GPS受信機とレーザレンジファインダを車両に搭載し、車両が道路を走行中に、GPS受信機により受信されたGPSデータや、レーザレンジファインダの測定データから、道路や周辺の地物(地上に存在している全ての物体)の三次元情報及び軌跡情報を電子的な三次元データとして取得する三次元データ取得装置がある。
また、GPS受信機と動画又は連続静止画を撮影するカメラを車両に搭載し、車両が道路を走行中に、GPS受信機により受信されたGPSデータや、カメラの映像データから、道路や周辺の地物の撮影画像、撮影時刻及び撮影位置を電子的な撮影画像データとして取得する撮影画像データ取得装置がある。
A GPS receiver and a laser range finder are mounted on the vehicle. While the vehicle is traveling on the road, the GPS data received by the GPS receiver and the measurement data of the laser range finder are used to detect roads and surrounding features (exist on the ground). There is a three-dimensional data acquisition device that acquires three-dimensional information and trajectory information of all objects) as electronic three-dimensional data.
In addition, a GPS receiver and a camera that captures moving images or continuous still images are mounted on the vehicle. While the vehicle is traveling on the road, the GPS data received by the GPS receiver and the video data of the camera can be used to detect roads and surroundings. There is a photographed image data acquisition device that acquires a photographed image, a photographing time, and a photographing position of a feature as electronic photographed image data.

例えば、以下の特許文献1,2には、三次元データ取得装置により取得された三次元データと、撮影画像データ取得装置により取得された撮影画像データを用いて、道路や周辺の地物のモデル化を行う地物計測装置が開示されている。
したがって、この地物計測装置によれば、屋外の地物の形状や位置を特定することができるが、屋外の地物と屋外構造物を区別することができない。
このため、例えば、屋外の地物であるビルなどの建物に取り付けられている看板などの屋外構造物は、建物の一部として捉えられ、看板などの屋外構造物の形状や位置を独立して計測することができない。
For example, in Patent Documents 1 and 2 below, models of roads and surrounding features are obtained using the three-dimensional data acquired by the three-dimensional data acquisition device and the captured image data acquired by the captured image data acquisition device. There is disclosed a feature measuring apparatus for performing the conversion.
Therefore, according to the feature measuring apparatus, the shape and position of the outdoor feature can be specified, but the outdoor feature and the outdoor structure cannot be distinguished.
For this reason, for example, an outdoor structure such as a signboard attached to a building such as a building that is an outdoor feature is regarded as a part of the building, and the shape and position of the outdoor structure such as a signboard are independently determined. It cannot be measured.

特開2009−76096号公報(段落番号[0015]から[0024]、図8)JP 2009-76096 A (paragraph numbers [0015] to [0024], FIG. 8) 特開2009−121945号公報(段落番号[0005]から[0008])JP 2009-121945 A (paragraph numbers [0005] to [0008])

従来の地物計測装置は以上のように構成されているので、屋外の地物の形状や位置を特定することができるが、屋外の地物と屋外構造物を区別することができない。このため、屋外構造物の位置、形状及び色彩を計測することができないなどの課題があった。   Since the conventional feature measuring apparatus is configured as described above, the shape and position of the outdoor feature can be specified, but the outdoor feature and the outdoor structure cannot be distinguished. For this reason, there existed problems, such as being unable to measure the position, shape, and color of an outdoor structure.

この発明は上記のような課題を解決するためになされたもので、屋外構造物の位置、形状及び色彩を計測することができる屋外構造物計測装置及び屋外構造物計測方法を得ることを目的とする。   This invention was made in order to solve the above problems, and aims to obtain an outdoor structure measuring apparatus and an outdoor structure measuring method capable of measuring the position, shape and color of an outdoor structure. To do.

この発明に係る屋外構造物計測装置は、移動体に設置された状態で、屋外の地物を走査して、その地物の表面における走査点の三次元位置及び走査時刻を示す点群データを取得するとともに、移動体の走行位置及び走行時刻を示す軌跡データを取得する三次元データ取得手段と、移動体に設置された状態で、屋外の地物を撮影して、その地物の撮影位置、撮影時刻及び撮影画像を示す撮影画像データを取得する撮影画像データ取得手段と、三次元データ取得手段により取得された点群データ及び軌跡データを解析して、屋外の地物から屋外構造物を抽出し、その屋外構造物が設置されている三次元位置を特定するとともに、屋外構造物の三次元形状を特定する位置形状特定手段と、位置形状特定手段により特定された三次元位置及び三次元形状と撮影画像データ取得手段により取得された撮影画像データを照合して、その撮影画像データが示す撮影画像に屋外構造物が映っている領域を特定し、その領域の画素値から屋外構造物の色彩を特定する色彩特定手段とを設けるようにしたものである。   The outdoor structure measuring apparatus according to the present invention scans an outdoor feature in a state where it is installed on a moving body, and obtains point cloud data indicating the three-dimensional position and scanning time of the scanning point on the surface of the feature. The three-dimensional data acquisition means for acquiring the trajectory data indicating the travel position and travel time of the moving body, and capturing the outdoor feature in a state installed on the mobile body, and acquiring the position of the feature The photographed image data acquisition means for acquiring the photographed image data indicating the photographing time and the photographed image, and the point cloud data and the trajectory data acquired by the three-dimensional data acquisition means are analyzed, and the outdoor structure is extracted from the outdoor feature. Extracting and specifying the three-dimensional position where the outdoor structure is installed, specifying the three-dimensional shape of the outdoor structure, the three-dimensional position and three-dimensional specified by the position shape specifying means form The captured image data acquired by the captured image data acquisition means is collated, the region where the outdoor structure appears in the captured image indicated by the captured image data is specified, and the color of the outdoor structure is determined from the pixel value of the region. And a color specifying means for specifying the color.

この発明によれば、移動体に設置された状態で、屋外の地物を走査して、その地物の表面における走査点の三次元位置及び走査時刻を示す点群データを取得するとともに、移動体の走行位置及び走行時刻を示す軌跡データを取得する三次元データ取得手段と、移動体に設置された状態で、屋外の地物を撮影して、その地物の撮影位置、撮影時刻及び撮影画像を示す撮影画像データを取得する撮影画像データ取得手段と、三次元データ取得手段により取得された点群データ及び軌跡データを解析して、屋外の地物から屋外構造物を抽出し、その屋外構造物が設置されている三次元位置を特定するとともに、屋外構造物の三次元形状を特定する位置形状特定手段と、位置形状特定手段により特定された三次元位置及び三次元形状と撮影画像データ取得手段により取得された撮影画像データを照合して、その撮影画像データが示す撮影画像に屋外構造物が映っている領域を特定し、その領域の画素値から屋外構造物の色彩を特定する色彩特定手段とを設けるように構成したので、屋外構造物の三次元位置、三次元形状及び色彩を計測することができる効果がある。   According to the present invention, an outdoor feature is scanned in a state where it is installed on a moving body, and the point cloud data indicating the three-dimensional position and scanning time of the scanning point on the surface of the feature is acquired and moved. Three-dimensional data acquisition means for acquiring trajectory data indicating the travel position and travel time of the body, and photographing the outdoor feature in a state where it is installed on the moving body, the capture position, the capture time and the capture of the feature The photographed image data acquisition means for acquiring the photographed image data indicating the image, and the point cloud data and the trajectory data acquired by the three-dimensional data acquisition means are analyzed to extract the outdoor structure from the outdoor feature, and the outdoor The position shape specifying means for specifying the three-dimensional position where the structure is installed and the three-dimensional shape of the outdoor structure, the three-dimensional position and the three-dimensional shape specified by the position shape specifying means, and the captured image data A color that identifies the area in which the outdoor structure appears in the captured image indicated by the captured image data by collating the captured image data acquired by the acquisition unit, and identifies the color of the outdoor structure from the pixel value of the area Since the specific means is provided, the three-dimensional position, the three-dimensional shape and the color of the outdoor structure can be measured.

この発明の実施の形態1による屋外構造物計測装置を示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the outdoor structure measuring device by Embodiment 1 of this invention. この発明の実施の形態1による屋外構造物計測装置の位置形状特定部6を示す構成図である。It is a block diagram which shows the position shape specific | specification part 6 of the outdoor structure measuring device by Embodiment 1 of this invention. この発明の実施の形態1による屋外構造物計測装置の色彩特定部8を示す構成図である。It is a block diagram which shows the color specific | specification part 8 of the outdoor structure measuring device by Embodiment 1 of this invention. この発明の実施の形態1による屋外構造物計測装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the outdoor structure measuring device by Embodiment 1 of this invention. データ取得車両1が道路を走行しているとき、三次元データ取得装置2が点群データを取得し、撮影画像データ取得装置3が撮影画像データを取得している様子を示す説明図である。It is explanatory drawing which shows a mode that the three-dimensional data acquisition apparatus 2 acquires point cloud data, and the picked-up image data acquisition apparatus 3 is acquiring picked-up image data when the data acquisition vehicle 1 is drive | working the road. 車道高計測部22により計測される車道高を示す説明図である。It is explanatory drawing which shows the roadway height measured by the roadway height measurement part 22. FIG. 歩道高計測部23により計測される歩道高を示す説明図である。It is explanatory drawing which shows the sidewalk height measured by the sidewalk height measurement part. 幅・奥行き計測部24により計測される屋外構造物の幅及び奥行きを示す説明図である。It is explanatory drawing which shows the width | variety and depth of an outdoor structure measured by the width / depth measurement part 24. FIG. 幅・奥行き計測部24により計測される屋外構造物の幅及び奥行きを示す説明図である。It is explanatory drawing which shows the width | variety and depth of an outdoor structure measured by the width / depth measurement part 24. FIG. 上下端計測部25により計測される上端高及び下端高を示す説明図である。It is explanatory drawing which shows the upper end height and lower end height which are measured by the upper / lower end measurement part 25. FIG. 中心計測部26により特定される屋外構造物の中心位置を示す説明図である。It is explanatory drawing which shows the center position of the outdoor structure specified by the center measurement part 26. FIG. 画像選択部31により選択される撮影画像を示す説明図である。It is explanatory drawing which shows the picked-up image selected by the image selection part 31. FIG. 色彩特定部8により特定される色彩データを示す説明図である。It is explanatory drawing which shows the color data specified by the color specific | specification part 8. FIG. 地図マッピング部11から出力される屋外構造物計測データを示す説明図である。It is explanatory drawing which shows the outdoor structure measurement data output from the map mapping part. この発明の実施の形態2による屋外構造物計測装置を示す構成図である。It is a block diagram which shows the outdoor structure measuring device by Embodiment 2 of this invention. 屋外構造物制限データ記録部13に記録されている屋外構造物制限データを示す説明図である。It is explanatory drawing which shows the outdoor structure restriction data currently recorded on the outdoor structure restriction data recording part.

実施の形態1.
図1はこの発明の実施の形態1による屋外構造物計測装置を示す構成図である。
図1において、データ取得車両1は例えば道路などを走行することが可能な移動体であり、例えば、屋根等に三次元データ取得装置2と撮影画像データ取得装置3が設置されている。
三次元データ取得装置2は例えばGPS受信機やレーザレンジファインダを実装しており、データ取得車両1に設置された状態で、屋外の地物(地上に存在している全ての物体)を走査して、その地物の表面における走査点の三次元位置(x1,y1,z1)及び走査時刻t1を示す点群データを取得するとともに、データ取得車両1の走行位置(x2,y2,z2)及び走行時刻t2を示す軌跡データを取得する処理を実施する。なお、三次元データ取得装置2は三次元データ取得手段を構成している。
Embodiment 1 FIG.
1 is a block diagram showing an outdoor structure measuring apparatus according to Embodiment 1 of the present invention.
In FIG. 1, a data acquisition vehicle 1 is a moving body capable of traveling on, for example, a road. For example, a three-dimensional data acquisition device 2 and a captured image data acquisition device 3 are installed on a roof or the like.
The three-dimensional data acquisition device 2 is equipped with, for example, a GPS receiver or a laser range finder, and scans outdoor features (all objects existing on the ground) while being installed in the data acquisition vehicle 1. The point cloud data indicating the three-dimensional position (x1, y1, z1) of the scanning point and the scanning time t1 on the surface of the feature is acquired, and the travel position (x2, y2, z2) of the data acquisition vehicle 1 and A process of acquiring trajectory data indicating the travel time t2 is performed. The three-dimensional data acquisition device 2 constitutes a three-dimensional data acquisition unit.

撮影画像データ取得装置3は例えばGPS受信機やカメラを実装しており、データ取得車両1に設置された状態で、屋外の地物を撮影して、その地物の撮影位置(x3,y3,z3)、撮影時刻t3及び撮影画像を示す撮影画像データを取得する処理を実施する。なお、撮影画像データ取得装置3は撮影画像データ取得手段を構成している。
ただし、撮影画像データ取得装置3は三次元データ取得装置2に実装されているGPS受信機からGPSデータを受信するようにすれば、撮影画像データ取得装置3がGPS受信機を実装していなくてもよい。
同様に、三次元データ取得装置2が撮影画像データ取得装置3に実装されているGPS受信機からGPSデータを受信するようにすれば、三次元データ取得装置2がGPS受信機を実装していなくてもよい。
The captured image data acquisition device 3 is equipped with, for example, a GPS receiver and a camera. The captured image data acquisition device 3 captures an outdoor feature in a state where the captured image data acquisition device 3 is installed in the data acquisition vehicle 1, and the shooting position (x3, y3, 3) of the feature z3), a process of acquiring captured image data indicating the captured time t3 and the captured image. The captured image data acquisition device 3 constitutes a captured image data acquisition unit.
However, if the captured image data acquisition device 3 receives GPS data from a GPS receiver mounted on the three-dimensional data acquisition device 2, the captured image data acquisition device 3 does not have a GPS receiver mounted. Also good.
Similarly, if the 3D data acquisition device 2 receives GPS data from a GPS receiver mounted on the captured image data acquisition device 3, the 3D data acquisition device 2 does not have a GPS receiver mounted. May be.

三次元データ記録部4は三次元データ取得装置2により取得された点群データ及び軌跡データを記録する例えばハードディスクなどの記録媒体である。
ただし、三次元データ記録部4はデータ取得車両1に搭載されていてもよいし、データ取得車両1と別の場所に設置されていてもよい。
データ取得車両1と別の場所に設置される場合、三次元データ記録部4が図示せぬ通信手段(例えば、無線通信装置、有線通信装置)を利用して、三次元データ取得装置2により取得された点群データ及び軌跡データを収集して記録するようにしてもよい。
The three-dimensional data recording unit 4 is a recording medium such as a hard disk for recording the point cloud data and the trajectory data acquired by the three-dimensional data acquisition device 2.
However, the three-dimensional data recording unit 4 may be mounted on the data acquisition vehicle 1 or may be installed at a different location from the data acquisition vehicle 1.
When the data acquisition vehicle 1 is installed at a different location, the three-dimensional data recording unit 4 acquires the three-dimensional data acquisition device 2 using a communication means (not shown) (for example, a wireless communication device or a wired communication device). Collected point cloud data and trajectory data may be collected and recorded.

撮影画像データ記録部5は撮影画像データ取得装置3により取得された撮影画像データを記録する例えばハードディスクなどの記録媒体である。
ただし、撮影画像データ記録部5はデータ取得車両1に搭載されていてもよいし、データ取得車両1と別の場所に設置されていてもよい。
データ取得車両1と別の場所に設置される場合、撮影画像データ記録部5が図示せぬ通信手段(例えば、無線通信装置、有線通信装置)を利用して、撮影画像データ取得装置3により取得された撮影画像データを収集して記録するようにしてもよい。
The captured image data recording unit 5 is a recording medium such as a hard disk for recording captured image data acquired by the captured image data acquisition device 3.
However, the captured image data recording unit 5 may be mounted on the data acquisition vehicle 1 or may be installed at a different location from the data acquisition vehicle 1.
When installed in a location different from the data acquisition vehicle 1, the captured image data recording unit 5 acquires the captured image data acquisition device 3 using a communication unit (not shown) (for example, a wireless communication device or a wired communication device). The captured image data may be collected and recorded.

位置形状特定部6は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、三次元データ記録部4に記録されている点群データ及び軌跡データを解析して、屋外の地物から屋外構造物(例えば、道路上の標識、案内広告板、建物の壁から道路上に突き出ている屋外広告物、小屋などの固定物)を抽出し、その屋外構造物が設置されている三次元位置(例えば、屋外構造物の中心位置、車道高、歩道高)を特定するとともに、その屋外構造物の三次元形状(例えば、屋外構造物の幅、奥行き、上端高、下端高)を特定する処理を実施する。なお、位置形状特定部6は位置形状特定手段を構成している。   The position shape specifying unit 6 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and analyzes the point cloud data and locus data recorded in the three-dimensional data recording unit 4. , Extract outdoor structures (for example, signs on the road, advertising billboards, outdoor advertisements protruding from the walls of buildings, fixed objects such as huts) from outdoor features, and the outdoor structures Identify the installed 3D position (for example, the center position of the outdoor structure, roadway height, sidewalk height) and the 3D shape of the outdoor structure (for example, the width, depth, top height, The process of specifying the lower edge height is performed. Note that the position shape specifying unit 6 constitutes a position shape specifying means.

位置・形状データ記録部7は位置形状特定部6により特定された三次元位置及び三次元形状を示す位置・形状データを記録する例えばハードディスクなどの記録媒体である。
色彩特定部8は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、位置・形状データ記録部7に記録されている位置・形状データと撮影画像データ記録部5に記録されている撮影画像データを照合して、その撮影画像データが示す撮影画像に屋外構造物が映っている領域を特定し、その領域の画素値から屋外構造物の色彩を特定する処理を実施する。なお、色彩特定部8は色彩特定手段を構成している。
The position / shape data recording unit 7 is a recording medium such as a hard disk for recording the 3D position specified by the position / shape specifying unit 6 and the position / shape data indicating the 3D shape.
The color specifying unit 8 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer, and the position / shape data recorded in the position / shape data recording unit 7 and the photographed image data recording unit. 5 is a process of collating the captured image data recorded in 5 to identify an area in which the outdoor structure appears in the captured image indicated by the captured image data, and identifying the color of the outdoor structure from the pixel value of the area To implement. The color specifying unit 8 constitutes a color specifying unit.

色彩データ記録部9は色彩特定部8により特定された屋外構造物の色彩を示す色彩データを記録する例えばハードディスクなどの記録媒体である。
地図データDB10は屋外の地物に関する情報(例えば、道路・家屋などの地物の位置を示す位置情報と、地物の名称などを示す属性情報とを併せ持っている情報)を保持している地図データが記録されているデータベースである。なお、地図データDB10は地図記録手段を構成している。
The color data recording unit 9 is a recording medium such as a hard disk that records color data indicating the color of the outdoor structure specified by the color specifying unit 8.
The map data DB 10 holds information relating to outdoor features (for example, information having both position information indicating the position of a feature such as a road and a house and attribute information indicating the name of the feature). It is a database where data is recorded. The map data DB 10 constitutes a map recording unit.

地図マッチング部11は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、位置・形状データ記録部7に記録されている位置・形状データと色彩データ記録部9に記録されている色彩データを地図データDB10に記録されている地図データに関連付ける処理を実施する。なお、地図マッチング部11は地図マッチング手段を構成している。
屋外構造物計測データ記録部12は地図マッチング部11により地図データに関連付けられた位置・形状データ及び色彩データなどからなる屋外構造物計測データを記録する例えばハードディスクなどの記録媒体である。
The map matching unit 11 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and the position / shape data and color data recording unit 9 recorded in the position / shape data recording unit 7. A process of associating the color data recorded in the map data with the map data recorded in the map data DB 10 is performed. The map matching unit 11 constitutes a map matching unit.
The outdoor structure measurement data recording unit 12 is a recording medium such as a hard disk that records outdoor structure measurement data including position / shape data and color data associated with map data by the map matching unit 11.

図2はこの発明の実施の形態1による屋外構造物計測装置の位置形状特定部6を示す構成図である。
図2において、直進区間分割部21は三次元データ記録部4に記録されている軌跡データを複数の直進区間(設定した線分とのずれが所定の閾値より距離が短い区間)に分割し、各直進区間の軌跡データを出力する処理を実施する。
車道高計測部22は三次元データ記録部4に記録されている点群データのうち、処理対象の直進区間内の点群データ(直進区間分割部21により分割された各直進区間の軌跡データのうち、処理対象の直進区間内の軌跡データに対応する点群データ)を参照して、当該直進区間において、標高が最小の位置(車両が通行する道路)を特定し、最小の位置の標高を車道高aとして出力する処理を実施する。
FIG. 2 is a block diagram showing the position shape specifying unit 6 of the outdoor structure measuring apparatus according to Embodiment 1 of the present invention.
In FIG. 2, the straight section dividing unit 21 divides the trajectory data recorded in the three-dimensional data recording unit 4 into a plurality of straight sections (sections where the deviation from the set line segment is shorter than a predetermined threshold), A process of outputting trajectory data of each straight section is performed.
The road height measuring unit 22 includes point cloud data in the straight section to be processed (point data of trajectory data of each straight section divided by the straight section dividing unit 21) among the point group data recorded in the three-dimensional data recording unit 4. (Point cloud data corresponding to the trajectory data in the straight section to be processed), the position where the altitude is minimum (the road on which the vehicle passes) in the straight section is specified, and the altitude at the minimum position is determined. The process of outputting as the roadway height a is performed.

歩道高計測部23は三次元データ記録部4に記録されている点群データのうち、処理対象の直進区間内の点群データを参照して、車両が通行する道路以外の部分で、標高が最小の位置(人間が通行する歩道)を特定し、最小の位置の標高を歩道高bとして出力する処理を実施する。
幅・奥行き計測部24は三次元データ記録部4に記録されている点群データのうち、処理対象の直進区間内の点群データを参照して、他の点との距離が微小距離(Δx,Δy)未満の点の集合を探索し(以下、点の集合を「ブロック」と称する)、少なくとも1以上のブロックの中で、屋外構造物を構成しているブロックの幅(道路幅と同じ方向(軌跡データの水平の法線方向)の長さ)を屋外構造物の幅cとして特定し、また、そのブロックの奥行き(軌跡データの直進方向の長さ)を屋外構造物の奥行きdとして特定する処理を実施する。
The sidewalk height measuring unit 23 refers to the point cloud data in the straight section to be processed among the point cloud data recorded in the three-dimensional data recording unit 4, and the altitude is at a portion other than the road on which the vehicle passes. The minimum position (the sidewalk through which humans pass) is specified, and the process of outputting the altitude at the minimum position as the sidewalk height b is performed.
The width / depth measurement unit 24 refers to the point cloud data in the straight section to be processed among the point cloud data recorded in the three-dimensional data recording unit 4, and the distance to other points is a minute distance (Δx , Δy) to search for a set of points (hereinafter, the set of points is referred to as a “block”), and among at least one block, the width of the block constituting the outdoor structure (same as the road width) Direction (the length of the horizontal normal direction of the trajectory data)) is specified as the width c of the outdoor structure, and the depth of the block (the length in the straight line direction of the trajectory data) is defined as the depth d of the outdoor structure. Perform the specified process.

上下端計測部25は幅・奥行き計測部24により探索された屋外構造物を構成しているブロックの標高の最大値を特定し、標高の最大値から車道高計測部22により特定された車道高aを差し引いて屋外構造物の上端高eを算出し、また、そのブロックの標高の最小値を特定し、標高の最小値から車道高aを差し引いて屋外構造物の下端高fを算出する処理を実施する。
中心計測部26は幅・奥行き計測部24により探索された屋外構造物を構成しているブロックの中心を屋外構造物の中心位置(cx,cy,cz)として特定する処理を実施する。
The upper and lower end measuring unit 25 specifies the maximum value of the altitude of the block constituting the outdoor structure searched by the width / depth measuring unit 24, and the roadway height specified by the roadway height measuring unit 22 from the maximum value of the altitude. The process of calculating the upper end height e of the outdoor structure by subtracting a, specifying the minimum elevation value of the block, and subtracting the roadway height a from the minimum elevation value to calculate the lower end height f of the outdoor structure To implement.
The center measuring unit 26 performs processing for specifying the center of the block constituting the outdoor structure searched by the width / depth measuring unit 24 as the center position (cx, cy, cz) of the outdoor structure.

図3はこの発明の実施の形態1による屋外構造物計測装置の色彩特定部8を示す構成図である。
図3において、画像選択部31は位置・形状データ記録部7により記録されている位置・形状データを参照して、撮影画像データ記録部5に記録されている撮影画像データが示す各撮影時刻の撮影画像において屋外構造物が映っている領域を特定し、各撮影時刻の撮影画像の中から、屋外構造物が映っている領域が最も大きい撮影画像を選択する処理を実施する。
構造物切り出し部32は画像選択部31により選択された撮影画像から屋外構造物が映っている領域を切り出す処理を実施する。
FIG. 3 is a block diagram showing the color specifying unit 8 of the outdoor structure measuring apparatus according to Embodiment 1 of the present invention.
In FIG. 3, the image selection unit 31 refers to the position / shape data recorded by the position / shape data recording unit 7, and at each photographing time indicated by the photographed image data recorded in the photographed image data recording unit 5. A region in which the outdoor structure is reflected in the captured image is specified, and a process of selecting a captured image in which the region in which the outdoor structure is reflected is the largest from the captured images at the respective shooting times.
The structure cutout unit 32 performs a process of cutting out an area where the outdoor structure is shown from the captured image selected by the image selection unit 31.

画素計測部33は構造物切り出し部32により切り出された領域を構成している画素の色相を特定し、当該領域内の同一色相の小領域の色名を色彩データとして色彩データ記録部9に記録するとともに、同一色相の小領域毎に、当該小領域の左端u1、右端u2、上端v1及び下端v2の位置を特定し、当該小領域の左端u1、右端u2、上端v1及び下端v2の位置を色彩データとして色彩データ記録部9に記録する処理を実施する。   The pixel measuring unit 33 identifies the hue of the pixels constituting the area cut out by the structure cutout unit 32, and records the color name of the small area of the same hue in the area as color data in the color data recording unit 9. In addition, for each small region of the same hue, the positions of the left end u1, the right end u2, the upper end v1, and the lower end v2 of the small region are specified, and the positions of the left end u1, the right end u2, the upper end v1, and the lower end v2 of the small region are determined. Processing for recording the color data in the color data recording unit 9 is performed.

図1では、屋外構造物計測装置の構成要素である三次元データ取得装置2、撮影画像データ取得装置3、位置形状特定部6、色彩特定部8及び地図マッチング部11のそれぞれが専用のハードウェアで構成されているものを想定しているが、屋外構造物計測装置がコンピュータで構成されている場合、三次元データ取得装置2、撮影画像データ取得装置3、位置形状特定部6、色彩特定部8及び地図マッチング部11の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。
図4はこの発明の実施の形態1による屋外構造物計測装置の処理内容を示すフローチャートである。
In FIG. 1, each of the three-dimensional data acquisition device 2, the captured image data acquisition device 3, the position shape specification unit 6, the color specification unit 8, and the map matching unit 11, which are components of the outdoor structure measurement device, is dedicated hardware. However, when the outdoor structure measuring device is configured by a computer, the three-dimensional data acquisition device 2, the captured image data acquisition device 3, the position shape specification unit 6, and the color specification unit 8 and the processing contents of the map matching unit 11 may be stored in the memory of a computer, and the CPU of the computer may execute the program stored in the memory.
FIG. 4 is a flowchart showing the processing contents of the outdoor structure measuring apparatus according to Embodiment 1 of the present invention.

次に動作について説明する。
データ取得車両1は、三次元データ取得装置2と撮影画像データ取得装置3が、例えば、屋根等に設置されており、計測対象の屋外構造物が設置されている付近の道路を走行する。
図5はデータ取得車両1が道路を走行しているとき、三次元データ取得装置2が点群データを取得し、撮影画像データ取得装置3が撮影画像データを取得している様子を示す説明図である。
Next, the operation will be described.
The data acquisition vehicle 1 travels in the vicinity of a road where the three-dimensional data acquisition device 2 and the captured image data acquisition device 3 are installed on, for example, a roof and the outdoor structure to be measured is installed.
FIG. 5 is an explanatory diagram illustrating a state in which the three-dimensional data acquisition device 2 acquires point cloud data and the captured image data acquisition device 3 acquires captured image data when the data acquisition vehicle 1 is traveling on a road. It is.

データ取得車両1に設置されている三次元データ取得装置2は、図5(a)に示すように、データ取得車両1が走行しているとき、例えば、レーザレンジファインダを用いて、屋外の地物(屋外の地物は、地上に存在している全ての物体であり、計測対象の屋外構造物が含まれる)を走査する。
即ち、三次元データ取得装置2は、レーザレンジファインダを用いて、レーザ光を一定時間間隔で扇状に照射し、屋外の地物の表面に反射したレーザ光を受信することで、その地物の表面における走査点(レーザ光が照射された点)の三次元位置(x1,y1,z1)を取得する(ステップST1)。三次元位置のx1は走査点の経度、y1は走査点の緯度、z1は走査点の標高に相当する。
ただし、レーザ光が到達する距離には限界(例えば、15m程度)があるので、データ取得車両1に設置されている三次元データ取得装置2から限界距離以上離れている位置にある道路や地物の三次元位置(x1,y1,z1)は取得されない。
As shown in FIG. 5A, the three-dimensional data acquisition device 2 installed in the data acquisition vehicle 1 uses, for example, a laser range finder when the data acquisition vehicle 1 is traveling. An object (outdoor features are all objects existing on the ground, including outdoor structures to be measured).
That is, the three-dimensional data acquisition device 2 uses a laser range finder to irradiate the laser beam in a fan shape at regular time intervals and receive the laser beam reflected on the surface of the outdoor feature, thereby A three-dimensional position (x1, y1, z1) of a scanning point (a point irradiated with laser light) on the surface is acquired (step ST1). The three-dimensional position x1 corresponds to the longitude of the scanning point, y1 corresponds to the latitude of the scanning point, and z1 corresponds to the elevation of the scanning point.
However, since there is a limit (for example, about 15 m) in the distance that the laser beam reaches, roads and features located at a position that is more than the limit distance from the three-dimensional data acquisition device 2 installed in the data acquisition vehicle 1 The three-dimensional position (x1, y1, z1) is not acquired.

また、三次元データ取得装置2は、搭載しているGPS受信機により受信されたGPSデータに含まれている世界協定時刻であるUTC(Coordinated Universal Time)時刻を監視して、レーザレンジファインダからレーザ光が発射された時刻を走査時刻t1として取得する(ステップST1)。
三次元データ取得装置2は、地物の表面における走査点の三次元位置(x1,y1,z1)と走査時刻t1を取得すると、図5(b)に示すように、その走査点の三次元位置(x1,y1,z1)と走査時刻t1を点群データとして、三次元データ記録部4に記録する。
Further, the three-dimensional data acquisition device 2 monitors UTC (Coordinated Universal Time) time, which is a universally coordinated time included in GPS data received by an on-board GPS receiver, from the laser range finder. The time when the light is emitted is acquired as the scanning time t1 (step ST1).
When the three-dimensional data acquisition device 2 acquires the three-dimensional position (x1, y1, z1) of the scanning point on the surface of the feature and the scanning time t1, as shown in FIG. 5B, the three-dimensional data of the scanning point is obtained. The position (x1, y1, z1) and the scanning time t1 are recorded in the three-dimensional data recording unit 4 as point cloud data.

さらに、三次元データ取得装置2は、GPS受信機により受信されたGPSデータからデータ取得車両1の走行位置(x2,y2,z2)を算出する(ステップST2)。
ここでは、GPS受信機により受信されたGPSデータからデータ取得車両1の走行位置(x2,y2,z2)を算出することを想定しているが、三次元データ取得装置2がGPS受信機の他に、慣性航法装置や積算走行距離計などを搭載していれば、走行位置(x2,y2,z2)を更に精密に算出することができる。
また、三次元データ取得装置2は、GPS受信機により受信されたGPSデータに含まれているUTC時刻を監視して、その走行位置(x2,y2,z2)の算出時刻をデータ取得車両1の走行時刻t2として取得する(ステップST2)。
三次元データ取得装置2は、データ取得車両1の走行位置(x2,y2,z2)と走行時刻t2を取得すると、図5(b)に示すように、その走行位置(x2,y2,z2)と走行時刻t2を軌跡データとして、三次元データ記録部4に記録する。
Furthermore, the three-dimensional data acquisition device 2 calculates the travel position (x2, y2, z2) of the data acquisition vehicle 1 from the GPS data received by the GPS receiver (step ST2).
Here, it is assumed that the travel position (x2, y2, z2) of the data acquisition vehicle 1 is calculated from the GPS data received by the GPS receiver, but the three-dimensional data acquisition device 2 is not limited to the GPS receiver. In addition, if an inertial navigation device, an integrated odometer, or the like is installed, the traveling position (x2, y2, z2) can be calculated more precisely.
The three-dimensional data acquisition device 2 monitors the UTC time included in the GPS data received by the GPS receiver, and calculates the calculation time of the travel position (x2, y2, z2) of the data acquisition vehicle 1. Obtained as travel time t2 (step ST2).
When the three-dimensional data acquisition device 2 acquires the travel position (x2, y2, z2) and the travel time t2 of the data acquisition vehicle 1, as shown in FIG. 5B, the travel position (x2, y2, z2). And the traveling time t2 are recorded in the three-dimensional data recording unit 4 as trajectory data.

データ取得車両1に設置されている撮影画像データ取得装置3は、図5(a)に示すように、データ取得車両1が走行しているとき、例えば、カメラを用いて、屋外の地物を撮影する(ステップST3)。
データ取得車両1が道路正面を向いている状態で、カメラが撮影を行うので、カメラの撮影画像には、道路や、道路周辺の地物(図5(a)の例では、建物の壁と屋外構造物)が映りこんでいる。
撮影画像データ取得装置3は、データ取得車両1に固定されているので、カメラの撮像範囲は撮影位置から見て一定方角の一定範囲である。
なお、カメラの撮影画像を示す画像データは、動画のフレーム、あるいは、静止画の集合を示すデータであり、ファイル内でフレーム番号又は静止画番号で管理されるものとする。
As shown in FIG. 5A, the captured image data acquisition device 3 installed in the data acquisition vehicle 1 uses, for example, a camera to display outdoor features when the data acquisition vehicle 1 is traveling. A picture is taken (step ST3).
Since the camera captures images with the data acquisition vehicle 1 facing the front of the road, the image captured by the camera includes roads and features around the road (in the example of FIG. Outdoor structure) is reflected.
Since the captured image data acquisition device 3 is fixed to the data acquisition vehicle 1, the imaging range of the camera is a fixed range in a fixed direction when viewed from the shooting position.
Note that the image data indicating the captured image of the camera is data indicating a frame of a moving image or a set of still images, and is managed by a frame number or a still image number in the file.

また、撮影画像データ取得装置3は、自己が搭載しているGPS受信機(自己がGPS受信機を搭載していない場合、三次元データ取得装置2に搭載されているGPS受信機)により受信されたGPSデータを監視して、カメラの撮影時刻t3を取得するとともに、そのGPSデータからカメラの撮影時刻t3におけるデータ取得車両1の位置を地物の撮影位置(x3,y3,z3)として算出する(ステップST4)。
撮影画像データ取得装置3は、地物の撮影位置(x3,y3,z3)と撮影時刻t3を取得すると、図5(c)に示すように、地物の撮影位置(x3,y3,z3)と撮影時刻t3を撮影画像データとして撮影画像データ記録部5に記録するとともに、カメラの撮影画像を示す画像データを撮影画像データ記録部5に記録する。
また、撮影画像データ取得装置3は、図5(c)に示すように、カメラの撮影画像を示す画像データのファイル内のフレーム番号又は静止画番号をポインタデータとして、撮影画像データに付加する。
なお、地物の撮影位置(x3,y3,z3)は、軌跡データにおける走行位置(x2,y2,z2)と共通の座標系である。
The captured image data acquisition device 3 is received by a GPS receiver mounted on itself (or a GPS receiver mounted on the three-dimensional data acquisition device 2 when the GPS receiver is not mounted). The GPS data is monitored to acquire the camera photographing time t3, and the position of the data acquisition vehicle 1 at the camera photographing time t3 is calculated from the GPS data as the feature photographing position (x3, y3, z3). (Step ST4).
When the captured image data acquisition device 3 acquires the shooting position (x3, y3, z3) of the feature and the shooting time t3, as shown in FIG. 5C, the shooting position (x3, y3, z3) of the feature. And the photographing time t3 are recorded in the photographed image data recording unit 5 as photographed image data, and image data indicating the photographed image of the camera is recorded in the photographed image data recording unit 5.
Further, as shown in FIG. 5C, the captured image data acquisition device 3 adds the frame number or still image number in the image data file indicating the captured image of the camera as pointer data to the captured image data.
Note that the photographing position (x3, y3, z3) of the feature is the same coordinate system as the traveling position (x2, y2, z2) in the trajectory data.

位置形状特定部6は、三次元データ取得装置2が三次元データ(点群データ、軌跡データ)を三次元データ記録部4に記録すると、三次元データ記録部4に記録されている三次元データを解析して、屋外の地物から屋外構造物を抽出し、その屋外構造物が設置されている三次元位置(例えば、屋外構造物の中心位置、車道高、歩道高)を特定するとともに、その屋外構造物の三次元形状(例えば、屋外構造物の幅、奥行き、上端高、下端高)を特定する(ステップST5)。
位置形状特定部6により特定された三次元位置及び三次元形状を示す位置・形状データは、位置・形状データ記録部7に記録される。
以下、位置形状特定部6の処理内容を具体的に説明する。
When the 3D data acquisition device 2 records 3D data (point cloud data, trajectory data) in the 3D data recording unit 4, the position shape specifying unit 6 stores the 3D data recorded in the 3D data recording unit 4. To extract the outdoor structure from the outdoor features, identify the three-dimensional position where the outdoor structure is installed (for example, the center position of the outdoor structure, roadway height, sidewalk height) The three-dimensional shape of the outdoor structure (for example, the width, depth, upper end height, and lower end height of the outdoor structure) is specified (step ST5).
The three-dimensional position specified by the position / shape specifying unit 6 and the position / shape data indicating the three-dimensional shape are recorded in the position / shape data recording unit 7.
Hereinafter, the processing content of the position shape specific | specification part 6 is demonstrated concretely.

位置形状特定部6の直進区間分割部21は、三次元データ記録部4に記録されている軌跡データを複数の直進区間(設定した線分とのずれが所定の閾値より距離が短い区間)に分割し、各直進区間の軌跡データを車道高計測部22に出力する。
即ち、直進区間分割部21は、直進区間毎に、当該直進区間の始点の三次元位置(xs,ys,zs)と、その始点の走行時刻t2を始点時刻tsとして出力するとともに、当該直進区間の終点の三次元位置(xe,ye,ze)と、その終点の走行時刻t2を終点時刻teとして出力する。
The rectilinear section dividing unit 21 of the position shape specifying unit 6 converts the trajectory data recorded in the three-dimensional data recording unit 4 into a plurality of rectilinear sections (sections in which the deviation from the set line segment is shorter than a predetermined threshold). The track data of each straight section is output to the roadway height measuring unit 22.
That is, the straight section dividing unit 21 outputs, for each straight section, the three-dimensional position (xs, ys, zs) of the start point of the straight section and the travel time t2 of the start point as the start time ts, and the straight section The three-dimensional position (xe, ye, ze) of the end point and the travel time t2 of the end point are output as the end point time te.

直進区間の分割は、始点の三次元位置(xs,ys,zs)と終点の三次元位置(xe,ye,ze)を線分で結んだときに、その線分の距離が距離閾値Dth以下になるように軌跡データを分割する。
即ち、軌跡データ内の最初の始点に対して仮の終点時刻teproを設定して、仮の終点時刻teproに係る軌跡データ内の位置を終点に設定する。
そして、その始点と終点を結ぶ線分の距離Lを測定し、その線分の距離Lが距離閾値Dthを越えていなければ、仮の終点時刻teproを徐々に遅らせて、その線分の距離Lを延ばし、その線分の距離Lが距離閾値Dthに到達した時点で直進区間を終了させて、その終点を次の直進区間の始点に設定する。
The straight section is divided by connecting the three-dimensional position (xs, ys, zs) of the start point and the three-dimensional position (xe, ye, ze) of the end point with a line segment, and the distance of the line segment is equal to or less than the distance threshold Dth. The trajectory data is divided so that
That is, by setting the first tentative end point time te pro relative start point in the trajectory data, to set a position in the locus data according to the temporary end point time te pro end point.
Then, the distance L of the line segment connecting the start point and the end point is measured, and if the distance L of the line segment does not exceed the distance threshold value Dth, the temporary end point time te pro is gradually delayed to determine the distance of the line segment. L is extended, and when the distance L of the line reaches the distance threshold Dth, the straight section is terminated and the end point is set as the start point of the next straight section.

以下、同様の処理を繰り返して、軌跡データを複数の直進区間に分割する。
なお、位置形状特定部6を構成している車道高計測部22、歩道高計測部23、幅・奥行き計測部24、上下端計測部25及び中心計測部26は、直進区間分割部21により分割された直進区間単位で後述する処理を行う。
以下の説明において、道路の「右側」「左側」という概念を用いるが、これはデータ取得車両1が道路を走行する際の道路の右側・左側に相当し、データ上は、軌跡データにおける直進区間の始点から終点に伸ばした線分の方向を0度として、時計回りに0度から180度までが道路の「右側」、180度から360度までが道路の「左側」である。
Thereafter, the same processing is repeated to divide the trajectory data into a plurality of straight sections.
The roadway height measuring unit 22, the sidewalk height measuring unit 23, the width / depth measuring unit 24, the upper and lower end measuring unit 25, and the center measuring unit 26 constituting the position shape specifying unit 6 are divided by the straight section dividing unit 21. The processing described later is performed in units of the straight section that has been performed.
In the following description, the concept of “right side” and “left side” of the road is used, which corresponds to the right side and the left side of the road when the data acquisition vehicle 1 travels on the road. The direction of the line segment extending from the start point to the end point is 0 degrees, and the clockwise direction from 0 degrees to 180 degrees is the “right side” of the road, and 180 degrees to 360 degrees is the “left side” of the road.

位置形状特定部6の車道高計測部22は、直進区間分割部21により分割された直進区間毎に、三次元データ記録部4に記録されている点群データと軌跡データを入力する。
ここで、図6は車道高計測部22により計測される車道高を示す説明図である。
図6において、(A)は処理対象の直進区間内の点群データを上空から見た平面図であり、(B)は処理対象の直進区間の始点から終点の方向を見たときの点群データを示す立面図である。
立面図(B)において、左右の中央部分は、データ取得車両1が走行した道路(車道)であり、道路の右側及び左側に建物の壁や道路構造物が存在している。
The roadway height measuring unit 22 of the position shape specifying unit 6 inputs the point cloud data and the trajectory data recorded in the three-dimensional data recording unit 4 for each straight section divided by the straight section dividing unit 21.
Here, FIG. 6 is an explanatory diagram showing the roadway height measured by the roadway height measuring unit 22.
6A is a plan view of the point cloud data in the straight section to be processed as viewed from above, and FIG. 6B is a point cloud when the direction from the start point to the end point of the straight section to be processed is viewed. It is an elevation view showing data.
In the elevation view (B), the left and right central portions are roads (roadways) on which the data acquisition vehicle 1 travels, and there are building walls and road structures on the right and left sides of the road.

車道高計測部22は、直進区間分割部21により分割された直進区間毎に、点群データと軌跡データを入力すると、処理対象の直進区間内の点群データ(x1,y1,z1)を参照して、標高z1が最小の位置を特定する。
車道高計測部22は、処理対象の直進区間において、標高z1が最小の位置はデータ取得車両1が走行した道路であると認定し、道路の標高z1を車道高aとして出力する。
ただし、車道高計測部22は、道路が坂道である場合、データ取得車両1の走行に伴って車道高aが変化するので、例えば、軌跡データが1m進む毎に、車道高aを再計測するようにして、計測誤差を軽減する。
When the road height measuring unit 22 inputs point cloud data and trajectory data for each straight section divided by the straight section dividing unit 21, the road height measuring unit 22 refers to the point cloud data (x1, y1, z1) in the straight section to be processed. Then, the position where the altitude z1 is minimum is specified.
The roadway height measuring unit 22 recognizes that the position where the altitude z1 is minimum in the straight section to be processed is the road on which the data acquisition vehicle 1 has traveled, and outputs the road altitude z1 as the roadway height a.
However, if the road is a slope, the road height a changes as the data acquisition vehicle 1 travels. Therefore, for example, the road height a remeasures the road height a every time the trajectory data advances by 1 m. In this way, measurement errors are reduced.

位置形状特定部6の歩道高計測部23は、直進区間分割部21により分割された直進区間毎に、三次元データ記録部4に記録されている点群データと軌跡データを入力するとともに、車道高計測部22から出力された車道高aを入力する。
ここで、図7は歩道高計測部23により計測される歩道高を示す説明図である。
図7において、(A)は処理対象の直進区間内の点群データを上空から見た平面図であり、(B)は処理対象の直進区間の始点から終点の方向を見たときの点群データを示す立面図である。
立面図(B)において、左右の中央部分は、データ取得車両1が走行した道路(車道)であり、道路の右側及び左側に建物の壁や道路構造物が存在し、歩道高計測部23では、後述するように、車道より標高が高い歩道の標高を計測する。
The sidewalk height measuring unit 23 of the position shape specifying unit 6 inputs the point cloud data and the trajectory data recorded in the three-dimensional data recording unit 4 for each of the straight sections divided by the straight section dividing unit 21, and the roadway The roadway height a output from the height measuring unit 22 is input.
Here, FIG. 7 is an explanatory diagram showing the sidewalk height measured by the sidewalk height measuring unit 23.
7A is a plan view of the point cloud data in the straight section to be processed as viewed from above, and FIG. 7B is a point cloud when the direction from the start point to the end point of the straight section to be processed is viewed. It is an elevation view showing data.
In the elevation view (B), the left and right central portions are roads (roadways) on which the data acquisition vehicle 1 has traveled, and there are building walls and road structures on the right and left sides of the road. Then, as will be described later, the altitude of the sidewalk that is higher than the roadway is measured.

歩道高計測部23は、直進区間分割部21により分割された直進区間毎に、点群データと軌跡データを入力すると、車道高計測部22から出力された車道高aより所定値Mだけ高い標高を標高閾値Ath(例えば、Ath=a+M)に設定する。
歩道高計測部23は、標高閾値Athを設定すると、処理対象の直進区間内の点群データの標高z1と標高閾値Athを比較して、処理対象の直進区間内の点群データを分離する。
When the sidewalk height measuring unit 23 inputs the point cloud data and the trajectory data for each of the straight sections divided by the straight section dividing unit 21, the altitude higher than the road height a output from the road height measuring unit 22 by a predetermined value M. Is set to an altitude threshold Ath (for example, Ath = a + M).
When the altitude threshold value Ath is set, the sidewalk height measuring unit 23 compares the altitude z1 of the point cloud data in the straight section to be processed with the altitude threshold Ath, and separates the point cloud data in the straight section to be processed.

即ち、歩道高計測部23は、標高z1が標高閾値Athより高い直進区間内の点群データと、標高z1が標高閾値Athより低い直進区間内の点群データとに分離する。
ただし、所定値Mを微小な値(例えば、10mm)に設定して、直進区間内の点群データを分離すると、道路そのものの凹凸のために、標高z1が標高閾値Athより高い点群データの中に、車道部分の点群データが含まれてしまうため、道路の凹凸より大きく、かつ、車道と歩道の境界にある縁石等の高さより低い値を所定値M(例えば、20mm程度)に設定する。
このように、標高z1が標高閾値Athより高い直進区間内の点群データと、標高z1が標高閾値Athより低い直進区間内の点群データとに分離すると、図7に示すように、標高z1が標高閾値Athより高い直進区間内の点群データが左右に分離される。
That is, the sidewalk height measurement unit 23 separates the point cloud data in the straight section where the altitude z1 is higher than the altitude threshold Ath and the point group data in the straight section where the altitude z1 is lower than the altitude threshold Ath.
However, when the predetermined value M is set to a minute value (for example, 10 mm) and the point cloud data in the straight section is separated, the elevation of the point cloud data with the elevation z1 higher than the elevation threshold Ath is due to the unevenness of the road itself. Since the point cloud data of the roadway part is included, a value larger than the unevenness of the road and lower than the height of the curb at the boundary between the roadway and the sidewalk is set to a predetermined value M (for example, about 20 mm) To do.
As described above, when the point cloud data in the straight section where the altitude z1 is higher than the altitude threshold Ath and the point cloud data in the straight section where the altitude z1 is lower than the altitude threshold Ath are separated, as shown in FIG. Point cloud data in a straight-ahead section where is higher than the altitude threshold Ath is separated into left and right.

歩道高計測部23は、標高z1が標高閾値Athより高い直進区間内の点群データと、標高z1が標高閾値Athより低い直進区間内の点群データとに分離して、標高z1が標高閾値Athより低い直進区間内の点群データが一定幅(例えば、2m)以上であれば、その一定幅以上の部分は車道であると判断する。
歩道高計測部23は、車道の部分を認識すると、その車道の両側の部分で(標高z1が標高閾値Athより高い直進区間内の点群データ)、標高z1が最小の位置を特定し、最小の位置の標高z1を歩道高bとして出力する。
なお、車道と歩道が分離されていない道路では、標高z1が標高閾値Athより低い直進区間内の点群データが一定幅(例えば、2m)以上になることは稀であるため、歩道高bが車道高aと一致しているものと判断し、車道高aと等しい歩道高bを出力する。
The sidewalk height measuring unit 23 separates the point group data in the straight section where the altitude z1 is higher than the altitude threshold Ath and the point group data in the straight section where the altitude z1 is lower than the altitude threshold Ath, and the altitude z1 is the altitude threshold. If the point cloud data in the straight-ahead section lower than Ath is a certain width (for example, 2 m) or more, it is determined that the portion having the certain width or more is a road.
When the sidewalk height measuring unit 23 recognizes the portion of the roadway, the sidewalk height measuring unit 23 identifies the position where the altitude z1 is the smallest in the portions on both sides of the roadway (point cloud data in the straight section where the altitude z1 is higher than the altitude threshold Ath) Is output as a sidewalk height b.
On roads where the roadway and the sidewalk are not separated, it is rare that the point cloud data in the straight section where the altitude z1 is lower than the altitude threshold Ath exceeds a certain width (for example, 2 m). It is determined that the road height a matches the road height a, and a sidewalk height b equal to the road height a is output.

位置形状特定部6の幅・奥行き計測部24は、直進区間分割部21により分割された直進区間毎に、三次元データ記録部4に記録されている点群データと軌跡データを入力するとともに、歩道高計測部23から出力された歩道高bを入力する。
図8は幅・奥行き計測部24により計測される屋外構造物の幅及び奥行きを示す説明図である。
図8において、(A)は処理対象の直進区間内の点群データを上空から見た平面図であり、(B)は処理対象の直進区間の始点から終点の方向を見たときの点群データを示す立面図である。
幅・奥行き計測部24により計測される屋外構造物の幅cは、屋外構造物の道路幅と同じ向き(軌跡データの水平の法線方向)の最大延長の長さである。
また、幅・奥行き計測部24により計測される屋外構造物の奥行きdは、屋外構造物の道路延長と同じ向き(軌跡データの直進方向と同じ向き)の最大延長の長さである。
ここでは、屋外構造物が建物の壁に取り付けられていて、その壁から道路方向に突き出ているものとして説明する。
The width / depth measurement unit 24 of the position shape specifying unit 6 inputs point cloud data and trajectory data recorded in the three-dimensional data recording unit 4 for each of the straight sections divided by the straight section dividing unit 21. The sidewalk height b output from the sidewalk height measuring unit 23 is input.
FIG. 8 is an explanatory diagram showing the width and depth of an outdoor structure measured by the width / depth measurement unit 24.
8A is a plan view of the point cloud data in the straight section to be processed as viewed from above, and FIG. 8B is a point cloud when the direction from the start point to the end point of the straight section to be processed is viewed. It is an elevation view showing data.
The width c of the outdoor structure measured by the width / depth measurement unit 24 is the maximum extension length in the same direction as the road width of the outdoor structure (the horizontal normal direction of the trajectory data).
The depth d of the outdoor structure measured by the width / depth measurement unit 24 is the length of the maximum extension in the same direction as the road extension of the outdoor structure (the same direction as the straight direction of the trajectory data).
Here, the description will be made assuming that the outdoor structure is attached to the wall of the building and protrudes in the road direction from the wall.

幅・奥行き計測部24は、直進区間分割部21により分割された直進区間毎に、点群データと軌跡データを入力すると、歩道高計測部23から出力された歩道高bより十分高い高さ閾値Hth(例えば、1m)を設定する。
幅・奥行き計測部24は、高さ閾値Hthを設定すると、処理対象の直進区間内の点群データの標高z1と高さ閾値Hthを比較して、処理対象の直進区間内の点群データを上下に分離する。
以下、幅・奥行き計測部24では、軌跡データの右側と左側で別々に処理を実施して、屋外構造物の幅cと奥行きdを計測する。
The width / depth measurement unit 24, when the point cloud data and the trajectory data are input for each straight section divided by the straight section dividing unit 21, is a height threshold sufficiently higher than the sidewalk height b output from the sidewalk height measurement unit 23. Hth (for example, 1 m) is set.
When the height / threshold measurement unit 24 sets the height threshold Hth, the altitude z1 of the point cloud data in the straight section to be processed is compared with the height threshold Hth, and the point cloud data in the straight section to be processed is obtained. Separate up and down.
Hereinafter, the width / depth measurement unit 24 performs processing separately on the right side and the left side of the trajectory data to measure the width c and the depth d of the outdoor structure.

幅・奥行き計測部24は、処理対象の直進区間内の点群データを上下に分離すると、標高z1が高さ閾値Hthより高い直進区間内の点群データの標高z1を無視して、その点群データを座標(x1,y1)のデータの集まりとみなすようにする(平面図(A)にみられるような2次元上の点の集合とみなすようにする)。
そして、幅・奥行き計測部24は、2次元上の点の集合において、他の点との距離が微小距離(Δx,Δy)未満の点の集合を探索する。微小距離(Δx,Δy)未満の点の集合は、複数の点が密集している領域であり、以下、この集合を「ブロック」と称する。
なお、微小距離(Δx,Δy)としては、例えば、Δx=Δy=30mmが設定される。
When the width / depth measurement unit 24 separates the point cloud data in the straight section to be processed from the top and the bottom, it ignores the altitude z1 of the point cloud data in the straight section where the altitude z1 is higher than the height threshold Hth, and the point The group data is regarded as a collection of data of coordinates (x1, y1) (so as to be regarded as a set of two-dimensional points as seen in the plan view (A)).
Then, the width / depth measurement unit 24 searches for a set of points whose distance from other points is less than a minute distance (Δx, Δy) in the set of two-dimensional points. A set of points less than a minute distance (Δx, Δy) is an area where a plurality of points are densely packed. Hereinafter, this set is referred to as a “block”.
For example, Δx = Δy = 30 mm is set as the minute distance (Δx, Δy).

幅・奥行き計測部24は、少なくとも1以上のブロックを探索すると、ブロック毎に、当該ブロック内の点群データ(x1,y1)と軌跡データが示すデータ取得車両1の走行位置(x2,y2)を比較して(同一時刻の点群データ(x1,y1)と走行位置(x2,y2)を比較する)、データ取得車両1の走行位置(x2,y2)から水平方向(右側、左側)に存在しているブロックまでの距離を一定間隔毎に計測し、その距離を壁面推定値wとする。
例えば、走行位置(x2,y2)が10mm進む毎に、同一時刻の点群データ(x1,y1)と走行位置(x2,y2)を比較して、データ取得車両1の走行位置(x2,y2)からブロックまでの距離を計測し、その距離を壁面推定値wとする。
幅・奥行き計測部24は、一定間隔毎に壁面推定値wを計測すると、その壁面推定値wと壁面閾値Wth(例えば、2m)を比較して、その壁面推定値wが壁面閾値Wthを越えている計測点(壁面推定値w>壁面閾値Wth)を特定する。
When the width / depth measurement unit 24 searches for at least one block, for each block, the point cloud data (x1, y1) in the block and the travel position (x2, y2) of the data acquisition vehicle 1 indicated by the trajectory data (The point cloud data (x1, y1) and the travel position (x2, y2) at the same time are compared) in the horizontal direction (right side, left side) from the travel position (x2, y2) of the data acquisition vehicle 1 The distance to the existing block is measured at regular intervals, and the distance is defined as the estimated wall value w.
For example, every time the travel position (x2, y2) advances by 10 mm, the point position data (x1, y1) at the same time and the travel position (x2, y2) are compared, and the travel position (x2, y2) of the data acquisition vehicle 1 is compared. ) To the block, and the distance is set as the estimated wall value w.
When the width / depth measurement unit 24 measures the estimated wall surface value w at regular intervals, the estimated wall surface value w and the wall surface threshold value Wth (for example, 2 m) are compared, and the estimated wall surface value w exceeds the wall surface threshold value Wth. Measurement points (wall surface estimated value w> wall surface threshold Wth) are specified.

幅・奥行き計測部24は、直線区間の始点側から見て、壁面推定値wが壁面閾値Wthを越えている計測点が連続している区間が壁面延長閾値WEth(例えば、1m)を超えていれば(壁面推定値wが壁面閾値Wthを越えている計測点が連続している区間>壁面延長閾値WEth)、当該ブロックが「壁」を構成しているものと判断する。
幅・奥行き計測部24は、「壁」を構成していると判断したブロックにおいて、壁面閾値Wthを越えている直前の計測点の壁面推定値wより、構造物幅閾値SWth(例えば、0.5m)以上小さい壁面推定値wの計測点が存在する場合、その壁には屋外構造物が取り付けられていると判断する。
The width / depth measurement unit 24 has a section in which measurement points where the wall surface estimated value w exceeds the wall surface threshold value Wth continue to exceed the wall surface extension threshold WEth (for example, 1 m) when viewed from the start point side of the straight section. If (the section where the measurement points where the wall surface estimated value w exceeds the wall surface threshold value Wth is continuous> wall surface extension threshold WEth), it is determined that the block constitutes a “wall”.
The width / depth measurement unit 24 determines the structure width threshold value SWth (for example, 0. 0) from the estimated wall surface value w of the measurement point immediately before exceeding the wall surface threshold value Wth in the block determined to constitute the “wall”. 5m) If there is a measurement point of the estimated wall value w that is smaller than 5 m, it is determined that an outdoor structure is attached to the wall.

幅・奥行き計測部24は、屋外構造物が壁に取り付けられていると判断すると、壁面閾値Wthを越えている壁面推定値wと、当該ブロック内の最小の壁面推定値wとの差分を算出し、その差分を屋外構造物の幅cとして出力する。
また、幅・奥行き計測部24は、壁面閾値Wthを越えている直前の計測点の壁面推定値wより、構造物幅閾値SWth以上小さい壁面推定値wの計測点を検出すると、構造物幅閾値SWth以上小さい壁面推定値wの計測点が連続している区間の長さ(軌跡データの直進方向の長さ)を屋外構造物の奥行きdとして出力する。
When the width / depth measurement unit 24 determines that the outdoor structure is attached to the wall, the width / depth measurement unit 24 calculates a difference between the wall surface estimated value w exceeding the wall surface threshold Wth and the minimum wall surface estimated value w in the block. Then, the difference is output as the width c of the outdoor structure.
Further, when the width / depth measurement unit 24 detects a measurement point of the wall surface estimated value w that is smaller than the wall surface estimated value w of the measurement point immediately before exceeding the wall surface threshold Wth by a structure width threshold SWth or less, the structure width threshold value The length of the section in which the measurement points of the wall surface estimated value w smaller than SWth are continuous (length in the straight direction of the trajectory data) is output as the depth d of the outdoor structure.

ここでは、屋外構造物が建物の壁に取り付けられているものについて示したが、屋外構造物が建物の壁から離れて設置されている場合、次のようにして、屋外構造物の幅cと奥行きdを特定する。
図9は幅・奥行き計測部24により計測される屋外構造物の幅及び奥行きを示す説明図である。
図9において、(A)は処理対象の直進区間内の点群データを上空から見た平面図である。
Here, the outdoor structure is shown attached to the wall of the building. However, when the outdoor structure is installed away from the building wall, the width c of the outdoor structure is set as follows. Depth d is specified.
FIG. 9 is an explanatory diagram showing the width and depth of an outdoor structure measured by the width / depth measurement unit 24.
In FIG. 9, (A) is a plan view of the point cloud data in the straight section to be processed as viewed from above.

屋外構造物が建物の壁から離れて設置されている場合、壁を構成しているブロックと、壁を構成していないブロックとが存在する。
このとき、軌跡データが示す走行位置(x2,y2)から見て、壁を構成しているブロックの手前に、壁を構成していないブロックが存在している場合、壁を構成していないブロックは屋外構造物を構成していると判断する。
幅・奥行き計測部24は、屋外構造物を構成しているブロックにおいて、軌跡データが示す走行位置(x2,y2)から最も離れている点の距離と、最も近い点の距離との差分を算出し、その差分を屋外構造物の幅cとして出力する。
また、幅・奥行き計測部24は、屋外構造物を構成しているブロックにおいて、軌跡データの直進方向の長さを屋外構造物の奥行きdとして出力する。
When the outdoor structure is installed away from the wall of the building, there are blocks that constitute the wall and blocks that do not constitute the wall.
At this time, when there is a block that does not constitute a wall before the block that constitutes the wall as viewed from the travel position (x2, y2) indicated by the trajectory data, the block that does not constitute the wall Is judged to constitute an outdoor structure.
The width / depth measurement unit 24 calculates the difference between the distance of the point farthest from the travel position (x2, y2) indicated by the trajectory data and the distance of the closest point in the block constituting the outdoor structure. Then, the difference is output as the width c of the outdoor structure.
In addition, the width / depth measuring unit 24 outputs the length of the trajectory data in the straight traveling direction as the depth d of the outdoor structure in the blocks constituting the outdoor structure.

位置形状特定部6の上下端計測部25は、直進区間分割部21により分割された直進区間毎に、三次元データ記録部4に記録されている点群データと軌跡データを入力するとともに、車道高計測部22から出力された車道高aを入力する。
ここで、図10は上下端計測部25により計測される上端高及び下端高を示す説明図である。
図10において、(A)は処理対象の直進区間内の点群データを上空から見た平面図であり、(B)は処理対象の直進区間の始点から終点の方向を見たときの点群データを示す立面図である。
上下端計測部25により計測される上端高eは、屋外構造物の最上部における車道からの比高(最上部の標高と車道高aとの差分)である。
上下端計測部25により計測される下端高fは、屋外構造物の最下部における車道からの比高(最下部の標高と車道高aとの差分)である。
ただし、屋外構造物の下にあり、幅が構造物最小幅(例えば、0.2m)未満の部分は支柱とみなして屋外構造物には含めないものとする。
The upper and lower end measuring unit 25 of the position shape specifying unit 6 inputs the point cloud data and the trajectory data recorded in the three-dimensional data recording unit 4 for each of the straight sections divided by the straight section dividing unit 21, and the roadway The roadway height a output from the height measuring unit 22 is input.
Here, FIG. 10 is an explanatory diagram showing the upper end height and the lower end height measured by the upper and lower end measuring unit 25.
10A is a plan view of the point cloud data in the straight section to be processed as viewed from above, and FIG. 10B is a point cloud when the direction from the start point to the end point of the straight section to be processed is viewed. It is an elevation view showing data.
The upper end height e measured by the upper and lower end measuring unit 25 is a specific height from the roadway at the top of the outdoor structure (difference between the altitude at the top and the roadway a).
The lower end height f measured by the upper and lower end measuring unit 25 is a specific height from the roadway at the lowest part of the outdoor structure (difference between the altitude at the lowest part and the roadway height a).
However, the portion below the outdoor structure and having a width less than the minimum structure width (for example, 0.2 m) is regarded as a column and is not included in the outdoor structure.

上下端計測部25は、幅・奥行き計測部24により探索された屋外構造物を構成しているブロック内の点群データの標高z1(標高z1が高さ閾値Hthより高い直進区間内の点群データの標高z1)を参照して、軌跡データが示す走行位置(x2,y2)に最も近い点から屋外構造物の幅cの範囲で、標高z1の最大値を特定する。
上下端計測部25は、標高z1の最大値を特定すると、標高z1の最大値から車道高aを差し引いて屋外構造物の上端高eを算出する。
The upper and lower end measuring unit 25 is the altitude z1 of the point cloud data in the block constituting the outdoor structure searched by the width / depth measuring unit 24 (the point cloud in the straight section where the altitude z1 is higher than the height threshold Hth). With reference to the altitude z1) of the data, the maximum value of the altitude z1 is specified in the range of the width c of the outdoor structure from the point closest to the traveling position (x2, y2) indicated by the trajectory data.
When the maximum value of the altitude z1 is specified, the upper and lower end measuring unit 25 calculates the upper end height e of the outdoor structure by subtracting the roadway height a from the maximum value of the altitude z1.

また、上下端計測部25は、幅・奥行き計測部24により探索された屋外構造物を構成しているブロック内の点群データの標高z1を参照して、軌跡データが示す走行位置(x2,y2)に最も近い点から屋外構造物の幅cの範囲で、標高z1の最小値を特定する。
上下端計測部25は、標高z1の最小値を特定すると、標高z1の最小値から車道高aを差し引いて屋外構造物の下端高fを算出する。
Further, the upper and lower end measuring unit 25 refers to the altitude z1 of the point cloud data in the block constituting the outdoor structure searched by the width / depth measuring unit 24, and the traveling position (x2, The minimum value of the altitude z1 is specified in the range of the width c of the outdoor structure from the point closest to y2).
When the minimum value of the altitude z1 is specified, the upper and lower end measuring unit 25 calculates the lower end height f of the outdoor structure by subtracting the roadway height a from the minimum value of the altitude z1.

ただし、標高z1の最小値が高さ閾値Hthと一致している場合、高さ閾値Hthよりも下の位置に屋外構造物が存在しているので、その高さ閾値Hthを小さくして、屋外構造物の下端高fを算出する。
なお、屋外構造物が建物の壁から離れて設置されている場合でも、同様にして、屋外構造物の上端高eと下端高fを算出する。ただし、下端高fについては、軌跡データが示す走行位置(x2,y2)に最も近い点から屋外構造物の幅cの範囲に、幅が構造物最小幅(例えば、0.2m)未満の部分がある場合、その部分を無視して計測する。
However, when the minimum value of the altitude z1 coincides with the height threshold value Hth, the outdoor structure exists at a position below the height threshold value Hth. The lower end height f of the structure is calculated.
Even when the outdoor structure is installed away from the building wall, the upper end height e and the lower end height f of the outdoor structure are calculated in the same manner. However, as for the lower end height f, a portion whose width is less than the minimum structure width (for example, 0.2 m) from the point closest to the travel position (x2, y2) indicated by the trajectory data to the range of the width c of the outdoor structure. If there is, measure by ignoring that part.

位置形状特定部6の中心計測部26は、幅・奥行き計測部24が屋外構造物を構成しているブロックを探索すると、屋外構造物を構成しているブロックの中心を屋外構造物の中心位置(cx,cy,cz)として特定する。
ここで、図11は中心計測部26により特定される屋外構造物の中心位置(cx,cy,cz)を示す説明図である。
図11において、cxは屋外構造物の中心位置の経度、cyは屋外構造物の中心位置の緯度、czは屋外構造物の中心位置の標高である。
When the center / measurement unit 26 of the position / shape specifying unit 6 searches for a block constituting the outdoor structure by the width / depth measurement unit 24, the center of the block constituting the outdoor structure is set to the center position of the outdoor structure. It is specified as (cx, cy, cz).
Here, FIG. 11 is an explanatory view showing the center position (cx, cy, cz) of the outdoor structure specified by the center measuring unit 26.
In FIG. 11, cx is the longitude of the center position of the outdoor structure, cy is the latitude of the center position of the outdoor structure, and cz is the elevation of the center position of the outdoor structure.

中心計測部26は、屋外構造物の車道高a、歩道高b、幅c、奥行きd、上端高e及び下端高さfが既に測定されているので、道路を進行方向に見た場合の幅cの中心位置(図11(a)を参照)と、道路を側面方向に見た場合の奥行きdの中心位置(図11(b)を参照)と、上端高eと下端高fの中点位置(図11(a)を参照)とから、屋外構造物の中心位置(cx,cy,cz)を算出する。   Since the center measurement unit 26 has already measured the roadway height a, the sidewalk height b, the width c, the depth d, the upper end height e, and the lower end height f of the outdoor structure, the width when the road is viewed in the traveling direction. The center position of c (see FIG. 11 (a)), the center position of the depth d (see FIG. 11 (b)) when the road is viewed in the lateral direction, and the midpoint between the upper end height e and the lower end height f From the position (see FIG. 11A), the center position (cx, cy, cz) of the outdoor structure is calculated.

色彩特定部8は、位置形状特定部6が位置・形状データを位置・形状データ記録部7に記録すると、位置・形状データ記録部7に記録されている位置・形状データと撮影画像データ記録部5に記録されている撮影画像データを照合して、その撮影画像データが示す撮影画像に屋外構造物が映っている領域を特定し、その領域の画素値から屋外構造物の色彩を特定する(ステップST6)。
色彩特定部8により特定された色彩を示す色彩データは、色彩データ記録部9に記録される。
以下、色彩特定部8の処理内容を具体的に説明する。
When the position / shape specifying unit 6 records the position / shape data in the position / shape data recording unit 7, the color specifying unit 8 records the position / shape data recorded in the position / shape data recording unit 7 and the captured image data recording unit. 5, the photographed image data recorded in the photographed image data is collated, an area where the outdoor structure is reflected in the photographed image indicated by the photographed image data is specified, and the color of the outdoor structure is specified from the pixel value of the area ( Step ST6).
Color data indicating the color specified by the color specifying unit 8 is recorded in the color data recording unit 9.
Hereinafter, the processing content of the color identification part 8 is demonstrated concretely.

色彩特定部8の画像選択部31は、位置・形状データ記録部7により記録されている位置・形状データを参照して、撮影画像データ記録部5に記録されている撮影画像データが示す各撮影時刻t3の撮影画像において屋外構造物が映っている領域を特定し、各撮影時刻t3の撮影画像の中から、屋外構造物が映っている領域が最も大きい撮影画像を選択する。
図12は画像選択部31により選択される撮影画像を示す説明図である。
以下、画像選択部31の処理内容を具体的に説明する。
The image selecting unit 31 of the color specifying unit 8 refers to the position / shape data recorded by the position / shape data recording unit 7, and displays each photographic image indicated by the photographic image data recorded in the photographic image data recording unit 5. An area in which the outdoor structure is reflected in the captured image at time t3 is specified, and a captured image having the largest area in which the outdoor structure is reflected is selected from the captured images at each imaging time t3.
FIG. 12 is an explanatory diagram showing a captured image selected by the image selection unit 31.
Hereinafter, the processing content of the image selection part 31 is demonstrated concretely.

撮影画像データが示すカメラの撮影画像は、2次元平面上の画面座標(u,v)上に画素があり、各画素が光の三原色の赤成分r、緑成分g、青成分bの画素値(r、g、b)を保持している。
また、カメラの撮影画像は、データ取得車両1が道路を走行しているときに順次撮影され、撮影時刻t3毎に撮影位置が決定されるものであるため、軌跡データから判別されるデータ取得車両1の走行方向と、カメラのレンズ特性とから、カメラの撮影範囲が決定される。
したがって、カメラの撮影画像の画面座標(u,v)を斉次三次元座標(u,v,1)で扱うことにより、三次元空間上の位置(x,y,z)を画面座標(u,v)に変換して表すことができる。
これにより、例えば、位置・形状データに含まれている屋外構造物の中心位置(cx,cy,cz)等を画面座標(u,v)で表すことで、屋外構造物が存在している撮影画像上の位置を把握することが可能である。
The captured image of the camera indicated by the captured image data has pixels on the screen coordinates (u, v) on a two-dimensional plane, and each pixel has pixel values of a red component r, a green component g, and a blue component b of the three primary colors of light. (R, g, b) is held.
Moreover, since the captured image of the camera is sequentially captured when the data acquisition vehicle 1 is traveling on the road and the imaging position is determined at each imaging time t3, the data acquisition vehicle determined from the trajectory data. The shooting range of the camera is determined from the traveling direction of 1 and the lens characteristics of the camera.
Therefore, by treating the screen coordinates (u, v) of the captured image of the camera with the homogeneous three-dimensional coordinates (u, v, 1), the position (x, y, z) in the three-dimensional space is represented by the screen coordinates (u , V).
Accordingly, for example, the center position (cx, cy, cz) or the like of the outdoor structure included in the position / shape data is represented by the screen coordinates (u, v), so that the outdoor structure exists. It is possible to grasp the position on the image.

そこで、画像選択部31は、カメラの撮影時刻t3毎に、当該撮影時刻t3に対応する直線区間で特定された屋外構造物の中心位置(cx,cy,cz)等を画面座標(u,v)で表すようにする。
画像選択部31は、画面座標(u,v)で表している屋外構造物を車両進行方向の正面に見たときに、屋外構造物の全てが撮影画像上に含まれているか否かを判定し、屋外構造物の全てが撮影画像上に含まれていれば、撮影画像を占めている屋外構造物の面積を算出する。
画像選択部31は、カメラの撮影時刻t3毎に(撮影時刻t3に対応する直線区間で特定された屋外構造物毎)に、撮影画像を占めている屋外構造物の面積を算出すると、それぞれの面積を比較して最も大きい面積を特定する。
画像選択部31は、複数の撮影時刻t3の撮影画像の中から、最も大きい面積の屋外構造物が写っている撮影画像を選択する。
Therefore, the image selection unit 31 displays the center position (cx, cy, cz) and the like of the outdoor structure specified in the straight section corresponding to the shooting time t3 for each camera shooting time t3. ).
The image selection unit 31 determines whether or not all of the outdoor structures are included in the captured image when the outdoor structure represented by the screen coordinates (u, v) is viewed in front of the vehicle traveling direction. If the entire outdoor structure is included in the captured image, the area of the outdoor structure that occupies the captured image is calculated.
When the image selection unit 31 calculates the area of the outdoor structure that occupies the photographed image for each photographing time t3 of the camera (for each outdoor structure specified by the straight section corresponding to the photographing time t3), Compare the areas to identify the largest area.
The image selection unit 31 selects a photographed image in which an outdoor structure having the largest area is shown from among a plurality of photographed images at the photographing time t3.

色彩特定部8の構造物切り出し部32は、画像選択部31が撮影画像を選択すると、その撮影画像(画面座標(u、v)の画像)から屋外構造物が映っている領域を切り出して、図13(b)に示すように、u軸上の全体左端及び全体右端の座標と、v軸上の全体上端及び全体下端の座標とを図13(a)に示す色彩データの全体欄における左端u1、右端u2、上端v1、下端v2に格納する。   When the image selection unit 31 selects a captured image, the structure cutout unit 32 of the color specifying unit 8 cuts out an area where the outdoor structure is reflected from the captured image (image of screen coordinates (u, v)). As shown in FIG. 13B, the coordinates of the entire left end and the entire right end on the u-axis and the coordinates of the entire upper end and the entire lower end on the v-axis are the left end in the entire column of color data shown in FIG. Stored in u1, right end u2, upper end v1, and lower end v2.

カメラの撮影画像を構成している画素は、上述したように、画素値(r、g、b)を保持しており、各成分が例えば6ビットの場合、262144色が区別されるが、日常生活で名前が付く色の数は少なく、例えば、マンセル色票で、色相、明度、彩度の組み合わせで100色程度となる。
そこで、画素計測部33には、事前に、色名と画素値(r、g、b)の対応データがセットされているものとする。
図13(a)の例では、色名として、色Pと色Qがセットされている。
As described above, the pixels constituting the photographed image of the camera hold pixel values (r, g, b). When each component is 6 bits, for example, 262144 colors are distinguished. The number of colors named in life is small. For example, in the Munsell color chart, the combination of hue, brightness, and saturation is about 100 colors.
Therefore, it is assumed that correspondence data of color names and pixel values (r, g, b) is set in the pixel measuring unit 33 in advance.
In the example of FIG. 13A, color P and color Q are set as color names.

色彩特定部8の画素計測部33は、構造物切り出し部32により屋外構造物が映っている領域が切り出されると、その領域を構成している画素の画素値(r、g、b)を特定し、その領域を構成している画素の画素値(r、g、b)と事前にセットされている対応データを参照して、各画素の色名を特定する。
そして、画素計測部33は、例えば、事前にセットされている色名が、色Pと色Qの2色であれば、屋外構造物が映っている領域において、例えば、色Pの画素が集まっている小領域と、色Qの画素が集まっている小領域とを特定する。
The pixel measuring unit 33 of the color specifying unit 8 specifies the pixel values (r, g, b) of the pixels constituting the region when the region clipping the outdoor structure is cut out by the structure cutting unit 32. Then, referring to the pixel values (r, g, b) of the pixels constituting the area and the corresponding data set in advance, the color name of each pixel is specified.
For example, if the color names set in advance are two colors, color P and color Q, the pixel measuring unit 33 collects, for example, pixels of the color P in the area where the outdoor structure is reflected. And the small area where the pixels of the color Q are gathered.

画素計測部33は、色Pの画素が集まっている小領域と、色Qの画素が集まっている小領域を特定すると、図13(b)に示すように、色Pの画素が集まっている小領域のu軸上の左端及び右端の座標と、v軸上の上端及び下端の座標とを図13(a)に示す色彩データの色P欄における左端u1、右端u2、上端v1、下端v2に格納する。
また、色Qの画素が集まっている小領域のu軸上の左端及び右端の座標と、v軸上の上端及び下端の座標とを図13(a)に示す色彩データの色Q欄における左端u1、右端u2、上端v1、下端v2に格納する。
画素計測部33は、屋外構造物が映っている領域に対する色Pの画素が集まっている小領域の面積比を算出して、その面積比を色彩データの色P欄における面積比に格納する。
また、画素計測部33は、屋外構造物が映っている領域に対する色Qの画素が集まっている小領域の面積比を算出して、その面積比を色彩データの色Q欄における面積比に格納する。
When the pixel measuring unit 33 specifies a small area where the color P pixels are gathered and a small area where the color Q pixels are gathered, as shown in FIG. 13B, the pixels of the color P are gathered. The coordinates of the left end and the right end on the u-axis of the small region and the coordinates of the upper end and the lower end on the v-axis are the left end u1, right end u2, upper end v1, and lower end v2 in the color P column of the color data shown in FIG. To store.
Further, the left end and right end coordinates on the u-axis and the upper and lower end coordinates on the v-axis of the small area where the pixels of the color Q are gathered are the left end in the color Q column of the color data shown in FIG. Stored in u1, right end u2, upper end v1, and lower end v2.
The pixel measuring unit 33 calculates the area ratio of the small area where the pixels of the color P are gathered with respect to the area where the outdoor structure is reflected, and stores the area ratio in the area ratio in the color P column of the color data.
Further, the pixel measuring unit 33 calculates the area ratio of the small area where the pixels of the color Q are gathered with respect to the area where the outdoor structure is reflected, and stores the area ratio in the area ratio in the color Q column of the color data. To do.

地図マッチング部11は、位置形状特定部6が位置・形状データを位置・形状データ記録部7に記録し、色彩特定部8が色彩データを色彩データ記録部9に記録すると、位置・形状データ記録部7に記録されている位置・形状データを地図データDB10に記録されている地図データに関連付けるとともに、色彩データ記録部9に記録されている色彩データを地図データDB10に記録されている地図データに関連付ける処理を行う(ステップST7)。
地図マッチング部11により地図データに関連付けられた位置・形状データ及び色彩データなどからなる屋外構造物計測データは、屋外構造物計測データ記録部12に記録される。
以下、地図マッチング部11の処理内容を具体的に説明する。
The map matching unit 11 records the position / shape data when the position / shape specifying unit 6 records the position / shape data in the position / shape data recording unit 7 and the color specifying unit 8 records the color data in the color data recording unit 9. The position / shape data recorded in the unit 7 is associated with the map data recorded in the map data DB 10, and the color data recorded in the color data recording unit 9 is converted into the map data recorded in the map data DB 10. The association process is performed (step ST7).
Outdoor structure measurement data including position / shape data and color data associated with map data by the map matching unit 11 is recorded in the outdoor structure measurement data recording unit 12.
Hereinafter, the processing content of the map matching part 11 is demonstrated concretely.

図14は地図マッピング部11から出力される屋外構造物計測データを示す説明図である。
地図データDB10に記録されている地図データは、例えば、道路の交差点や曲がり角毎に、その道路の道路名と、その道路の中心線の始点及び終点の座標(xは経度、yは緯度)を保持している。
地図データにおいて、始点の座標(始点x、始点y)から終点の座標(終点x、終点y)までの道路は道路ベクトルと称され、屋外構造物が構造物IDで区別されている。
FIG. 14 is an explanatory diagram showing outdoor structure measurement data output from the map mapping unit 11.
The map data recorded in the map data DB 10 includes, for example, the road name of the road and the coordinates of the start point and end point of the center line of the road (x is longitude and y is latitude) for each road intersection or corner. keeping.
In the map data, the road from the start point coordinates (start point x, start point y) to the end point coordinates (end point x, end point y) is called a road vector, and the outdoor structure is distinguished by the structure ID.

地図マッチング部11は、位置・形状データ記録部7に記録されている位置・形状データを参照して、屋外構造物の中心位置(cx,cy,cz)を確認し、その中心位置(cx,cy,cz)に最も近い地図データ上の道路ベクトルを探索する。
地図マッチング部11は、屋外構造物の中心位置(cx,cy,cz)に最も近い道路ベクトルの道路名を屋外構造物計測データの「道路名」の欄に格納する。
また、地図マッチング部11は、地図データを参照して、位置形状特定部6により三次元位置及び三次元形状が特定された屋外構造物が、道路ベクトルの左右どちらに存在しているかを確認し、その確認結果を屋外構造物計測データの「道の左右」の欄に格納する。
ただし、「道の左右」は、軌跡データの左右とはかならずしも一致しない。
The map matching unit 11 refers to the position / shape data recorded in the position / shape data recording unit 7, confirms the center position (cx, cy, cz) of the outdoor structure, and the center position (cx, The road vector on the map data closest to cy, cz) is searched.
The map matching unit 11 stores the road name of the road vector closest to the center position (cx, cy, cz) of the outdoor structure in the “road name” field of the outdoor structure measurement data.
Further, the map matching unit 11 refers to the map data and confirms whether the outdoor structure having the three-dimensional position and the three-dimensional shape specified by the position shape specifying unit 6 is present on the left or right side of the road vector. Then, the confirmation result is stored in the “Left / Right” column of the outdoor structure measurement data.
However, “left and right of the road” does not always coincide with the left and right of the trajectory data.

地図マッチング部11は、位置・形状データ記録部7に記録されている位置・形状データを屋外構造物計測データの「位置・形状情報」の欄に転記する。
また、地図マッチング部11は、色彩データ記録部9に記録されている色彩データについては、色彩データが記録されているファイル内のアドレスを屋外構造物計測データの「色彩ポインタ」の欄に格納し、画像選択部31により選択された撮影画像を示す画像データが記録されているファイル内のアドレスを屋外構造物計測データの「画像ポインタ」の欄に格納する。
The map matching unit 11 transfers the position / shape data recorded in the position / shape data recording unit 7 to the “position / shape information” column of the outdoor structure measurement data.
The map matching unit 11 stores the address in the file in which the color data is recorded in the “color pointer” field of the outdoor structure measurement data for the color data recorded in the color data recording unit 9. The address in the file in which the image data indicating the photographed image selected by the image selection unit 31 is recorded is stored in the “image pointer” field of the outdoor structure measurement data.

以上で明らかなように、この実施の形態1によれば、データ取得車両1に設置された状態で、屋外の地物を走査して、その地物の表面における走査点の三次元位置及び走査時刻を示す点群データを取得するとともに、データ取得車両1の走行位置及び走行時刻を示す軌跡データを取得する三次元データ取得装置2と、データ取得車両1に設置された状態で、屋外の地物を撮影して、その地物の撮影位置、撮影時刻及び撮影画像を示す撮影画像データを取得する撮影画像データ取得装置3と、三次元データ取得装置2により取得された点群データ及び軌跡データを解析して、屋外の地物から屋外構造物を抽出し、その屋外構造物が設置されている三次元位置を特定するとともに、屋外構造物の三次元形状を特定する位置形状特定部6と、位置形状特定部6により特定された三次元位置及び三次元形状と撮影画像データ取得装置3により取得された撮影画像データを照合して、その撮影画像データが示す撮影画像に屋外構造物が映っている領域を特定し、その領域の画素値から屋外構造物の色彩を特定する色彩特定部8とを設けるように構成したので、屋外構造物の三次元位置、三次元形状及び色彩を計測することができる効果を奏する。   As is apparent from the above, according to the first embodiment, the outdoor feature is scanned while being installed in the data acquisition vehicle 1, and the three-dimensional position and scan of the scanning point on the surface of the feature are scanned. While acquiring the point cloud data indicating the time, the three-dimensional data acquisition device 2 for acquiring the trajectory data indicating the travel position and the travel time of the data acquisition vehicle 1, A photographed image data acquisition device 3 that captures an object and acquires photographed image data indicating the photographing position, photographing time, and photographed image of the feature, and point cloud data and trajectory data obtained by the three-dimensional data acquisition device 2 The position shape specifying unit 6 that extracts the outdoor structure from the outdoor features, specifies the three-dimensional position where the outdoor structure is installed, and specifies the three-dimensional shape of the outdoor structure; , Position type A region in which the outdoor structure is reflected in the captured image indicated by the captured image data by comparing the 3D position and the 3D shape specified by the specifying unit 6 with the captured image data acquired by the captured image data acquisition device 3 And the color specifying unit 8 for specifying the color of the outdoor structure from the pixel value of the area is provided, so that the three-dimensional position, three-dimensional shape and color of the outdoor structure can be measured. There is an effect.

また、この実施の形態1によれば、位置形状特定部6により特定された三次元位置及び三次元形状と色彩特定部8により特定された色彩を地図データDB10に記録されている地図データに関連付ける地図マッチング部11を設けるように構成したので、地図データと関連付けられている三次元位置及び三次元形状と色彩を含む屋外構造物計測データが得られる効果を奏する。   According to the first embodiment, the three-dimensional position and the three-dimensional shape specified by the position / shape specifying unit 6 and the color specified by the color specifying unit 8 are associated with the map data recorded in the map data DB 10. Since it comprised so that the map matching part 11 might be provided, there exists an effect by which the outdoor structure measurement data containing the three-dimensional position linked | related with map data, a three-dimensional shape, and a color are obtained.

この実施の形態1では、道路の位置座標をベクトル形式で保持している地図データが地図データDB10に記録されているものを示したが、道路で囲まれている街区の境界の位置座標をベクトル形式で保持している場合や、街区内の建物などの中心位置座標をベクトル形式で保持している場合がある。このような場合も、地図データを同様に取り扱うことで、屋外構造物の街区名及び街区内の相対位置や、近接している建物名及び建物に対する相対位置を屋外構造物計測データに含めて出力することが可能である。   In the first embodiment, the map data holding the road position coordinates in the vector format is recorded in the map data DB 10. However, the position coordinates of the boundaries of the blocks surrounded by the roads are represented by vectors. In some cases, it is held in a format, and in some cases, the center position coordinates of a building in a block are held in a vector format. In such cases, map data is handled in the same way, and the outdoor structure measurement data includes the block names of outdoor structures and the relative positions in the blocks, as well as the names of nearby buildings and relative positions to the buildings. Is possible.

この実施の形態1では、屋外構造物が道路の右側又は左側に存在しているものについて示したが、例えば、屋外構造物が横断歩道橋や鉄道のガードであれば、屋外構造物が道路の真上に存在しており、点群データの立面図において、軌跡データの上にも点群データが存在することがある。
この場合、位置形状特定部6が、データ取得車両1の高さより高い高さ閾値を用いて、点群データを上下に分離することにより、データ取得車両1の真上の点群データを取り出せば、この実施の形態1と同様の処理で、屋外構造物の三次元位置及び三次元形状を特定することができる。
In the first embodiment, the outdoor structure is shown on the right side or the left side of the road. However, for example, if the outdoor structure is a pedestrian bridge or a railroad guard, the outdoor structure is a true road. In the elevation of the point cloud data, the point cloud data may also exist on the trajectory data.
In this case, if the position shape specifying unit 6 uses the height threshold higher than the height of the data acquisition vehicle 1 to separate the point cloud data up and down, the point shape data immediately above the data acquisition vehicle 1 is extracted. The three-dimensional position and the three-dimensional shape of the outdoor structure can be specified by the same processing as in the first embodiment.

この実施の形態1では、色彩データを屋外構造物計測データに含めているものについて示したが、計測の目的によっては、位置・形状データのみが必要で、色彩データは不要な場合がある。
このような場合、色彩特定部8の画素計測部33を省略して、色彩特定部8の画像選択部31及び構造物切り出し部32のみが動作するようにして、画像選択部31により選択された撮影画像を示す画像データが記録されているファイル内のアドレスを屋外構造物計測データの「画像ポインタ」の欄に格納するようにすればよい。
In the first embodiment, the color data is included in the outdoor structure measurement data. However, depending on the purpose of measurement, only the position / shape data is necessary, and the color data may not be necessary.
In such a case, the pixel measuring unit 33 of the color specifying unit 8 is omitted, and only the image selecting unit 31 and the structure cutout unit 32 of the color specifying unit 8 are operated and selected by the image selecting unit 31. The address in the file in which the image data indicating the photographed image is recorded may be stored in the “image pointer” field of the outdoor structure measurement data.

この実施の形態1では、データ取得車両1に設置されている三次元データ取得装置2と撮影画像データ取得装置3が同時にデータ取得処理を実施するものについて示したが、データ取得車両1の走行時に三次元データ取得装置2のみが三次元データの取得処理を実施し、別途、データ取得車両1が走行するとき(あるいは、ユーザが撮影画像データ取得装置3を手で持って移動するとき)、撮影画像データ取得装置3が撮影画像データの取得処理を実施するようにしてもよい。
ただし、この場合は、撮影画像データ取得装置3に実装されているカメラの撮影範囲を軌跡データから求めることができないので、別途、撮影画像データ取得装置3に実装されているカメラのレンズによる被写体の中心方向を3次元で計測する3次元ジャイロ装置を設け、画像選択部31が被写体の中心方向を含めて撮影画像を選択するようにする。
In the first embodiment, the three-dimensional data acquisition device 2 and the captured image data acquisition device 3 installed in the data acquisition vehicle 1 are shown to perform data acquisition processing at the same time. When only the three-dimensional data acquisition device 2 performs the three-dimensional data acquisition process and the data acquisition vehicle 1 travels separately (or when the user moves while holding the captured image data acquisition device 3), The image data acquisition device 3 may perform acquisition processing of captured image data.
However, in this case, since the shooting range of the camera mounted on the captured image data acquisition device 3 cannot be obtained from the trajectory data, the subject of the subject by the lens of the camera mounted on the captured image data acquisition device 3 is separately provided. A three-dimensional gyro apparatus that measures the center direction in three dimensions is provided, and the image selection unit 31 selects a captured image including the center direction of the subject.

実施の形態2.
図15はこの発明の実施の形態2による屋外構造物計測装置を示す構成図であり、図において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
屋外構造物制限データ記録部13は屋外構造物に関する設置基準として、例えば、自治体の条例によって設定されている屋外構造物の位置、形状及び色彩の制限情報(以下、「屋外構造物制限データ」と称する)を記録している例えばハードディスクなどの記録媒体である。
Embodiment 2. FIG.
FIG. 15 is a block diagram showing an outdoor structure measuring apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
The outdoor structure restriction data recording unit 13 sets, for example, the outdoor structure position, shape, and color restriction information (hereinafter referred to as “outdoor structure restriction data”) set according to the ordinance of the local government. For example, a hard disk or the like.

計測結果判定部14は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、屋外構造物制限データ記録部13に記録されている屋外構造物制限データを参照して、屋外構造物計測装置の測定結果である屋外構造物の三次元位置、三次元形状及び色彩が設置基準を満足しているか否かを判定(屋外構造物の三次元位置、三次元形状及び色彩が制限以内であるか否かを判定)する処理を実施する。
なお、屋外構造物制限データ記録部13及び計測結果判定部14から計測結果判定手段が構成されている。
判定データ記録部15は計測結果判定部14の判定結果を示す判定データを記録する例えばハードディスクなどの記録媒体である。
The measurement result determination unit 14 is composed of, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and refers to the outdoor structure restriction data recorded in the outdoor structure restriction data recording unit 13. The three-dimensional position, three-dimensional shape and color of the outdoor structure, which is the measurement result of the outdoor structure measuring device, is determined whether or not the installation standard is satisfied (the three-dimensional position, three-dimensional shape and To determine whether the color is within the limit).
The outdoor structure restriction data recording unit 13 and the measurement result determination unit 14 constitute a measurement result determination unit.
The determination data recording unit 15 is a recording medium such as a hard disk that records determination data indicating the determination result of the measurement result determination unit 14.

図16は屋外構造物制限データ記録部13に記録されている屋外構造物制限データを示す説明図である。
図16の例では、屋外構造物制限データとして、位置・形状制限データと色彩制限データが記録されている。
位置・形状制限データの項目として、屋外構造物の最大幅MC、最大上端高ME(上端の最大値)、車道下端最低高MF(下端の高さを車道高aから測った最低値)、歩道下端最低高MG(下端の高さを歩道高bから測った最低値)が規定されている。
また、色彩制限データの項目として、マンセル色票におけるマンセル色相毎の最大彩度が規定されている。
FIG. 16 is an explanatory diagram showing the outdoor structure restriction data recorded in the outdoor structure restriction data recording unit 13.
In the example of FIG. 16, position / shape restriction data and color restriction data are recorded as outdoor structure restriction data.
Items of position / shape restriction data include the maximum width MC of the outdoor structure, the maximum upper end height ME (maximum value at the upper end), the minimum height MF at the lower end of the roadway (the lowest value when the height of the lower end is measured from the roadway height a), sidewalk A minimum lower end height MG (a minimum value obtained by measuring the height of the lower end from the sidewalk height b) is defined.
Further, the maximum saturation for each Munsell hue in the Munsell color chart is defined as an item of color restriction data.

次に動作について説明する。
例えば、自治体によっては、屋外に設置される広告物の位置、形状、色彩などを制限している場合がある。
例えば、以下の非特許文献1には、道路面に突き出ている屋外広告物のサイズに対する制限が規定されている。
また、以下の非特許文献2には、屋外広告物の色彩に対する制限が規定されている。
・非特許文献1
東京都、「屋外広告物のしおり」、P.14〜15
・非特許文献2
柏市、「柏市景観計画」、P.132
Next, the operation will be described.
For example, some local governments may restrict the position, shape, color, etc. of advertisements installed outdoors.
For example, the following non-patent document 1 defines a restriction on the size of an outdoor advertising matter protruding on a road surface.
Moreover, the following nonpatent literature 2 has prescribed | regulated the restriction | limiting with respect to the color of an outdoor advertising matter.
Non-patent document 1
Tokyo Metropolitan Government, “Bookmarks for Outdoor Advertising”, P.I. 14-15
Non-patent document 2
Sakai City, “Sakai City Landscape Plan”, p. 132

この実施の形態2の屋外構造物計測装置は、屋外構造物が制限範囲内であるか否かを判定する機能を搭載している。
以下、屋外構造物計測装置の判定処理を具体的に説明する。
The outdoor structure measuring apparatus according to the second embodiment is equipped with a function for determining whether or not the outdoor structure is within the limit range.
Hereinafter, the determination process of the outdoor structure measuring apparatus will be specifically described.

計測結果判定部14は、屋外構造物計測データ記録部12に記録されている屋外構造物計測データを入力し、屋外構造物の幅c、上端高e、下端高fを認識するとともに、屋外構造物を構成している各領域の色相を認識する。
計測結果判定部14は、屋外構造物計測データである位置・形状制限データに含まれている最大幅MCと屋外構造物の幅cを比較して、屋外構造物の幅cが最大幅MCの範囲内であるか否かを判定する。
また、計測結果判定部14は、位置・形状制限データに含まれている最大上端高MEと屋外構造物の上端高eを比較し、屋外構造物の上端高eが最大上端高MEの範囲内であるか否かを判定する。
さらに、計測結果判定部14は、位置・形状制限データに含まれている車道下端最低高MF及び歩道下端最低高MGと屋外構造物の下端高fを比較し、屋外構造物の下端高fが車道下端最低高MF及び歩道下端最低高MGの範囲内であるか否かを判定する。
The measurement result determination unit 14 inputs the outdoor structure measurement data recorded in the outdoor structure measurement data recording unit 12 and recognizes the width c, the upper end height e, and the lower end height f of the outdoor structure, and the outdoor structure. Recognize the hue of each area that makes up an object.
The measurement result determination unit 14 compares the maximum width MC included in the position / shape restriction data that is outdoor structure measurement data with the width c of the outdoor structure, and the width c of the outdoor structure is the maximum width MC. It is determined whether it is within the range.
In addition, the measurement result determination unit 14 compares the maximum upper end height ME included in the position / shape restriction data with the upper end height e of the outdoor structure, and the upper end height e of the outdoor structure is within the range of the maximum upper end height ME. It is determined whether or not.
Furthermore, the measurement result determination unit 14 compares the lowest height MF of the roadway lower end and the lowest height MG of the sidewalk lower end MG included in the position / shape restriction data with the lower end height f of the outdoor structure. It is determined whether it is within the range of the minimum height MF of the lower end of the roadway and the minimum height MG of the sidewalk.

次に、計測結果判定部14は、屋外構造物を構成している各領域の色相毎に、屋外構造物計測データである色彩制限データに含まれているマンセル色相の最大彩度の中から、当該領域の色相に対応する最大彩度を認識し、当該領域を構成している画素の彩度(画素計測部33により特定された画素の画素値(r、g、b)が示す彩度)と上記最大彩度を比較し、当該領域を構成している画素の彩度が最大彩度の範囲内であるか否かを判定する。
計測結果判定部14は、全ての判定処理が終了すると、それらの判定結果を示す判定データを判定データ記録部15に格納する。
Next, the measurement result determination unit 14 determines, for each hue of each area constituting the outdoor structure, from the maximum saturation of the Munsell hue included in the color restriction data that is the outdoor structure measurement data. Recognizing the maximum saturation corresponding to the hue of the area, the saturation of the pixels constituting the area (the saturation indicated by the pixel values (r, g, b) of the pixels specified by the pixel measuring unit 33) And the maximum saturation are compared, and it is determined whether or not the saturation of the pixels constituting the region is within the maximum saturation range.
When all the determination processes are completed, the measurement result determination unit 14 stores determination data indicating the determination results in the determination data recording unit 15.

以上で明らかなように、この実施の形態2によれば、計測結果判定部14が、屋外構造物制限データ記録部13に記録されている屋外構造物制限データを参照して、屋外構造物計測装置の測定結果である屋外構造物の三次元位置、三次元形状及び色彩が設置基準を満足しているか否かを判定するように構成したので、設置基準を満足していない屋外構造物を検出することができる効果を奏する。   As is apparent from the above, according to the second embodiment, the measurement result determination unit 14 refers to the outdoor structure restriction data recorded in the outdoor structure restriction data recording unit 13 and measures the outdoor structure. Since it is configured to judge whether the 3D position, 3D shape and color of the outdoor structure, which is the measurement result of the equipment, satisfies the installation standard, the outdoor structure that does not satisfy the installation standard is detected. The effect which can be done is produced.

この実施の形態2では、計測結果判定部14が全ての判定結果を判定データ記録部15に格納するものについて示したが、この場合、判定データの中には、目的とする屋外広告物以外の屋外構造物に関する判定結果が格納されることがある。
このような場合、屋外構造物計測データに含まれている画像ポインタに対応する撮影画像を表示させることで、操作者が目的とする屋外広告物以外の屋外構造物を省くことができる。
In the second embodiment, the measurement result determination unit 14 shows all the determination results stored in the determination data recording unit 15, but in this case, the determination data includes items other than the target outdoor advertisement. The determination result regarding the outdoor structure may be stored.
In such a case, by displaying a captured image corresponding to the image pointer included in the outdoor structure measurement data, an outdoor structure other than the outdoor advertisement targeted by the operator can be omitted.

この実施の形態2では、屋外構造物制限データとして、位置・形状制限データと色彩制限データを1組ずつ用意しているものについて示したが、例えば、自治体や自治体内の街区毎に、適用される屋外構造物制限データが異なる場合がある。
このような場合、屋外構造物制限データとして、位置・形状制限データと色彩制限データを複数組用意して、地図データが自治体や街区の境界データを保持するようにすれば、屋外構造物の設置場所である自治体や街区毎に、計測結果の適正な判定データを得ることができる。
In the second embodiment, as the outdoor structure restriction data, one set of the position / shape restriction data and the color restriction data is shown. However, for example, the outdoor structure restriction data is applied to each municipality or each city block within the municipality. The outdoor structure restriction data may differ.
In such a case, if you prepare multiple sets of position / shape restriction data and color restriction data as the outdoor structure restriction data and the map data holds the boundary data of the local government or city block, the installation of the outdoor structure Appropriate determination data of the measurement result can be obtained for each local government or block.

1 データ取得車両、2 三次元データ取得装置(三次元データ取得手段)、3 撮影画像データ取得装置(撮影画像データ取得手段)、4 三次元データ記録部、5 撮影画像データ記録部、6 位置形状特定部(位置形状特定手段)、7 位置・形状データ記録部、8 色彩特定部(色彩特定手段)、9 色彩データ記録部、10 地図データDB(地図記録手段)、11 地図マッチング部(地図マッチング手段)、12 屋外構造物計測データ記録部、13 屋外構造物制限データ記録部(計測結果判定手段)、14 計測結果判定部(計測結果判定手段)、15 判定データ記録部、21 直進区間分割部、22 車道高計測部、23 歩道高計測部、24 幅・奥行き計測部、25 上下端計測部、26 中心計測部、31 画像選択部、32 構造物切り出し部、33 画素計測部。   1 data acquisition vehicle, 2 3D data acquisition device (3D data acquisition means), 3 captured image data acquisition device (captured image data acquisition means), 4 3D data recording unit, 5 captured image data recording unit, 6 position shape Specific part (position shape specifying means), 7 position / shape data recording part, 8 color specifying part (color specifying means), 9 color data recording part, 10 map data DB (map recording means), 11 map matching part (map matching) Means), 12 outdoor structure measurement data recording unit, 13 outdoor structure restriction data recording unit (measurement result determination unit), 14 measurement result determination unit (measurement result determination unit), 15 determination data recording unit, 21 straight section division unit , 22 Roadway height measurement unit, 23 Sidewalk height measurement unit, 24 Width / depth measurement unit, 25 Upper / lower end measurement unit, 26 Center measurement unit, 31 Image selection unit, 32 Structure cutout unit, 33 pixel measurement unit.

Claims (6)

移動体に設置された状態で、屋外の地物を走査して、上記地物の表面における走査点の三次元位置及び走査時刻を示す点群データを取得するとともに、上記移動体の走行位置及び走行時刻を示す軌跡データを取得する三次元データ取得手段と、上記移動体に設置された状態で、屋外の地物を撮影して、上記地物の撮影位置、撮影時刻及び撮影画像を示す撮影画像データを取得する撮影画像データ取得手段と、上記三次元データ取得手段により取得された点群データ及び軌跡データを解析して、屋外の地物から屋外構造物を抽出し、上記屋外構造物が設置されている三次元位置を特定するとともに、上記屋外構造物の三次元形状を特定する位置形状特定手段と、上記位置形状特定手段により特定された三次元位置及び三次元形状と上記撮影画像データ取得手段により取得された撮影画像データを照合して、上記撮影画像データが示す撮影画像に屋外構造物が映っている領域を特定し、上記領域の画素値から上記屋外構造物の色彩を特定する色彩特定手段とを備えた屋外構造物計測装置。   In a state where it is installed on a moving body, it scans an outdoor feature to obtain point cloud data indicating the three-dimensional position and scanning time of the scanning point on the surface of the feature, and the traveling position of the moving body and Three-dimensional data acquisition means for acquiring trajectory data indicating travel time, and shooting of outdoor features in a state of being installed on the moving body, and showing the shooting position, shooting time and shot image of the features The captured image data acquisition means for acquiring image data, the point cloud data and the trajectory data acquired by the three-dimensional data acquisition means are analyzed, the outdoor structure is extracted from the outdoor features, and the outdoor structure is A position shape specifying means for specifying the installed three-dimensional position and specifying a three-dimensional shape of the outdoor structure, a three-dimensional position and a three-dimensional shape specified by the position shape specifying means, and the captured image The captured image data acquired by the data acquisition means is collated, an area where the outdoor structure is reflected in the captured image indicated by the captured image data is specified, and the color of the outdoor structure is determined from the pixel value of the area. An outdoor structure measuring device comprising color specifying means for specifying. 位置形状特定手段は、屋外構造物の三次元形状として、上記屋外構造物の幅、奥行き、上端高及び下端高を特定し、上記屋外構造物が設置されている三次元位置として、上記屋外構造物の中心位置を特定することを特徴とする請求項1記載の屋外構造物計測装置。   The position shape specifying means specifies the width, depth, upper end height and lower end height of the outdoor structure as the three-dimensional shape of the outdoor structure, and sets the outdoor structure as the three-dimensional position where the outdoor structure is installed. The outdoor structure measuring device according to claim 1, wherein a center position of the object is specified. 色彩特定手段は、屋外構造物の色相毎に、当該色相が占めている領域の左端、右端、上端及び下端の位置を特定することを特徴とする請求項1または請求項2記載の屋外構造物計測装置。   3. The outdoor structure according to claim 1 or 2, wherein the color specifying means specifies, for each hue of the outdoor structure, positions of a left end, a right end, an upper end, and a lower end of an area occupied by the hue. Measuring device. 屋外の地物に関する情報を保持している地図データが記録されている地図記録手段と、位置形状特定手段により特定された三次元位置及び三次元形状と色彩特定手段により特定された色彩を上記地図記録手段に記録されている地図データに関連付ける地図マッチング手段とを設けたことを特徴とする請求項1から請求項3のうちのいずれか1項記載の屋外構造物計測装置。   Map recording means for storing map data holding information on outdoor features, the three-dimensional position specified by the position shape specifying means, the three-dimensional shape and the color specified by the color specifying means, and the map The outdoor structure measuring device according to any one of claims 1 to 3, further comprising map matching means associated with the map data recorded in the recording means. 位置形状特定手段により特定された三次元位置及び三次元形状と色彩特定手段により特定された色彩が設置基準を満足しているか否かを判定する計測結果判定手段を設けたことを特徴とする請求項1から請求項4のうちのいずれか1項記載の屋外構造物計測装置。   A measurement result determining means for determining whether or not the three-dimensional position and the three-dimensional shape specified by the position shape specifying means and the color specified by the color specifying means satisfy an installation standard is provided. The outdoor structure measuring device according to any one of claims 1 to 4. 三次元データ取得手段が、移動体に設置された状態で、屋外の地物を走査して、上記地物の表面における走査点の三次元位置及び走査時刻を示す点群データを取得するとともに、上記移動体の走行位置及び走行時刻を示す軌跡データを取得する三次元データ取得処理ステップと、撮影画像データ取得手段が、上記移動体に設置された状態で、屋外の地物を撮影して、上記地物の撮影位置、撮影時刻及び撮影画像を示す撮影画像データを取得する撮影画像データ取得処理ステップと、位置形状特定手段が、上記三次元データ取得処理ステップで取得された点群データ及び軌跡データを解析して、屋外の地物から屋外構造物を抽出し、上記屋外構造物が設置されている三次元位置を特定するとともに、上記屋外構造物の三次元形状を特定する位置形状特定処理ステップと、色彩特定手段が、上記位置形状特定処理ステップで特定された三次元位置及び三次元形状と上記撮影画像データ取得処理ステップで取得された撮影画像データを照合して、上記撮影画像データが示す撮影画像に屋外構造物が映っている領域を特定し、上記領域の画素値から上記屋外構造物の色彩を特定する色彩特定処理ステップとを備えた屋外構造物計測方法。   While the three-dimensional data acquisition means is installed on the moving body, it scans the outdoor feature, acquires the point cloud data indicating the three-dimensional position and the scanning time of the scanning point on the surface of the feature, The three-dimensional data acquisition processing step for acquiring trajectory data indicating the travel position and travel time of the mobile body, and the photographed image data acquisition means are installed on the mobile body to photograph outdoor features, The captured image data acquisition processing step for acquiring captured image data indicating the imaging position, the imaging time and the captured image of the feature, and the point shape data and locus acquired by the position shape specifying means in the three-dimensional data acquisition processing step. Analyzing data, extracting outdoor structures from outdoor features, specifying the three-dimensional position where the outdoor structure is installed, and specifying the three-dimensional shape of the outdoor structure The shape specifying processing step and the color specifying means collate the 3D position and 3D shape specified in the position shape specifying processing step with the captured image data acquired in the captured image data acquisition processing step, and An outdoor structure measuring method comprising: a color specifying processing step that specifies an area in which an outdoor structure is reflected in a captured image indicated by image data and specifies a color of the outdoor structure from a pixel value of the area.
JP2010033594A 2010-02-18 2010-02-18 Outdoor structure measuring instrument and outdoor structure measuring method Pending JP2011170599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010033594A JP2011170599A (en) 2010-02-18 2010-02-18 Outdoor structure measuring instrument and outdoor structure measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010033594A JP2011170599A (en) 2010-02-18 2010-02-18 Outdoor structure measuring instrument and outdoor structure measuring method

Publications (1)

Publication Number Publication Date
JP2011170599A true JP2011170599A (en) 2011-09-01

Family

ID=44684664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010033594A Pending JP2011170599A (en) 2010-02-18 2010-02-18 Outdoor structure measuring instrument and outdoor structure measuring method

Country Status (1)

Country Link
JP (1) JP2011170599A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012013525A (en) * 2010-06-30 2012-01-19 Denso Corp Navigation device
JP2016540187A (en) * 2013-09-27 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated External hybrid photo mapping
JP2018141758A (en) * 2017-02-28 2018-09-13 国立研究開発法人理化学研究所 Division method of point group data and division device of point group data
JP2019016066A (en) * 2017-07-04 2019-01-31 Necソリューションイノベータ株式会社 Feature shape extraction device, feature shape extraction method and program
JP2020016664A (en) * 2019-10-03 2020-01-30 株式会社センシンロボティクス Inspection system
JP2020016663A (en) * 2019-10-03 2020-01-30 株式会社センシンロボティクス Inspection system
JP2020507776A (en) * 2017-02-10 2020-03-12 ボクセルグリッド ゲーエムベーハー Device and method for analyzing an object
WO2021033479A1 (en) 2019-08-20 2021-02-25 パナソニックIpマネジメント株式会社 Distance measurement apparatus, information processing method, and information processing device
WO2023058098A1 (en) * 2021-10-04 2023-04-13 日本電気株式会社 Display device, display method, and non-transitory computer-readable medium
JP7492559B2 (en) 2022-08-05 2024-05-29 株式会社パスコ Measurement device, measurement method, and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012013525A (en) * 2010-06-30 2012-01-19 Denso Corp Navigation device
JP2016540187A (en) * 2013-09-27 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated External hybrid photo mapping
US9947100B2 (en) 2013-09-27 2018-04-17 Qualcomm Incorporated Exterior hybrid photo mapping
JP2020507776A (en) * 2017-02-10 2020-03-12 ボクセルグリッド ゲーエムベーハー Device and method for analyzing an object
JP7136422B2 (en) 2017-02-10 2022-09-13 ボクセルグリッド ゲーエムベーハー Device and method for analyzing objects
JP2022101552A (en) * 2017-02-10 2022-07-06 ボクセルグリッド ゲーエムベーハー Device and method for analyzing objects
JP2018141758A (en) * 2017-02-28 2018-09-13 国立研究開発法人理化学研究所 Division method of point group data and division device of point group data
JP2019016066A (en) * 2017-07-04 2019-01-31 Necソリューションイノベータ株式会社 Feature shape extraction device, feature shape extraction method and program
WO2021033479A1 (en) 2019-08-20 2021-02-25 パナソニックIpマネジメント株式会社 Distance measurement apparatus, information processing method, and information processing device
JP7457950B2 (en) 2019-08-20 2024-03-29 パナソニックIpマネジメント株式会社 Distance measuring device, information processing method, and information processing device
JP2020016663A (en) * 2019-10-03 2020-01-30 株式会社センシンロボティクス Inspection system
JP2020016664A (en) * 2019-10-03 2020-01-30 株式会社センシンロボティクス Inspection system
WO2023058098A1 (en) * 2021-10-04 2023-04-13 日本電気株式会社 Display device, display method, and non-transitory computer-readable medium
JP7492559B2 (en) 2022-08-05 2024-05-29 株式会社パスコ Measurement device, measurement method, and program

Similar Documents

Publication Publication Date Title
CN110174093B (en) Positioning method, device, equipment and computer readable storage medium
JP2011170599A (en) Outdoor structure measuring instrument and outdoor structure measuring method
US8571265B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
US8531449B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
KR101319471B1 (en) Bird&#39;s-eye image forming device, bird&#39;s-eye image forming method, and recording medium
US20110109618A1 (en) Method of displaying navigation data in 3d
JP2011505610A (en) Method and apparatus for mapping distance sensor data to image sensor data
AU2008241689A1 (en) Method of and apparatus for producing road information
KR20110044218A (en) Computer arrangement and method for displaying navigation data in 3d
WO2005088971A1 (en) Image generation device, image generation method, and image generation program
JP2003123197A (en) Recognition device for road mark or the like
JP2006105661A (en) Method for estimating plane by stereo image
JP2012083157A (en) Outdoor feature detection system, program for the same, and record media of program for the same
WO2016031229A1 (en) Road map creation system, data processing device, and on-board device
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
TWI682361B (en) Method and system for road image reconstruction and vehicle positioning
JP2007265292A (en) Road sign database construction device
JP7307908B2 (en) Feature management system
WO2024062602A1 (en) Three-dimensionalization system, three-dimensionalization method, and recording medium for recording program
KR100959246B1 (en) A method and a system for generating geographical information of city facilities using stereo images and gps coordination
JP2019139680A (en) Virtual environment creation device