JP5473683B2 - Feature detection system - Google Patents

Feature detection system Download PDF

Info

Publication number
JP5473683B2
JP5473683B2 JP2010051920A JP2010051920A JP5473683B2 JP 5473683 B2 JP5473683 B2 JP 5473683B2 JP 2010051920 A JP2010051920 A JP 2010051920A JP 2010051920 A JP2010051920 A JP 2010051920A JP 5473683 B2 JP5473683 B2 JP 5473683B2
Authority
JP
Japan
Prior art keywords
feature
camera image
points
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010051920A
Other languages
Japanese (ja)
Other versions
JP2011185777A (en
Inventor
要介 石渡
秀明 前原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010051920A priority Critical patent/JP5473683B2/en
Publication of JP2011185777A publication Critical patent/JP2011185777A/en
Application granted granted Critical
Publication of JP5473683B2 publication Critical patent/JP5473683B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、レーザ点群とカメラ画像とを用いて、例えば道路周辺に設けられた地物を検出する地物検出システムに関する。   The present invention relates to a feature detection system that detects, for example, a feature provided around a road using a laser point cloud and a camera image.

近年、GPS受信機、ジャイロスコープ、レーザ、カメラ等を搭載した車両を走行させながら、周辺のカメラ画像やレーザ測量データを3次元で連続的に取得するモービルマッピングシステムが発展している。モービルマッピングシステムは、高精度地図作成等の技術への適用が主に期待されている。   2. Description of the Related Art In recent years, mobile mapping systems have been developed that continuously acquire surrounding camera images and laser survey data in three dimensions while driving a vehicle equipped with a GPS receiver, gyroscope, laser, camera, and the like. The mobile mapping system is mainly expected to be applied to technologies such as high-precision map creation.

高精度な地図を作成するには、モービルマッピングシステムによって取得した映像やレーザ測量データから、屋外の建物や広告といった地物を検出し、必要な情報を抜き出す必要がある。
ここで、レーザ測量は、車両からの距離を主に求めるものであり、そこから位置(点)を求めるので、その位置は車両の位置に依存する。位置測量技術は、GPS衛星等を利用して、高精度な測位を行うことが可能となっている。
In order to create a highly accurate map, it is necessary to detect features such as outdoor buildings and advertisements from video and laser survey data acquired by the mobile mapping system and extract necessary information.
Here, the laser survey mainly obtains the distance from the vehicle, and the position (point) is obtained therefrom, and the position depends on the position of the vehicle. The position surveying technique can perform highly accurate positioning using a GPS satellite or the like.

なお、レーザ測量では、レーザの反射により、何かがあることは分かるものの、その対象が何であるかは分からないので、地物の判別にはカメラ画像等を必要とする。すなわち、レーザ測量データの集合(点の集合、以下「点群」と称する)、カメラ画像およびカメラ画像の撮影位置に基づいて、点群がカメラ画像のどの位置にマッピングされるかを求めることにより、点群がどの地物に属するかを判別することができる。   In laser surveying, it is known that there is something due to the reflection of the laser, but it is not known what the object is, so a camera image or the like is required to identify the feature. That is, by determining to which position in the camera image the point cloud is mapped based on a set of laser survey data (a set of points, hereinafter referred to as “point cloud”), a camera image, and a shooting position of the camera image. The feature to which the point cloud belongs can be determined.

一方、点群が地物にどの程度乗るか、すなわちレーザが地物にどの程度当たっているかは、測量状況に依存する。また、点群は、離散的に存在するので、地物全体を網羅することができない場合がある。そのため、点群、カメラ画像およびカメラ画像の撮影位置だけでは、地物の検出を十分に行うことができないという問題があった。   On the other hand, how much the point cloud rides on the feature, that is, how much the laser hits the feature depends on the surveying situation. Moreover, since the point cloud exists discretely, there are cases where the entire feature cannot be covered. Therefore, there has been a problem that the feature cannot be sufficiently detected only by the point cloud, the camera image, and the shooting position of the camera image.

このような問題を解決するために、カメラ画像上において地物の範囲に相当する多角形の領域を指定し、指定した多角形の領域に含まれる点群を抽出して、抽出した点群から地物の含まれる実平面を算出する3次元モデル構築システムが知られている(例えば、特許文献1参照)。   In order to solve such a problem, a polygonal area corresponding to the range of the feature is designated on the camera image, a point cloud included in the designated polygonal area is extracted, and the extracted point cloud is used. A three-dimensional model construction system that calculates a real plane including a feature is known (see, for example, Patent Document 1).

特開2004−348575号公報JP 2004-348575 A

しかしながら、従来技術には、以下のような課題がある。
従来の3次元モデル構築システムでは、指定した多角形の領域が実際の地物よりも大きい場合、例えば図7に示されるように、対象とする地物の後方にある別の地物に当たった点群が、実平面の候補として加えられる恐れがある。その結果、地物の含まれる実平面が曲がったり、ずれたりするという問題がある。
However, the prior art has the following problems.
In the conventional 3D model construction system, when the specified polygonal area is larger than the actual feature, for example, as shown in FIG. 7, it hits another feature behind the target feature. A point cloud may be added as a candidate for the real plane. As a result, there is a problem that the actual plane including the feature is bent or displaced.

この発明は、上記のような課題を解決するためになされたものであり、地物の含まれる実平面を高精度に算出し、地物の位置および大きさを正確に検出することができる地物検出システムを得ることを目的とする。   The present invention has been made in order to solve the above-described problems, and can calculate a real plane including a feature with high accuracy and accurately detect the position and size of the feature. The object is to obtain an object detection system.

この発明に係る地物検出システムは、対象とする地物の周辺のカメラ画像が記憶された画像記憶手段と、地物の周辺のレーザ測量データが、点群データとしてカメラ画像と関連づけて記憶された測量データ記憶手段と、画像記憶手段に記憶されたカメラ画像を表示する表示手段と、表示手段に表示されたカメラ画像上の2点を指定する指定手段と、指定手段で指定された2点の中点から所定の距離の範囲内に含まれる点群を測量データ記憶手段から抽出し、抽出した点群から地物の含まれる平面を算出するとともに、指定手段で指定された2点を算出された平面上にマッピングして、地物の位置および大きさを検出する地物検出手段とを備えたものである。   The feature detection system according to the present invention stores image storage means in which camera images around a target feature and laser survey data around the feature are associated with the camera image as point cloud data. Surveying data storage means, display means for displaying the camera image stored in the image storage means, designation means for designating two points on the camera image displayed on the display means, and two points designated by the designation means A point cloud included within a predetermined distance from the middle point is extracted from the survey data storage means, the plane containing the feature is calculated from the extracted point cloud, and the two points designated by the designation means are calculated. And a feature detection means for detecting the position and size of the feature by mapping on the plane.

この発明に係る地物検出システムによれば、地物検出手段は、指定手段で指定された2点の中点から所定の距離の範囲内に含まれる点群を測量データ記憶手段から抽出し、抽出した点群から対象とする地物の含まれる平面を算出するとともに、指定手段で指定された2点を算出された平面上にマッピングして、地物の位置および大きさを検出する。
そのため、地物の含まれる実平面を高精度に算出し、地物の位置および大きさを正確に検出することができる。
According to the feature detection system of the present invention, the feature detection means extracts from the survey data storage means a point group included within a predetermined distance from the midpoint of the two points designated by the designation means, A plane including the target feature is calculated from the extracted point group, and two points designated by the designation unit are mapped on the calculated plane to detect the position and size of the feature.
Therefore, it is possible to calculate the actual plane including the feature with high accuracy and accurately detect the position and size of the feature.

この発明の実施の形態1に係る地物検出システムを示すブロック構成図である。It is a block block diagram which shows the terrestrial feature detection system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る地物検出システムの表示部を示す説明図である。It is explanatory drawing which shows the display part of the feature detection system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る地物検出システムの点群抽出部での処理を詳細に示すフローチャートである。It is a flowchart which shows in detail the process in the point cloud extraction part of the feature detection system which concerns on Embodiment 1 of this invention. (a)、(b)は、この発明の実施の形態1に係る地物検出システムの点群抽出部の動作を説明するための説明図である。(A), (b) is explanatory drawing for demonstrating operation | movement of the point group extraction part of the feature detection system which concerns on Embodiment 1 of this invention. (a)、(b)は、この発明の実施の形態1に係る地物検出システムの領域算出部の動作を説明するための説明図である。(A), (b) is explanatory drawing for demonstrating operation | movement of the area | region calculation part of the terrestrial feature detection system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る地物検出システムを示す別のブロック構成図である。It is another block block diagram which shows the terrestrial feature detection system which concerns on Embodiment 1 of this invention. 従来の3次元モデル構築システムの問題を説明するための説明図である。It is explanatory drawing for demonstrating the problem of the conventional three-dimensional model construction system.

以下、この発明の地物検出システムの好適な実施の形態につき図面を用いて説明するが、各図において同一、または相当する部分については、同一符号を付して説明する。   Hereinafter, preferred embodiments of the feature detection system of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts will be described with the same reference numerals.

まず、屋外の地物の含まれる実平面を算出する際、地物の端点を使用すると、上述したように、算出される実平面が、実際のものから曲がったり、ずれたりするという問題がある。そのため、地物のできる限り中側の点を使用することが望ましい。すなわち、中側の点のみで実平面を算出することができれば、外側の点(端点)を使用しないほうが、むしろ誤差が少なくなると考えられる。   First, when calculating an actual plane that includes outdoor features, if the end points of the feature are used, the calculated actual plane may be bent or deviated from the actual one as described above. . Therefore, it is desirable to use the middle point of the feature as much as possible. That is, if the real plane can be calculated using only the middle point, it is considered that the error is rather reduced if the outer point (end point) is not used.

ただし、地物の中側の点を指定するだけでは、地物の範囲を算出することができないので、地物の範囲を別途指定する必要がある。地物の中側の点および地物の範囲の2つの情報があれば、地物の占有する範囲を算出することができる。   However, since the range of the feature cannot be calculated simply by specifying the point inside the feature, it is necessary to separately specify the range of the feature. If there are two pieces of information on the inside point of the feature and the range of the feature, the range occupied by the feature can be calculated.

そこで、以下の実施の形態では、地物の両端の2点を指定することにより、地物の範囲、すなわち地物の位置および大きさを算出(検出)するシステムを提案する。両端の2点の中点は、地物の中に入るので、この中点を中心として一定範囲を点群の範囲とすることにより、不必要な点群を排除することができ、結果的に地物の含まれる実平面を高精度に算出することができる。ここで、一定範囲とは、例えば中点から両端点までの距離をベースにして、この距離の半分までとするといったものが考えられる。   Therefore, in the following embodiment, a system for calculating (detecting) a range of a feature, that is, a position and a size of the feature by designating two points at both ends of the feature is proposed. Since the midpoints of the two points at both ends fall within the feature, unnecessary points can be eliminated by setting a certain range around the midpoint as the range of the point cloud. A real plane including the feature can be calculated with high accuracy. Here, the fixed range may be, for example, up to half of this distance based on the distance from the middle point to both end points.

また、実平面を算出した後、指定した2点を実平面上にマッピングする。これにより、指定した点の実位置を算出することができる。このとき、指定した位置が多少ずれていても、実平面の算出には影響がない。また、ずれの影響は、地物の大きさのみに現れるが、この影響は軽微である。   Further, after calculating the real plane, the two specified points are mapped on the real plane. Thereby, the actual position of the designated point can be calculated. At this time, even if the designated position is slightly deviated, the calculation of the actual plane is not affected. In addition, the effect of displacement appears only on the size of the feature, but this effect is minor.

なお、地物の形状が矩形である場合には、地物の対角線の両端の2点を指定することにより、地物の位置および大きさ(幅、高さ)を一意に求めることができる。同様に、他の形状であっても、地物を覆う矩形領域の範囲を算出することができる。   When the shape of the feature is rectangular, the position and size (width, height) of the feature can be uniquely obtained by designating two points on both ends of the diagonal line of the feature. Similarly, the range of a rectangular region that covers a feature can be calculated for other shapes.

また、広告のように、車両等から見えることを前提に配置されている地物であれば、レーザ測量時に、他の物体に邪魔されていないこと、すなわちレーザ測量において送出されたレーダが、広告全体に当たっていると期待することができる。この場合には、実平面の算出に使用される点群が確実に広告上にあると期待することができるので、結果的に地物の含まれる実平面を高精度に算出することができる。   Also, if the feature is located on the premise that it can be seen from a vehicle or the like as in an advertisement, it is not obstructed by other objects during laser surveying, that is, the radar sent in laser surveying is You can expect to hit the whole thing. In this case, it can be expected that the point group used for calculation of the real plane is surely on the advertisement, and as a result, the real plane including the feature can be calculated with high accuracy.

実施の形態1.
図1は、この発明の実施の形態1に係る地物検出システムを示すブロック構成図である。図1において、この地物検出システムは、画像データ11(画像記憶手段)、点群データ12(測量データ記憶手段)、車両パラメータ13、画像指定部21、点指定部22(指定手段)、表示部23(表示手段)、地物検出装置30(地物検出手段)および領域出力結果データ41を備えている。
Embodiment 1 FIG.
1 is a block diagram showing a feature detection system according to Embodiment 1 of the present invention. In FIG. 1, this feature detection system includes image data 11 (image storage means), point cloud data 12 (survey data storage means), vehicle parameters 13, an image designation section 21, a point designation section 22 (designation means), a display. A unit 23 (display means), a feature detection device 30 (feature detection means), and area output result data 41 are provided.

また、地物検出装置30は、画像描画部31、点群抽出部32、実平面算出部33および領域算出部34を有している。
なお、地物検出装置30は、CPUとプログラムを格納したメモリとを有するマイクロプロセッサ(図示せず)で構成されており、地物検出装置30を構成する各ブロックは、メモリにソフトウェアとして記憶されている。
以下、上記構成の地物検出システムの各部位の機能について説明する。
The feature detection apparatus 30 includes an image drawing unit 31, a point group extraction unit 32, a real plane calculation unit 33, and a region calculation unit 34.
The feature detection device 30 is configured by a microprocessor (not shown) having a CPU and a memory storing a program, and each block constituting the feature detection device 30 is stored as software in the memory. ing.
Hereinafter, the function of each part of the feature detection system configured as described above will be described.

画像データ11には、上述したモービルマッピングシステムで使用される車両に搭載されたカメラにより撮影されたカメラ画像が収められている。なお、各カメラ画像は、撮影時刻とともに収められている。   The image data 11 contains camera images taken by a camera mounted on a vehicle used in the mobile mapping system described above. Each camera image is stored together with the shooting time.

点群データ12には、上述したモービルマッピングシステムで使用される車両に搭載されたレーザにより測量されたレーザ測量データが収められている。なお、レーザ測量データは、各点群の座標値および測量時刻として収められている。
ここで、座標系は、平面直角座標系を用い、x座標およびy座標がそれぞれ緯度方向および経度方向の原点からの距離を示し、z座標が標高を示す。平面直角座標系については、国土地理院、平面直角座標系(平成十四年国土交通省告示第九号)(http://www.gsi.go.jp/LAW/heimencho.html)に示されているので、詳細な説明は省略する。
The point cloud data 12 stores laser survey data measured by a laser mounted on a vehicle used in the mobile mapping system described above. The laser survey data is stored as coordinate values and survey times of each point group.
Here, a plane rectangular coordinate system is used as the coordinate system, the x coordinate and the y coordinate indicate the distance from the origin in the latitude direction and the longitude direction, respectively, and the z coordinate indicates the altitude. The plane Cartesian coordinate system is shown in the Geospatial Information Authority of Japan, Plane Cartesian Coordinate System (Ministry of Land, Infrastructure, Transport and Tourism Notification No. 9 of 2004) (http://www.gsi.go.jp/LAW/heimencho.html). Therefore, detailed description is omitted.

車両パラメータ13には、画像データ11および点群データ12を取得した車両およびカメラのパラメータが収められている。具体的には、カメラ撮影時の車両の位置および向きや、カメラの車両上の配置、カメラの焦点距離等のデータが収められている。   The vehicle parameter 13 contains parameters of the vehicle and camera from which the image data 11 and the point cloud data 12 are acquired. Specifically, data such as the position and orientation of the vehicle at the time of camera shooting, the arrangement of the camera on the vehicle, the focal length of the camera, and the like are stored.

画像指定部21は、オペレータの操作により、画像データ11内の各カメラ画像の中から、表示部23に表示するカメラ画像を指定する。カメラ画像を指定する手段としては、例えば図2に示されるように、画像データ11内の各カメラ画像を表示部23にサムネイル表示して、その中から表示するものを選択して等倍表示するといった方法が考えられる。   The image designation unit 21 designates a camera image to be displayed on the display unit 23 from each camera image in the image data 11 by an operator's operation. As a means for designating a camera image, for example, as shown in FIG. 2, each camera image in the image data 11 is displayed as a thumbnail on the display unit 23, and one to be displayed is selected and displayed at the same magnification. Such a method can be considered.

点指定部22は、オペレータの操作により、画像指定部21で指定されたカメラ画像上の2点を指定する。このとき、表示部23に表示されたカメラ画像上の上下左右端の数%程度の範囲を指定対象外としてもよい。   The point designating unit 22 designates two points on the camera image designated by the image designating unit 21 by the operation of the operator. At this time, a range of about several percent of the upper, lower, left and right edges on the camera image displayed on the display unit 23 may be excluded from the designation target.

画像描画部31は、画像指定部21により指定されたカメラ画像、点指定部22により指定されたカメラ画像上の2点、および後述する領域算出部34で算出された領域等を表示部23に表示する。   The image drawing unit 31 displays the camera image specified by the image specifying unit 21, the two points on the camera image specified by the point specifying unit 22, the region calculated by the region calculating unit 34 described later, and the like on the display unit 23. indicate.

点群抽出部32は、画像指定部21により指定されたカメラ画像、および点指定部22により指定されたカメラ画像上の2点に基づいて、車両パラメータ13を参照しながら、点群データ12から実平面算出部33での実平面の算出に必要な点群を抽出する。なお、点群抽出部32の詳細な動作については、後述する。   The point cloud extraction unit 32 refers to the vehicle parameter 13 based on the camera image specified by the image specification unit 21 and the two points on the camera image specified by the point specification unit 22 from the point cloud data 12. A point group necessary for calculating the real plane in the real plane calculation unit 33 is extracted. The detailed operation of the point cloud extraction unit 32 will be described later.

実平面算出部33は、点群抽出部32によって抽出された点群から、地物の含まれる実平面を算出する。実平面算出部33での処理によって、地物と実在の位置(点群)とが結び付けられる。   The real plane calculation unit 33 calculates a real plane including the feature from the point group extracted by the point group extraction unit 32. By the processing in the real plane calculation unit 33, the feature and the actual position (point cloud) are linked.

領域算出部34は、実平面算出部33によって算出された実平面上における対象とする地物の範囲を算出し、領域出力結果データ41に出力する。領域算出部34での処理によって、地物の位置および大きさ(幅、高さ)を算出することができる。
領域出力結果データ41は、領域算出部34によって算出された地物の位置および大きさを保存する。
The region calculation unit 34 calculates the range of the target feature on the real plane calculated by the real plane calculation unit 33 and outputs the range to the region output result data 41. The position and size (width, height) of the feature can be calculated by processing in the area calculation unit 34.
The region output result data 41 stores the position and size of the feature calculated by the region calculation unit 34.

続いて、上記構成の地物検出システムの動作について説明する。
画像指定部21によってカメラ画像が指定されると、カメラ画像およびその撮影時刻が、画像データ11から一意に決定される。この情報および領域算出部34で算出された領域は、画像描画部31によって、表示部23に重ねて表示される。算出された領域がカメラ画像の外にまたがる場合には、カメラ画像内に収まる範囲のみ表示される。
Next, the operation of the feature detection system configured as described above will be described.
When a camera image is designated by the image designation unit 21, the camera image and its shooting time are uniquely determined from the image data 11. This information and the area calculated by the area calculation unit 34 are displayed on the display unit 23 by the image drawing unit 31. When the calculated area extends outside the camera image, only the range that fits within the camera image is displayed.

なお、領域算出部34で領域が算出されていない場合には、領域は表示されない。また、算出された領域を表示するか否かを、画像指定部21により指定してもよい。領域を表示しないことが指定された場合には、領域算出部34で領域が算出された後であっても、表示部23には、カメラ画像のみが表示される。   In addition, when the area is not calculated by the area calculation unit 34, the area is not displayed. Further, the image designating unit 21 may designate whether or not to display the calculated area. When it is designated not to display the region, only the camera image is displayed on the display unit 23 even after the region calculation unit 34 calculates the region.

表示部23にカメラ画像が表示された後、点指定部22によって、カメラ画像上の2点が指定される。なお、2点を指定する順序は問わない。
点指定部22によってカメラ画像上の2点が指定された後、その2点の座標(カメラ画像上のX座標、Y座標)と、表示部23に表示されているカメラ画像の撮影時刻とに基づいて、点群データ12から実平面算出部33での実平面の算出に必要な点群が、点群抽出部32によって抽出される。
After the camera image is displayed on the display unit 23, the point designating unit 22 designates two points on the camera image. The order in which the two points are specified does not matter.
After two points on the camera image are designated by the point designating unit 22, the coordinates of the two points (X coordinate and Y coordinate on the camera image) and the shooting time of the camera image displayed on the display unit 23 are used. Based on the point cloud data 12, the point cloud extraction unit 32 extracts a point cloud necessary for the real plane calculation by the real plane calculation unit 33.

ここで、図3のフローチャートを参照しながら、点群抽出部32での処理を詳細に説明する。
まず、点群抽出部32は、カメラ画像の撮影時刻から一定の時間範囲内に測量された点群のみを、点群データ12から抽出する(ステップS1)。このとき、主に使用されるデータは、カメラ画像の撮影時刻近傍の点群である。
Here, the processing in the point cloud extraction unit 32 will be described in detail with reference to the flowchart of FIG.
First, the point cloud extraction unit 32 extracts from the point cloud data 12 only the point cloud measured within a certain time range from the shooting time of the camera image (step S1). At this time, mainly used data is a point group near the photographing time of the camera image.

次に、点群抽出部32は、抽出された各点群をカメラ画像上にマッピングした場合の位置算出を実行する(ステップS2)。なお、上記ステップS1において、点群をカメラ画像の撮影時刻近傍のものに制限した理由は、このステップS2において、対象とする地物の前後にある物体に当たったものを含むことを防止するためである。カメラ画像の撮影時刻近傍の点群であれば、マッピングされた点群がカメラ画像上の地物の中にある場合に、地物に実際に当たった点群である可能性が高い。   Next, the point group extraction unit 32 executes position calculation when each extracted point group is mapped on the camera image (step S2). The reason why the point cloud is limited to the vicinity of the photographing time of the camera image in step S1 is to prevent the point cloud from being hit by an object before and after the target feature in step S2. It is. If the point cloud is near the shooting time of the camera image, there is a high possibility that the point cloud actually hits the feature when the mapped point cloud is in the feature on the camera image.

各点群のカメラ画像上の位置の算出においては、まず、点群内の各点のカメラ位置からの相対位置(x,y,z)が、車両パラメータ13に納められたカメラ撮影時の車両の位置および向きと、車両上のカメラの位置および向きとから算出される。その後、カメラの焦点距離f、カメラの1画素あたりの距離pおよびカメラの光軸中心座標(xc,yc)に基づいて、点群のカメラ画像上の位置が、図4(a)、(b)に示されるように算出され、算出された点群のカメラ画像上の位置(x,y)は、次式(1)で表される。 In the calculation of the position of each point cloud on the camera image, first, the camera photographing in which the relative position (x 1 , y 1 , z 1 ) from the camera position of each point in the point cloud is stored in the vehicle parameter 13 is performed. It is calculated from the position and orientation of the vehicle at the time and the position and orientation of the camera on the vehicle. Thereafter, the focus of the camera length f, the distance per one pixel of the camera p m and the camera optical axis center coordinates (xc, yc) on the basis of, the position of the point group of the camera image, FIGS. 4 (a), ( The position (x, y) of the calculated point cloud on the camera image is expressed by the following equation (1).

Figure 0005473683
Figure 0005473683

続いて、点群抽出部32は、ステップS2で算出された各点群のカメラ画像上の位置のうち、点指定部22で指定された2点の中点に近い点を複数点選択する(ステップS3)。このとき、選択する点数は、最低3点とする。なお、点を選択する際、指定された2点のカメラ画像上の座標を利用して、選択する範囲を、例えば「中点から2点間のX(Y)座標幅の±1/4に収まる範囲」のように制限してもよい。これにより、点指定部22での点の指定に多少ずれがあった場合でも、誤差を吸収することができる。   Subsequently, the point group extraction unit 32 selects a plurality of points close to the midpoint of the two points designated by the point designation unit 22 from the positions on the camera image of each point group calculated in step S2 ( Step S3). At this time, the number of points to be selected is at least three. Note that when selecting a point, the coordinates on the camera image of the two specified points are used to set the selection range to, for example, “± 1/4 of the X (Y) coordinate width between the middle point and the two points. You may restrict | limit like the "contained range". Thereby, even when there is a slight deviation in the point designation in the point designation unit 22, the error can be absorbed.

ここで、点群抽出部32によって選択された点が3点未満である場合には、エラーとして以降の処理は実行せず、画像指定部21によるカメラ画像指定に戻る。一方、点群抽出部32によって選択された点が3点以上である場合には、実平面算出部33によって、得られた点を含む実平面(地物の含まれる実平面)が算出される。   Here, when the number of points selected by the point group extraction unit 32 is less than 3, the subsequent processing is not executed as an error, and the process returns to the camera image designation by the image designation unit 21. On the other hand, when the number of points selected by the point group extraction unit 32 is three or more, the actual plane calculation unit 33 calculates the actual plane (the actual plane including the feature) including the obtained points. .

なお、実際には、得られた点には誤差が乗っているので、すべての点が乗るような平面が算出される場合は少ない。そこで、最小二乗法等を用いて、最も近い平面が算出される。このようにして得られた平面が、対象とする地物の含まれる実平面となる。   Actually, since the obtained point has an error, there are few cases where a plane on which all the points are calculated is calculated. Therefore, the nearest plane is calculated using a least square method or the like. The plane thus obtained is an actual plane including the target feature.

実平面算出部33によって実平面が算出された後、領域算出部34によって、対象とする地物の範囲が算出される。具体的には、まず、領域算出部34は、点指定部22によって指定された2点を、実平面算出部33によって算出された実平面上にマッピングした場合の位置算出を実行する。この位置算出は、上記式(1)を満たすとともに、算出する点の位置(x,y,z)が実平面算出部33によって算出された実平面の式を満たすので、一意に定まる。   After the real plane is calculated by the real plane calculation unit 33, the range of the target feature is calculated by the region calculation unit 34. Specifically, first, the area calculation unit 34 performs position calculation when the two points specified by the point specification unit 22 are mapped on the actual plane calculated by the actual plane calculation unit 33. This position calculation is uniquely determined because the above formula (1) is satisfied and the position (x, y, z) of the calculated point satisfies the formula of the real plane calculated by the real plane calculation unit 33.

次に、領域算出部34は、点指定部22によって指定された2点の実平面上の位置を算出した後、図5(a)に示されるように、2点間の(x,y)平面における距離を幅とし、2点間の標高差を高さとする。また、領域算出部34は、標高が2点の中間となり、かつxy平面に平行な平面πに対して、点指定部22によって指定された2点とそれぞれ対称となる点を算出する。すなわち、領域算出部34は、図5(b)に示されるように、指定された2点A、Bと対称となる点A'、B'を算出し、点A、B'、B、A'の4点で囲まれる矩形領域を地物の範囲とする。   Next, after calculating the positions of the two points designated by the point designating unit 22 on the real plane, the region calculating unit 34, as shown in FIG. 5A, (x, y) between the two points. The distance in the plane is the width, and the elevation difference between the two points is the height. In addition, the area calculation unit 34 calculates points that are at an intermediate point between the two points and are symmetrical with the two points specified by the point specification unit 22 with respect to the plane π parallel to the xy plane. That is, as shown in FIG. 5B, the area calculation unit 34 calculates points A ′ and B ′ that are symmetrical with the designated two points A and B, and points A, B ′, B, A A rectangular area surrounded by four points' is defined as the feature range.

領域算出部34による領域算出の後、画像描画部31により、算出された領域が表示部23に表示されるとともに、画像指定部21によるカメラ画像指定待ち状態に移行する。また、このとき、領域算出部34によって算出された地物の範囲(幅、高さおよび矩形の頂点4点)が領域出力結果データ41に出力される。   After the area calculation by the area calculation unit 34, the image drawing unit 31 displays the calculated area on the display unit 23 and shifts to a camera image designation waiting state by the image designation unit 21. At this time, the feature range (width, height, and four vertexes of the rectangle) calculated by the region calculation unit 34 is output to the region output result data 41.

以上により、カメラ画像および点群によって、地物の位置および大きさを検出することができる。また、領域算出部34により算出された領域を、表示部23に表示されたカメラ画像上に重ねて表示することにより、オペレータの目による確認も同時に行うことができる。   As described above, the position and size of the feature can be detected from the camera image and the point group. Further, the region calculated by the region calculation unit 34 is displayed on the camera image displayed on the display unit 23 so as to be confirmed by the operator's eyes at the same time.

なお、上述したように、地物の中側の点および地物の範囲の2つの情報があれば、地物の占有する範囲を算出することができるが、扱う情報である点群等には誤差が乗っているので、必ずしも精度が高い保証はない。一方、モービルマッピングシステムでは、連続的に地物周辺の情報を取得するので、同一の地物が複数のカメラ画像中に出現する可能性が高い。そこで、あるカメラ画像での範囲算出結果を別のカメラ画像上にマッピングすることにより、算出結果の精度を判定することができる。   As described above, if there are two pieces of information on the inside point of the feature and the range of the feature, the range occupied by the feature can be calculated. Since there is an error, there is no guarantee that the accuracy is high. On the other hand, in the mobile mapping system, since information around the feature is continuously acquired, the possibility that the same feature appears in a plurality of camera images is high. Therefore, the accuracy of the calculation result can be determined by mapping the range calculation result in one camera image onto another camera image.

具体的には、画像指定部21によって別のカメラ画像が指定された場合、上記のように領域が表示されたカメラ画像の上に、新たな別のカメラ画像が表示される。領域を算出したカメラ画像以外のカメラ画像であって、同じ地物が写っている別のカメラ画像上に、算出された領域を重ねることにより、算出された領域の正確さを確認することができる。   Specifically, when another camera image is designated by the image designation unit 21, a new another camera image is displayed on the camera image in which the area is displayed as described above. It is possible to check the accuracy of the calculated area by superimposing the calculated area on another camera image that is the camera image other than the camera image in which the area is calculated. .

このように、複数のカメラ画像に写っている地物に関して、それぞれのカメラ画像で領域を算出し、算出された領域を別のカメラ画像に重ね合わせる処理を実行することにより、オペレータが最もよく重なり合っているものを判断することで、正確な地物の位置および大きさを選択することができる。これにより、計算だけでは拾いきれない誤差を吸収することができる。   As described above, regarding the features reflected in a plurality of camera images, the operator can best overlap each other by calculating a region in each camera image and superimposing the calculated region on another camera image. By determining what is, it is possible to select the exact position and size of the feature. As a result, errors that cannot be picked up only by calculation can be absorbed.

以上のように、実施の形態1によれば、地物検出手段は、指定手段で指定された2点の中点から所定の距離の範囲内に含まれる点群を測量データ記憶手段から抽出し、抽出した点群から対象とする地物の含まれる平面を算出するとともに、指定手段で指定された2点を算出された平面上にマッピングして、対象とする地物の位置および大きさを検出する。
そのため、地物の含まれる実平面を高精度に算出し、地物の位置および大きさを正確に検出することができる。
As described above, according to the first embodiment, the feature detection unit extracts from the survey data storage unit a point group included within a predetermined distance from the midpoint between the two points designated by the designation unit. The plane containing the target feature is calculated from the extracted point cloud, and the two points specified by the specifying means are mapped on the calculated plane, so that the position and size of the target feature are determined. To detect.
Therefore, it is possible to calculate the actual plane including the feature with high accuracy and accurately detect the position and size of the feature.

なお、上記実施の形態1において、領域算出部34は、地物の位置を算出するとともに、カメラ画像内の地物の範囲を算出する。このとき、領域算出部34は、カメラ画像から地物の範囲を切り出して別途保存してもよい。この場合、図6に示されるように、図1に示した地物検出システムに加えて、地物の範囲に応じて切り出したカメラ画像を収めるための領域画像データ42を別途設け、領域算出部34は、切り出したカメラ画像を領域画像データ42に出力する。
地物の位置と切り出したカメラ画像とを別途表示することにより、地物の検出状況を確認することが容易になる。
In the first embodiment, the area calculation unit 34 calculates the position of the feature and calculates the range of the feature in the camera image. At this time, the area calculation unit 34 may cut out the range of the feature from the camera image and save it separately. In this case, as shown in FIG. 6, in addition to the feature detection system shown in FIG. 1, region image data 42 for storing a camera image cut out according to the range of the feature is separately provided, and a region calculation unit 34 outputs the cut-out camera image to the area image data 42.
By separately displaying the position of the feature and the cut-out camera image, it is easy to check the feature detection status.

また、上記実施の形態1では、点指定部22により、画像指定部21で指定されたカメラ画像上の2点を指定することで、地物の検出を実行した。ここでは、地物の幅および高さを算出するために2点を指定しているが、地物の位置のみを算出する場合には、必ずしも2点を指定する必要はなく、地物の中心座標(位置)のみを指定してもよい。このとき、上記実施の形態1で示した、点指定部22で指定された2点の中点の代わりに、指定した1点を利用し、点群抽出部32および実平面算出部33での処理を実行することによって、地物の位置を算出することができる。   In the first embodiment, the feature is detected by designating the two points on the camera image designated by the image designating unit 21 by the point designating unit 22. Here, two points are specified to calculate the width and height of the feature. However, when calculating only the position of the feature, it is not always necessary to specify two points. Only the coordinates (position) may be specified. At this time, instead of the midpoint of the two points specified by the point specifying unit 22 shown in the first embodiment, the specified one point is used, and the point group extracting unit 32 and the real plane calculating unit 33 By executing the processing, the position of the feature can be calculated.

地物の中心座標(位置)のみを指定する場合には、上述したように、地物の幅および高さを算出することはできないが、ある程度の範囲のカメラ画像を、例えば図6に示した領域画像データ42に別途保存しておき、オペレータの目で、地物が何であるかを判断できるようにすることができる。このとき、上記ある程度の範囲は、対称とする地物によって異なるが、例えば屋外広告(看板等)であるならば、指定した1点から1〜2メートル範囲のカメラ画像(カメラ画像としての大きさは位置により異なる)を収めておくことで、オペレータが判断できると考えられる。   When only the center coordinates (position) of a feature are specified, as described above, the width and height of the feature cannot be calculated, but a camera image of a certain range is shown in FIG. 6, for example. It can be separately stored in the region image data 42 so that the operator can determine what the feature is. At this time, although the above-mentioned range varies depending on the symmetric feature, for example, if it is an outdoor advertisement (signboard, etc.), a camera image (size as a camera image) within a range of 1 to 2 meters from a designated point. It can be considered that the operator can make a judgment by storing the position).

11 画像データ、12 点群データ、13 車両パラメータ、21 画像指定部、22 点指定部、23 表示部、30 地物検出装置、31 画像描画部、32 点群抽出部、33 実平面算出部、34 領域算出部、41 領域出力結果データ、42 領域画像データ。   11 image data, 12 point group data, 13 vehicle parameters, 21 image designation unit, 22 point designation unit, 23 display unit, 30 feature detection device, 31 image drawing unit, 32 point group extraction unit, 33 real plane calculation unit, 34 area calculation unit, 41 area output result data, 42 area image data.

Claims (3)

対象とする地物の周辺のカメラ画像が記憶された画像記憶手段と、
前記地物の周辺のレーザ測量データが、点群データとして前記カメラ画像と関連づけて記憶された測量データ記憶手段と、
前記画像記憶手段に記憶されたカメラ画像を表示する表示手段と、
前記表示手段に表示されたカメラ画像上の2点を指定する指定手段と、
前記指定手段で指定された2点の中点から所定の距離の範囲内に含まれる点群を前記測量データ記憶手段から抽出し、抽出した点群から前記地物の含まれる平面を算出するとともに、前記指定手段で指定された2点を算出された前記平面上にマッピングして、前記地物の位置および大きさを検出する地物検出手段と、
を備えたことを特徴とする地物検出システム。
Image storage means for storing camera images around the target feature;
Surveying data storage means for storing laser survey data around the feature in association with the camera image as point cloud data;
Display means for displaying a camera image stored in the image storage means;
Designation means for designating two points on the camera image displayed on the display means;
A point group included within a predetermined distance from the midpoint of the two points specified by the specifying unit is extracted from the survey data storage unit, and a plane including the feature is calculated from the extracted point group. , Feature detection means for mapping the two points designated by the designation means on the calculated plane and detecting the position and size of the feature;
A feature detection system comprising:
前記地物検出手段は、あるカメラ画像について検出された前記地物を含む領域を、別のカメラ画像に重ね合わせて表示させることを特徴とする請求項1に記載の地物検出システム。   The feature detection system according to claim 1, wherein the feature detection unit displays a region including the feature detected for a certain camera image in a superimposed manner on another camera image. 前記地物検出手段は、検出された前記地物の位置および大きさに応じた部分を、前記カメラ画像から切り出して保存することを特徴とする請求項1または請求項2に記載の地物検出システム。   3. The feature detection according to claim 1, wherein the feature detection unit cuts out and saves a portion corresponding to the position and size of the detected feature from the camera image. system.
JP2010051920A 2010-03-09 2010-03-09 Feature detection system Active JP5473683B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010051920A JP5473683B2 (en) 2010-03-09 2010-03-09 Feature detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010051920A JP5473683B2 (en) 2010-03-09 2010-03-09 Feature detection system

Publications (2)

Publication Number Publication Date
JP2011185777A JP2011185777A (en) 2011-09-22
JP5473683B2 true JP5473683B2 (en) 2014-04-16

Family

ID=44792251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010051920A Active JP5473683B2 (en) 2010-03-09 2010-03-09 Feature detection system

Country Status (1)

Country Link
JP (1) JP5473683B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5535025B2 (en) * 2010-10-08 2014-07-02 三菱電機株式会社 Outdoor feature detection system, program for outdoor feature detection system, and recording medium for program for outdoor feature detection system
JP7113611B2 (en) * 2017-11-30 2022-08-05 大成建設株式会社 LOCATION IDENTIFICATION APPARATUS, LOCATION IDENTIFICATION PROGRAM AND LOCATION IDENTIFICATION METHOD, PHOTOGRAPHED IMAGE REGISTRATION APPARATUS, PHOTOGRAPHED IMAGE REGISTRATION PROGRAM AND PHOTOGRAPHIED IMAGE REGISTRATION METHOD
CN109271944B (en) * 2018-09-27 2021-03-12 百度在线网络技术(北京)有限公司 Obstacle detection method, obstacle detection device, electronic apparatus, vehicle, and storage medium
CN111288890A (en) * 2020-02-13 2020-06-16 福建农林大学 Road sign dimension and height automatic measurement method based on binocular photogrammetry technology

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3125550B2 (en) * 1993-12-24 2001-01-22 日産自動車株式会社 Vehicle forward recognition device and vehicle travel control device
JP4521584B2 (en) * 2004-03-31 2010-08-11 直裕 穂積 Sonic velocity measuring method using ultrasonic microscope, sonic velocity measuring device, sonic velocity image acquiring method using ultrasonic microscope, and diagnostic imaging device thereof
JP4779431B2 (en) * 2005-05-11 2011-09-28 日本電気株式会社 Object recognition device
JP4863006B2 (en) * 2006-12-28 2012-01-25 パルステック工業株式会社 3D shape measurement method
EP2120009B1 (en) * 2007-02-16 2016-09-07 Mitsubishi Electric Corporation Measuring device and measuring method

Also Published As

Publication number Publication date
JP2011185777A (en) 2011-09-22

Similar Documents

Publication Publication Date Title
US11629962B2 (en) Methods and systems for generating and using localization reference data
US11085775B2 (en) Methods and systems for generating and using localisation reference data
KR101444685B1 (en) Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data
JP2009294214A (en) Method and system for navigation based on topographic structure
JP5535025B2 (en) Outdoor feature detection system, program for outdoor feature detection system, and recording medium for program for outdoor feature detection system
US20160169662A1 (en) Location-based facility management system using mobile device
WO2015061086A1 (en) Augmented image display using a camera and a position and orientation sensor unit
JP5311465B2 (en) Stereo matching processing system, stereo matching processing method, and program
JP5473683B2 (en) Feature detection system
JP6135972B2 (en) Orientation method, orientation program, and orientation device
KR101323971B1 (en) A method for automatic generation of tunnel information using a mobile mapping system
JP2011112556A (en) Search target position locating device, method, and computer program
KR20210094517A (en) System and method for selecting complementary images from multiple images for 3D geometry extraction
CA2704656C (en) Apparatus and method for modeling building
JP2011164701A (en) Object display control device and object display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140204

R150 Certificate of patent or registration of utility model

Ref document number: 5473683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250