JP7417466B2 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7417466B2
JP7417466B2 JP2020082195A JP2020082195A JP7417466B2 JP 7417466 B2 JP7417466 B2 JP 7417466B2 JP 2020082195 A JP2020082195 A JP 2020082195A JP 2020082195 A JP2020082195 A JP 2020082195A JP 7417466 B2 JP7417466 B2 JP 7417466B2
Authority
JP
Japan
Prior art keywords
feature
point
reflection points
point cloud
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020082195A
Other languages
Japanese (ja)
Other versions
JP2021177136A (en
Inventor
大貴 粟田
康博 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Mapmaster Inc
Original Assignee
Toyota Motor Corp
Toyota Mapmaster Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Mapmaster Inc filed Critical Toyota Motor Corp
Priority to JP2020082195A priority Critical patent/JP7417466B2/en
Publication of JP2021177136A publication Critical patent/JP2021177136A/en
Application granted granted Critical
Publication of JP7417466B2 publication Critical patent/JP7417466B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来から道路の路肩等にあるガードレールを検出する技術が存在する。特許文献1に記載された技術は、レーダ波を照射することに応じて物体(反射点)で反射する際の反射点群を検出し、反射点群に含まれる反射点をクラスタリングすることによりクラスタ群を生成する。特許文献1に記載された技術は、クラスタ群に含まれるクラスタのうちガードレール条件を満たすものをガードレールとして出力する。 2. Description of the Related Art Conventionally, there has been a technology for detecting guardrails on the shoulders of roads. The technology described in Patent Document 1 detects a group of reflection points when reflected by an object (reflection point) in response to irradiating radar waves, and clusters the reflection points included in the reflection point group. Generate a group. The technique described in Patent Document 1 outputs clusters that satisfy guardrail conditions among clusters included in a cluster group as guardrails.

特開2019-027973号公報JP2019-027973A

特許文献1に記載された技術は、ガードレールを検出するものであり、ガードレールを除く他の地物を検出は行っていない。しかし、道路にはガードレールの他に、例えば、クッションドラム及びラバーポール等の種々の地物が配置されている。例えば、道路地図を作成する場合には、ガードレールの他にも他の種々の地物の検出が望まれる場合がある。 The technique described in Patent Document 1 detects guardrails, and does not detect other terrestrial objects other than guardrails. However, in addition to guardrails, various features such as cushion drums and rubber poles are arranged on roads. For example, when creating a road map, it may be desirable to detect various other features in addition to guardrails.

本発明は、道路に配置される地物を推定する情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。 An object of the present invention is to provide an information processing device, an information processing method, and an information processing program for estimating features placed on a road.

一態様の情報処理装置は、地表面にレーザを照射することにより物体で反射される反射点を計測することにより生成される点群データを取得する第1取得部と、第1取得部によって取得された点群データに基づいて、地表面を道路面及び非道路面に分類する分類部と、分類部によって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点毎にグループ化し、グループ化した複数の反射点を点群としたその点群の特徴に基づいて地物を推定する推定部と、推定部によって推定された地物を出力する出力部と、を備える。 An information processing device in one embodiment includes a first acquisition unit that acquires point cloud data generated by measuring reflection points reflected by an object by irradiating a laser onto the ground surface; and a first acquisition unit that acquires point cloud data. a classification unit that classifies the ground surface into a road surface and a non-road surface based on the point cloud data obtained by the classification unit; and a classification unit that classifies the ground surface into a road surface and a non-road surface based on the point cloud data, and a reflection point that is adjacent to each other within a predetermined distance for the point cloud data that is classified as a non-road surface by the classification unit. an estimating unit that estimates a feature based on the characteristics of the point cloud made up of a plurality of grouped reflection points, and an output unit that outputs the feature estimated by the estimating unit. Be prepared.

一態様の情報処理装置では、推定部は、複数の反射点のうち1つの処理点を第1注目点として選択し、第1注目点と、複数の反射点のうち第1注目点とは異なる他の処理点と距離を算出し、算出された距離が第1閾値以下である他の処理点を選択し、選択された第1注目点と複数の他の処理点とをグループ化することとしてもよい。 In one embodiment of the information processing device, the estimation unit selects one processing point from among the plurality of reflection points as a first point of interest, and the first point of interest is different from the first point of interest among the plurality of reflection points. Calculating distances to other processing points, selecting other processing points whose calculated distance is less than or equal to a first threshold, and grouping the selected first point of interest and a plurality of other processing points. Good too.

一態様の情報処理装置では、推定部は、選択された第1注目点と複数の他の処理点との数が第2閾値以下の場合にはグループ化をしないこととしてもよい。 In one embodiment of the information processing device, the estimation unit may not perform grouping if the number of the selected first point of interest and the plurality of other processing points is equal to or less than a second threshold.

一態様の情報処理装置では、推定部は、予め設定された地物の形状に対応付けを行い、点群とその形状とが対応付けられる場合に、その形状の地物として推定することとしてもよい。 In one aspect of the information processing device, the estimating unit may associate the shape of a preset feature with the shape of the feature, and when the point cloud and the shape are associated, the estimation unit may estimate the point group as a feature with that shape. good.

一態様の情報処理装置では、推定部は、点群と、予め設定された円筒形状とが対応付けられる場合、点群のサイズに応じて、地物としてのクッションドラム及びラバーポールの一方に推定することとしてもよい。 In one aspect of the information processing device, when the point cloud is associated with a preset cylindrical shape, the estimating unit estimates one of the cushion drum and the rubber pole as a feature according to the size of the point cloud. You can also do it.

一態様の情報処理装置では、推定部は、道路の延長方向に沿って存在する複数の反射点のうち、延長方向に対して交差する横断方向にばらつきのある反射点をグループ化してクラスタリングを行い、そのクラスタリングが行われた反射点を点群として、予め設定された植生の特徴点の分布に対応する場合に、地物としての植生として推定することとしてもよい。 In one embodiment of the information processing device, the estimation unit performs clustering by grouping reflection points that vary in a transverse direction that intersects the extension direction, among the plurality of reflection points that exist along the extension direction of the road. , the clustered reflection points may be used as a point group to be estimated as vegetation as a terrestrial feature if they correspond to a preset distribution of feature points of vegetation.

一態様の情報処理装置は、地表面を含む周囲を撮像して得られる画像データを取得する第2取得部を備え、分類部は、第1取得部によって取得された点群データに加えて、第2取得部によって取得された画像データに基づいて、地表面を道路面及び非道路面に分類することとしてもよい。 An information processing device in one aspect includes a second acquisition unit that acquires image data obtained by imaging the surroundings including the ground surface, and the classification unit includes, in addition to the point cloud data acquired by the first acquisition unit, The ground surface may be classified into a road surface and a non-road surface based on the image data acquired by the second acquisition unit.

一態様の情報処理装置では、推定部は、第2取得部によって取得された画像データに基づいて地物の色を取得し、取得した地物の色に基づいてその地物を推定することとしてもよい。 In one embodiment of the information processing device, the estimation unit acquires the color of the feature based on the image data acquired by the second acquisition unit, and estimates the feature based on the acquired color of the feature. Good too.

一態様の情報処理方法では、コンピュータが、地表面にレーザを照射することにより物体で反射される反射点を計測することにより生成される点群データを取得する第1取得ステップと、第1取得ステップによって取得された点群データに基づいて、地表面を道路面及び非道路面に分類する分類ステップと、分類ステップによって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点毎にグループ化し、グループ化した複数の反射点を点群としたその点群の特徴に基づいて地物を推定する推定ステップと、推定ステップによって推定された地物を出力する出力ステップと、を実行する。 In one aspect of the information processing method, a first acquisition step includes a first acquisition step in which a computer acquires point cloud data generated by measuring reflection points reflected by an object by irradiating a laser onto the ground surface; A classification step of classifying the ground surface into a road surface and a non-road surface based on the point cloud data obtained in the step; and a classification step that classifies the ground surface as a road surface and a non-road surface based on the point cloud data that are adjacent to each other within a predetermined distance. an estimation step of estimating a feature based on the characteristics of the point cloud, which is made up of a plurality of grouped reflection points; and an output step of outputting the feature estimated by the estimation step. and execute.

一態様の情報処理プログラムは、コンピュータに、地表面にレーザを照射することにより物体で反射される反射点を計測することにより生成される点群データを取得する第1取得機能と、第1取得機能によって取得された点群データに基づいて、地表面を道路面及び非道路面に分類する分類機能と、分類機能によって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点毎にグループ化し、グループ化した複数の反射点を点群としたその点群の特徴に基づいて地物を推定する推定機能と、推定機能によって推定された地物を出力する出力機能と、を実現させる。 An information processing program in one aspect includes a first acquisition function that acquires point cloud data generated by measuring reflection points reflected by an object by irradiating a laser onto the ground surface; A classification function that classifies the ground surface into a road surface and a non-road surface based on the point cloud data acquired by the function, and a classification function that classifies the ground surface as a road surface and a non-road surface based on the point cloud data acquired by the function, and a classification function that classifies the ground surface as a non-road surface based on the point cloud data that is adjacent to each other within a predetermined distance. An estimation function that groups each reflection point and estimates a feature based on the characteristics of the grouped multiple reflection points as a point cloud, and an output function that outputs the feature estimated by the estimation function. and make it come true.

一態様の情報処理装置は、地表面にレーザを照射することにより計測される点群データを取得し、その点群データに基づいて、地表面を道路面及び非道路面に分類し、非道路面に分類される点群データについて所定の距離内にある互いに隣接する点群毎にグループ化し、グループ化した反射点(点群)の特徴に基づいて地物を推定し、その推定された地物を出力するので、道路に配置される地物を推定した結果を提供することができる。
一態様の情報処理方法及び情報処理プログラムは、上述した一態様の情報処理装置と同様の効果を奏することができる。
An information processing device in one embodiment acquires point cloud data measured by irradiating a laser onto the ground surface, classifies the ground surface into a road surface and a non-road surface based on the point cloud data, and classifies the ground surface into a road surface and a non-road surface. Point cloud data classified as surfaces is grouped into adjacent points within a predetermined distance, and features are estimated based on the characteristics of the grouped reflection points (point clouds). Since objects are output, it is possible to provide the results of estimating features placed on roads.
The information processing method and information processing program of one embodiment can produce the same effects as the information processing device of one embodiment described above.

情報処理装置について説明するためのブロック図である。FIG. 2 is a block diagram for explaining an information processing device. 地表面を含む周囲の領域の点群について説明するための図である。FIG. 3 is a diagram for explaining a point group in a surrounding area including the ground surface. クッションドラムについて説明するための図である。FIG. 3 is a diagram for explaining a cushion drum. 植生について説明するための図である。FIG. 2 is a diagram for explaining vegetation. 一実施形態に係る情報処理方法について説明するためのフローチャートである。1 is a flowchart for explaining an information processing method according to an embodiment.

以下、本発明の一実施形態について説明する。
本明細書では、「情報」の文言を使用しているが、「情報」の文言は「データ」と言い換えることができ、「データ」の文言は「情報」と言い換えることができる。
An embodiment of the present invention will be described below.
Although the wording "information" is used in this specification, the wording "information" can be rephrased as "data" and the wording "data" can be rephrased as "information."

図1は、情報処理装置1について説明するためのブロック図である。
図2は、地表面を含む周囲の領域の点群201について説明するための図である。
FIG. 1 is a block diagram for explaining the information processing device 1. As shown in FIG.
FIG. 2 is a diagram for explaining a point group 201 in a surrounding area including the ground surface.

図1に示すように情報処理装置1は、地表面を含む周囲の領域の点群データ(複数の点群201(図2参照))と、その領域を撮像することにより得られた画像データとに基づいて、車両が走行する道路の路肩等にある地物300(一例として、クッションドラム300a、ラバーポール300b及び植生300c等)を推定する。
情報処理装置1は、地物300を推定することにより、地物300の位置を路肩縁400(図2参照)として特定することが可能になり、また地物300の位置又は路肩縁400を道路地図に関する地図情報に登録することが可能になる。路肩縁400は、例えば、車両が緊急停車する際の停車限界を示す。
As shown in FIG. 1, the information processing device 1 stores point cloud data (a plurality of point clouds 201 (see FIG. 2)) of a surrounding area including the ground surface, and image data obtained by imaging the area. Based on this, features 300 (for example, cushion drum 300a, rubber pole 300b, vegetation 300c, etc.) on the shoulder of the road on which the vehicle is traveling are estimated.
By estimating the feature 300, the information processing device 1 can identify the position of the feature 300 as the road shoulder edge 400 (see FIG. 2), and can also identify the location of the feature 300 or the road shoulder edge 400 as the road shoulder edge 400. It becomes possible to register in map information related to maps. The road shoulder edge 400 indicates, for example, a stopping limit when a vehicle makes an emergency stop.

点群データは、地表面を含む周囲の領域をレーザ(出射光)で走査して、その領域にある物体で反射されたレーザ(反射光)を受光することにより得られる。すなわち、点群データは、複数のレーザ光の反射点(点群)のデータによって構成される。地表面を含む周囲の領域は、例えば、下方(地表面)の領域に加えて、下方に対して横方向(側方)の領域を含む概念であってよい。また、地表面を含む周囲の領域は、例えば、上述した下方及び側方の領域に加えて、上方の領域を含んでいてもよい。画像データは、地表面を含む周囲の領域を撮像するカメラ部によって生成される。例えば、点群データ及び画像データは、3次元レーザ計測機とデジタルカメラとを備えるモバイル(モービル)マッピングシステムにより得ることができる。 Point cloud data is obtained by scanning a surrounding area including the ground surface with a laser (emitted light) and receiving the laser (reflected light) reflected by an object in the area. That is, the point cloud data is constituted by data of a plurality of reflection points (point clouds) of laser beams. The surrounding region including the ground surface may include, for example, a region below (the ground surface) as well as a region laterally (to the sides) relative to the ground. Further, the surrounding area including the ground surface may include, for example, an upper area in addition to the above-mentioned lower and side areas. The image data is generated by a camera unit that images the surrounding area including the ground surface. For example, point cloud data and image data can be obtained by a mobile mapping system that includes a three-dimensional laser metrology machine and a digital camera.

次に、情報処理装置1について詳細に説明する。
情報処理装置1は、通信部17、記憶部18、表示部19、第1取得部12、第2取得部13、分類部14、推定部15及び出力制御部16を備える。第1取得部12、第2取得部13、分類部14、推定部15及び出力制御部16は、情報処理装置1の制御部11(例えば、演算処理装置等)の一機能として実現されてもよい。
Next, the information processing device 1 will be explained in detail.
The information processing device 1 includes a communication section 17 , a storage section 18 , a display section 19 , a first acquisition section 12 , a second acquisition section 13 , a classification section 14 , an estimation section 15 , and an output control section 16 . The first acquisition unit 12, the second acquisition unit 13, the classification unit 14, the estimation unit 15, and the output control unit 16 may be implemented as a function of the control unit 11 (for example, an arithmetic processing unit, etc.) of the information processing device 1. good.

通信部17は、情報処理装置1の外部にある装置(例えば、サーバ100等)との間で情報の送受信を行うことが可能である。通信部17は、制御部11の制御に基づいて、モバイルマッピングシステムで得られた情報(点群データ及び画像データ)をサーバ100から読み出すこととしてもよい。 The communication unit 17 is capable of transmitting and receiving information to and from devices outside the information processing device 1 (for example, the server 100, etc.). The communication unit 17 may read out information (point cloud data and image data) obtained by the mobile mapping system from the server 100 under the control of the control unit 11 .

記憶部18は、種々の情報及びプログラムを記憶する。記憶部18は、道路地図に関する地図情報を記憶する。また、記憶部18は、通信部17によってサーバ100から取得した点群データ及び画像データを一時的又は非一時的に記憶することとしてもよい。 The storage unit 18 stores various information and programs. The storage unit 18 stores map information regarding road maps. Further, the storage unit 18 may temporarily or non-temporarily store the point cloud data and image data acquired from the server 100 by the communication unit 17.

表示部19は、例えば、文字及び画像等を表示することが可能な装置である。 The display unit 19 is, for example, a device that can display characters, images, and the like.

第1取得部12は、地表面にレーザを照射することにより計測される点群データを取得する。すなわち、第1取得部12は、例えば、モバイルマッピングシステムで計測される点群データを取得する。第1取得部12は、道路の路肩等にある地物300を特定したい特定領域(道路)において計測された点群データを取得する。一例として、第1取得部12(制御部11)は、特定領域を指定することより、その特定領域の点群データを取得することとしてもよい。 The first acquisition unit 12 acquires point cloud data measured by irradiating the ground surface with a laser. That is, the first acquisition unit 12 acquires, for example, point cloud data measured by a mobile mapping system. The first acquisition unit 12 acquires point cloud data measured in a specific area (road) in which a feature 300 on the shoulder of a road or the like is desired to be specified. As an example, the first acquisition unit 12 (control unit 11) may specify a specific area and then acquire point cloud data of the specific area.

第2取得部13は、地表面を含む周囲を撮像して得られる画像データを取得する。すなわち、第2取得部13は、例えば、モバイルマッピングシステムで生成される画像データを取得する。第2取得部13は、第1取得部12によって取得される点群データが計測された特定領域(道路)と同じ特定領域の画像データを取得する。 The second acquisition unit 13 acquires image data obtained by imaging the surrounding area including the ground surface. That is, the second acquisition unit 13 acquires, for example, image data generated by a mobile mapping system. The second acquisition unit 13 acquires image data of the same specific area (road) where the point cloud data acquired by the first acquisition unit 12 was measured.

なお、例えば、モバイルマッピングシステムは、計測場所毎に点群データと画像データとを対応付けておいてもよい。又は、例えば、サーバ100は、モバイルマッピングシステムの計測場所毎に点群データと画像データとを対応付けておいてもよい。これにより、情報処理装置1は、同一場所の点群データと画像データとを取得することが可能になる。この場合、第1取得部12(制御部11)において指定された特定領域の点群データが取得されると、第2取得部13(制御部11)は、それと同一領域(特定領域)の画像データを取得することとしてもよい。
本実施形態の場合、第1取得部12及び第2取得部13はそれぞれ異なる機能(2つのブロック)として記載されているが、他の実施形態として、第1取得部12及び第2取得部13は同一の機能(1つのブロック)になってもよい。
Note that, for example, the mobile mapping system may associate point cloud data and image data for each measurement location. Alternatively, for example, the server 100 may associate point cloud data and image data for each measurement location of the mobile mapping system. This allows the information processing device 1 to acquire point cloud data and image data at the same location. In this case, when the point cloud data of the specified specific area is acquired in the first acquisition unit 12 (control unit 11), the second acquisition unit 13 (control unit 11) acquires an image of the same area (specific area). It is also possible to obtain data.
In the case of this embodiment, the first acquisition unit 12 and the second acquisition unit 13 are described as having different functions (two blocks), but as another embodiment, the first acquisition unit 12 and the second acquisition unit 13 are described as having different functions (two blocks). may have the same function (one block).

分類部14は、第1取得部12によって取得された点群データに基づいて、地表面を道路面及び非道路面に分類する。分類部14は、点群データのうち同一平面内にある点群201(反射点201a)を道路面に分類することとしてもよい。
例えば、分類部14は、一定の平面から所定の距離内(上下方向の高さに関する所定範囲以内)にある点群データを地表面として分類することとしてもよい。分類部14は、所定の距離として種々の距離を設定することができ、道路の表面にある凹凸を考慮して上下方向に所定範囲内の距離を所定の距離として設定することができる。分類部14は、一例として、処理の距離として、5cm、10cm、15cm及び20cm等の任意の上下方向の距離を設定することができる。すなわち、分類部14は、例えば、上下方向に所定の距離内に収まる反射点201aで構成される平面を道路面として分類することとしてもよい。
The classification unit 14 classifies the ground surface into a road surface and a non-road surface based on the point cloud data acquired by the first acquisition unit 12. The classification unit 14 may classify the point group 201 (reflection points 201a) located in the same plane among the point group data into road surfaces.
For example, the classification unit 14 may classify point cloud data that is within a predetermined distance from a certain plane (within a predetermined range regarding vertical height) as the ground surface. The classification unit 14 can set various distances as the predetermined distance, and can set a distance within a predetermined range in the vertical direction as the predetermined distance, taking into account unevenness on the surface of the road. For example, the classification unit 14 can set any vertical distance such as 5 cm, 10 cm, 15 cm, and 20 cm as the processing distance. That is, the classification unit 14 may, for example, classify a plane made up of reflection points 201a that fall within a predetermined distance in the vertical direction as a road surface.

分類部14は、道路面に分類されなかった点群201(反射点201b)を非道路面として分類することとしてもよい。分類部14は、地物300(一例として、クッションドラム300a、ラバーポール300b及び植生300c等の道路の路肩等にある物体)でレーザが反射されることに基づく反射点201bを非道路面として分類する。分類部14は、上述した一例の地物300の他に、種々の地物(一例として、ガードレール、ガードケーブル、道路の側壁、防音壁、車道と歩道との段差、及び、道路の法面等)でレーザが反射されることに基づく反射点201bを非道路面として分類することとしてもよい。 The classification unit 14 may classify the point group 201 (reflection points 201b) that is not classified as a road surface as a non-road surface. The classification unit 14 classifies a reflection point 201b as a non-road surface based on the fact that the laser is reflected by a feature 300 (for example, objects on the shoulder of a road such as a cushion drum 300a, a rubber pole 300b, and vegetation 300c). do. In addition to the above-mentioned example of the feature 300, the classification unit 14 also includes various features (for example, guardrails, guard cables, road side walls, soundproof walls, differences in level between the road and the sidewalk, and road slopes). ) may be classified as a non-road surface.

分類部14は、上述したように点群データのみで道路面及び非道路面に分類することに限らず、分類部14は、第1取得部12によって取得された点群データに加えて、第2取得部13によって取得された画像データに基づいて、地表面を道路面及び非道路面に分類することとしてもよい。分類部14は、画像データに地物300が記録されていれば、画像データを利用して地物300を把握することが可能である。すなわち、分類部14は、例えば、点群データ及び画像データに基づいて、地表面(地表面を含む周囲の領域)を道路面及び非道路面に分類することが可能である。 The classification unit 14 is not limited to classifying into road surfaces and non-road surfaces using only point cloud data as described above. Based on the image data acquired by the second acquisition unit 13, the ground surface may be classified into a road surface and a non-road surface. If the feature 300 is recorded in the image data, the classification unit 14 can understand the feature 300 using the image data. That is, the classification unit 14 can classify the ground surface (the surrounding area including the ground surface) into a road surface and a non-road surface, for example, based on point cloud data and image data.

推定部15は、分類部14によって非道路面に分類される点群データについて所定の距離内にある互いに隣接する点群201(反射点201b)毎にグループ化し、グループ化した反射点201c(図3,4参照)の特徴に基づいて地物300を推定する。この場合、推定部15は、反射点201bのうち1つの処理点を第1注目点211(図3参照)として選択し、第1注目点211と、反射点201bのうち第1注目点211とは異なる他の処理点(他の注目点212(図3参照))と距離を算出し、算出された距離が第1閾値以下である他の処理点を選択し、選択された第1注目点211と複数の他の処理点とをグループ化することとしてもよい。一方、推定部15は、選択された第1注目点211と複数の他の処理点との数(合計数)が第2閾値以下の場合にはグループ化をしないこととしてもよい。 The estimation unit 15 groups the point cloud data classified as non-road surfaces by the classification unit 14 into mutually adjacent point groups 201 (reflection points 201b) within a predetermined distance, and divides the grouped reflection points 201c (Fig. 3 and 4)). In this case, the estimation unit 15 selects one processing point among the reflection points 201b as the first point of interest 211 (see FIG. 3), and selects the first point of interest 211 and the first point of interest 211 among the reflection points 201b. calculates the distance from another different processing point (other point of interest 212 (see FIG. 3)), selects another processing point for which the calculated distance is less than or equal to the first threshold, and selects the selected first point of interest. 211 and a plurality of other processing points may be grouped together. On the other hand, the estimation unit 15 may not perform grouping if the number (total number) of the selected first point of interest 211 and a plurality of other processing points is less than or equal to the second threshold.

図3は、クッションドラム300aについて説明するための図である。
より具体的には、推定部15は、非道路面に分類される反射点201bをグループ化の対象とする。この場合、推定部15は、グループ化の対象となる反射点201b(処理対象点群)から、一例として、kd-treeを作成する。kd-treeは、空間内に存在する点を分類する空間分割データ構造である。
まず、推定部15は、クラスタ判定を行う。推定部15は、このクラスタ判定において、処理対象点群から1点(第1注目点211)を選択してチェックリストに追加すると共に、処理対象点群のうち第1注目点211を除く他の1点(他の注目点212)を選択する。推定部15は、第1注目点211と他の注目点212との距離を算出する。推定部15は、算出された距離が第1閾値以下であれば、他の注目点212をチェックリストに追加する。推定部15は、チェックリストに追加された複数の注目点を1つのクラスタとして特定する。推定部15は、クラスタとして特定された注目点(点群201(反射点201b))を処理対象点群から除き、全ての点群(反射点)201でクラスタが特定されるまで、上述した処理を繰り返す。推定部15は、上記の処理のようにして特定されたクラスタを構成する注目点(点群(反射点)201)の数が最小要素数(第2閾値)以下のクラスタを除去する。
FIG. 3 is a diagram for explaining the cushion drum 300a.
More specifically, the estimation unit 15 groups reflection points 201b classified as non-road surfaces. In this case, the estimation unit 15 creates, for example, a kd-tree from the reflection points 201b (processing target points) to be grouped. A kd-tree is a space-partitioned data structure that classifies points existing in space.
First, the estimation unit 15 performs cluster determination. In this cluster determination, the estimation unit 15 selects one point (first point of interest 211) from the point group to be processed and adds it to the checklist, and also selects one point (first point of interest 211) from the point group to be processed and adds it to the checklist. One point (other points of interest 212) is selected. The estimation unit 15 calculates the distance between the first point of interest 211 and another point of interest 212. If the calculated distance is less than or equal to the first threshold, the estimation unit 15 adds another point of interest 212 to the checklist. The estimation unit 15 identifies the plurality of points of interest added to the checklist as one cluster. The estimation unit 15 removes the points of interest identified as clusters (point group 201 (reflection points 201b)) from the processing target point group, and performs the above-described processing until clusters are identified in all point groups (reflection points) 201. repeat. The estimation unit 15 removes clusters in which the number of points of interest (point groups (reflection points) 201) constituting the clusters identified through the above processing is equal to or less than the minimum number of elements (second threshold).

第1閾値は、1つの地物300をクラスタとしてグループ化することができる長さである。第1閾値の具体的な一例は、5cm、10cm、15cm又は20cm等の値であってもよいし、これ以外の値であってもよい。
最小要素数(第2閾値)は、例えば、クラスタをグループ化して1つの地物300として推定するために、推定対象の地物300に応じて推定部15に適宜設定される値である。最小要素数の具体的な一例は、10、20、30、40又は50等の値であってもよいし、これ以外の数値であってもよい。
The first threshold is a length that allows one feature 300 to be grouped as a cluster. A specific example of the first threshold value may be a value such as 5 cm, 10 cm, 15 cm, or 20 cm, or a value other than these.
The minimum number of elements (second threshold) is a value that is appropriately set in the estimation unit 15 according to the estimation target feature 300, for example, in order to group clusters and estimate them as one feature 300. A specific example of the minimum number of elements may be a value such as 10, 20, 30, 40, or 50, or a value other than these.

推定部15は、グループ化された反射点201c(点群)について、予め設定された地物300の形状に対応付けを行い、反射点201c(点群)と形状とが対応付けられる場合に、その形状の地物300として推定することとしてもよい。 The estimation unit 15 associates the grouped reflection points 201c (point group) with the shape of the feature 300 set in advance, and when the reflection points 201c (point group) and the shape are associated, It may also be estimated as the terrestrial feature 300 having that shape.

例えば、推定部15は、グループ化された反射点201c(点群)と、予め設定された円筒形状とが対応付けられる場合、反射点201c(点群)のサイズに応じて、地物300としてのクッションドラム300a及びラバーポール300bの一方に推定することとしてもよい。具体的な一例として、推定部15は、クッションドラム300a及びラバーポール300bについては、3D点群処理のためのライブラリPoint Cloud LibraryのCylinder model segmentationを適用し、半径及び中心軸方向等のパラメータを調整することにより、推定することができる。 For example, when the grouped reflection points 201c (point cloud) are associated with a preset cylindrical shape, the estimation unit 15 determines the size of the reflection points 201c (point cloud) as the feature 300. It is also possible to estimate one of the cushion drum 300a and the rubber pole 300b. As a specific example, the estimation unit 15 applies cylinder model segmentation of the library Point Cloud Library for 3D point cloud processing to the cushion drum 300a and the rubber pole 300b, and adjusts parameters such as radius and central axis direction. It can be estimated by

すなわち、クッションドラム300a及びラバーポール300bは、一般的に円筒形状である。このため、推定部15は、グループ化された反射点201c(点群)について円筒のフィッティングを行って半径及び軸の向きを取得することにより、クッションドラム300a及びラバーポール300bの推定が可能である。
また、一例として、クッションドラム300aの直径は約580mmであり、ラバーポール300bの直径は約80mmのものが多い。このため、上述した半径にクッションドラム300aとラバーポール300bとを区別する閾値を設定することで、推定部15は、クッションドラム300aとラバーポール300bとを区別することとしてもよい。
That is, the cushion drum 300a and the rubber pole 300b generally have a cylindrical shape. Therefore, the estimation unit 15 can estimate the cushion drum 300a and the rubber pole 300b by performing cylindrical fitting on the grouped reflection points 201c (point group) and acquiring the radius and axis direction. .
Further, as an example, the diameter of the cushion drum 300a is about 580 mm, and the diameter of the rubber pole 300b is often about 80 mm. Therefore, the estimating unit 15 may distinguish between the cushion drum 300a and the rubber pole 300b by setting a threshold value for distinguishing between the cushion drum 300a and the rubber pole 300b in the radius described above.

また、推定部15は、円筒のフィッティングに上述したCylinder model segmentationを適用する。この場合、推定部15は、円筒の中心軸の方向ベクトル220(図3参照)も得ることができる。クッションドラム300a及びラバーポール300bの中心軸は、道路面に対して垂直になっている場合が多い。このため、推定部15は、フィッティングにより得られた円筒の中心軸の方向ベクトル220が道路面に対して垂直であれば、クッションドラム300a及びラバーポール300bとして推定することとしてもよい。 Furthermore, the estimation unit 15 applies the above-described cylinder model segmentation to cylinder fitting. In this case, the estimation unit 15 can also obtain the direction vector 220 (see FIG. 3) of the central axis of the cylinder. The central axes of the cushion drum 300a and the rubber pole 300b are often perpendicular to the road surface. Therefore, if the direction vector 220 of the central axis of the cylinder obtained by fitting is perpendicular to the road surface, the estimation unit 15 may estimate the cylinder as the cushion drum 300a and the rubber pole 300b.

なお、推定部15は、上記の推定の際に、グループ化された反射点201c(点群)(フィッティングされた円筒)の高さに閾値を設定しておき、フィッティングされた円筒の高さが閾値以下であれば、クッションドラム300a及びラバーポール300bとして推定することとしてもよい。一例として、クッションドラム300a及びラバーポール300bの高さは数種類に限定されているため、最も高いもの合わせて上述した高さの閾値を設定することとしてもよい。 Note that during the above estimation, the estimation unit 15 sets a threshold value for the height of the grouped reflection points 201c (point group) (fitted cylinder), and determines that the height of the fitted cylinder is If it is below the threshold value, it may be estimated as the cushion drum 300a and the rubber pole 300b. As an example, since the heights of the cushion drum 300a and the rubber pole 300b are limited to several types, the above-mentioned height threshold may be set for the highest one.

図4は、植生300cについて説明するための図である。
推定部15は、道路の延長方向に沿って存在する複数の反射点201bのうち、その延長方向に対して交差する横断方向(道路の幅方向W)にばらつきのある反射点201bをグループ化してクラスタリングを行い、そのクラスタリングが行われた反射点201c(点群)が、予め設定された植生300cの特徴点の分布に対応する場合に、地物300としての植生300cとして推定することとしてもよい。具体的な一例として、推定部15は、上空から投影した反射点201bが道路の幅方向Wにばらつく箇所を植生存在候補箇所として設定し、その箇所の画像がHarrisコーナ検出等の手法で特徴点を算出し、予め植生300cと判明している特徴点分布に合致するものを植生300cと推定することができる。
FIG. 4 is a diagram for explaining the vegetation 300c.
The estimation unit 15 groups reflection points 201b that vary in the transverse direction (road width direction W) intersecting the extension direction among the plurality of reflection points 201b existing along the extension direction of the road. If clustering is performed and the clustered reflection points 201c (point group) correspond to a preset distribution of feature points of the vegetation 300c, it may be estimated as the vegetation 300c as the feature 300. . As a specific example, the estimation unit 15 sets a location where the reflection points 201b projected from the sky vary in the width direction W of the road as a vegetation presence candidate location, and the image of that location is detected as a feature point using a method such as Harris corner detection. It is possible to calculate the vegetation 300c, and to estimate that the vegetation 300c matches the feature point distribution that is known in advance to be the vegetation 300c.

推定部15は、第2取得部13によって取得された画像データに基づいて地物300の色を取得し、取得した地物300の色に基づいてその地物300を推定することとしてもよい。例えば、地物300がクッションドラム300aの場合には、地物300の色が黄色又はオレンジ色等で、黄色と黒色の縞模様若しくは市松模様、又は、オレンジ色と銀色の縞模様若しくは市松模様等が加わっている。例えば、地物300がラバーポール300bの場合には、地物300の色が黄色、オレンジ色又は緑色等で、銀色の縞模様、又は、黄色と黒色の縞模様等が加わっている。例えば、地物300が植生300cの場合には、例えば、色が緑色になる。なお、上述した地物300の一例の他にも、種々の地物それぞれには色(特徴的な色)が付されている。推定部15は、点群データと、画像データに記録される地物300の色とのそれぞれの特徴に基づいて、地物300を推定することとしてもよい。 The estimation unit 15 may acquire the color of the feature 300 based on the image data acquired by the second acquisition unit 13, and estimate the color of the feature 300 based on the acquired color of the feature 300. For example, when the feature 300 is a cushion drum 300a, the color of the feature 300 is yellow or orange, and has a yellow and black striped pattern or checkered pattern, or an orange and silver striped pattern or checkered pattern, etc. has been added. For example, when the feature 300 is a rubber pole 300b, the color of the feature 300 is yellow, orange, or green, and a silver striped pattern or a yellow and black striped pattern is added. For example, when the feature 300 is vegetation 300c, the color becomes green, for example. In addition to the example of the terrestrial feature 300 described above, colors (characteristic colors) are assigned to each of various terrestrial features. The estimation unit 15 may estimate the feature 300 based on the respective characteristics of the point cloud data and the color of the feature 300 recorded in the image data.

また、推定部15は、点群データに加えて、画像データを利用して地物300の形状(特徴)を推定することとしてもよい。推定部15は、例えば、画像データに地物300が記録される場合、その画像データに記録される地物300の形状を推定することが可能である。例えば、推定部15は、地物300の形状を学習した学習モデル、又は、パターンマッチング等を利用して、地物300の形状を推定することが可能である。推定部15は、点群データと、画像データに記録される地物300の形状及び地物300の色とのそれぞれの特徴に基づいて、地物300を推定することとしてもよい。
なお、推定部15は、上述した一例のように、地物300としてクッションドラム300a、ラバーポール300b及び植生300cを推定するばかりでなく、種々の地物を推定することとしてもよい。
Furthermore, the estimation unit 15 may estimate the shape (features) of the feature 300 using image data in addition to point cloud data. For example, when the feature 300 is recorded in image data, the estimation unit 15 can estimate the shape of the feature 300 recorded in the image data. For example, the estimation unit 15 can estimate the shape of the feature 300 using a learning model that has learned the shape of the feature 300, pattern matching, or the like. The estimating unit 15 may estimate the feature 300 based on the point cloud data, the shape of the feature 300, and the color of the feature 300 recorded in the image data.
Note that the estimating unit 15 may not only estimate the cushion drum 300a, the rubber pole 300b, and the vegetation 300c as the terrestrial objects 300, as in the example described above, but may also estimate various terrestrial objects.

出力制御部16は、推定部15によって推定された地物300を出力するよう出力部を制御する。出力部は、例えば、表示部19であってもよく、記憶部18あってもよい。例えば、出力制御部16は、推定部15によって推定された地物300を表示部19に表示することとしてよい。この場合、出力制御部16は、地図情報に基づく道路地図に地物300の位置を重ねて表示部19に表示することとしてもよい。また、例えば、出力制御部16は、推定部15によって推定された地物300に関する情報を記憶部18に記憶することとしてもよい。また、出力部は、通信部17であってもよい。この場合、例えば、出力制御部16は、推定部15によって推定された地物300に関する情報を外部(例えば、サーバ100等)に送信するよう通信部17を制御することとしてもよい。 The output control unit 16 controls the output unit to output the feature 300 estimated by the estimation unit 15. The output section may be, for example, the display section 19 or the storage section 18. For example, the output control unit 16 may display the feature 300 estimated by the estimation unit 15 on the display unit 19. In this case, the output control unit 16 may display on the display unit 19 the position of the feature 300 superimposed on the road map based on the map information. Further, for example, the output control unit 16 may store information regarding the feature 300 estimated by the estimation unit 15 in the storage unit 18. Further, the output section may be the communication section 17. In this case, for example, the output control unit 16 may control the communication unit 17 to transmit information regarding the feature 300 estimated by the estimation unit 15 to the outside (for example, the server 100 etc.).

制御部11は、推定部15によって推定された地物300の位置に基づいて、道路の路肩縁400(図2参照)を特定することとしてもよい。すなわち、制御部11は、推定部15によって推定された地物300の位置を道路の路肩縁400として特定することとしてもよい。路肩縁400は、例えば、車両が緊急停車する際の停車限界を示す。
この場合、制御部11は、推定部15によって推定された複数の地物300のうち、道路の延長方向に対して交差する方向(道路の幅方向W)に複数の地物300がある場合、最も道路の中央側に位置する地物300の境界(位置)を路肩縁400とすることとしてもよい(図2参照)。一例として、道路の路肩には、道路の中央方向により近い位置にガードレール又はラバーポール300bがあり、それの背後(道路の中央方向からより離れた位置)に植生300cがある場合がある。このように道路の幅方向Wに複数の地物300が有る場合でも、制御部11は、道路の幅方向Wにおいて、その道路の中央方向に最も近い位置に有る地物300の位置を路肩縁400として特定する。
The control unit 11 may specify the road shoulder edge 400 (see FIG. 2) based on the position of the feature 300 estimated by the estimation unit 15. That is, the control unit 11 may specify the position of the feature 300 estimated by the estimation unit 15 as the shoulder edge 400 of the road. The road shoulder edge 400 indicates, for example, a stopping limit when a vehicle makes an emergency stop.
In this case, the control unit 11 determines that among the plurality of features 300 estimated by the estimation unit 15, if there are a plurality of features 300 in a direction intersecting the road extension direction (road width direction W), The boundary (position) of the feature 300 located closest to the center of the road may be the road shoulder edge 400 (see FIG. 2). As an example, on the shoulder of a road, there may be a guardrail or rubber pole 300b at a position closer to the center of the road, and vegetation 300c behind it (at a position farther from the center of the road). Even when there are a plurality of features 300 in the width direction W of the road, the control unit 11 determines the position of the feature 300 closest to the center of the road in the width direction W of the road. 400.

制御部11は、路肩縁400を地図情報に登録することとしてもよい。制御部11は、路肩縁400の位置を特定できるため、地図情報の対応する位置の道路に路肩縁400を登録する。 The control unit 11 may register the road shoulder edge 400 in the map information. Since the control unit 11 can specify the position of the road shoulder edge 400, it registers the road shoulder edge 400 on the road at the corresponding position in the map information.

制御部11は、路肩縁400が登録された地図情報をサーバ100に送信するよう通信部17を制御することとしてもよい。サーバ100は、路肩縁400が登録された地図情報を車両(図示せず)のナビゲーション装置(図示せず)に送信することとしてもよい。
又は、制御部11は、路肩縁400に関する情報をサーバ100に送信するよう通信部17を制御することとしてもよい。サーバ100は、路肩縁400に関する情報を車両のナビゲーション装置に送信することとしてもよい。ナビゲーション装置は、路肩縁400に関する情報を自機が使用する地図情報に登録することとしてもよい。
これにより、ナビゲーション装置は、路肩縁400が登録された地図情報を利用して、道路案内及び緊急停車が可能な位置への誘導を行うことが可能になる。
The control unit 11 may control the communication unit 17 to transmit map information in which the road edge 400 is registered to the server 100. The server 100 may transmit map information in which the road edge 400 is registered to a navigation device (not shown) of a vehicle (not shown).
Alternatively, the control unit 11 may control the communication unit 17 to transmit information regarding the roadside edge 400 to the server 100. The server 100 may transmit information regarding the road shoulder edge 400 to the navigation device of the vehicle. The navigation device may register information regarding the road shoulder edge 400 in the map information used by the navigation device.
Thereby, the navigation device can use the map information in which the road edge 400 is registered to provide road guidance and guide the vehicle to a position where an emergency stop is possible.

次に、一実施形態に係る情報処理方法について説明する。
図5は、一実施形態に係る情報処理方法について説明するためのフローチャートである。
Next, an information processing method according to an embodiment will be described.
FIG. 5 is a flowchart for explaining an information processing method according to an embodiment.

ステップST101において、第1取得部12は、地表面を含む周囲の領域にレーザを照射することにより計測される点群データを取得する。第1取得部12は、例えば、道路の路肩等にある地物300を取得したい特定領域(道路)において計測された点群データを取得する。 In step ST101, the first acquisition unit 12 acquires point cloud data measured by irradiating a laser onto a surrounding area including the ground surface. The first acquisition unit 12 acquires point cloud data measured in a specific area (road) in which it is desired to acquire a feature 300 on the shoulder of a road, for example.

ステップST102において、第2取得部13は、地表面を含む周囲の領域を撮像して得られる画像データを取得する。第2取得部13は、第1取得部12によって取得される点群データが計測された特定領域(道路)と同じ特定領域の画像データを取得する。 In step ST102, the second acquisition unit 13 acquires image data obtained by imaging the surrounding area including the ground surface. The second acquisition unit 13 acquires image data of the same specific area (road) where the point cloud data acquired by the first acquisition unit 12 was measured.

ステップST103において、分類部14は、ステップST101で取得される点群データに基づいて、地表面を道路面及び非道路面に分類する。ここで、例えば、分類部14は、同一平面内にあるレーザ光の反射点201aを道路面に分類し、それ以外の反射点201bを非道路面に分類することとしてもよい。
なお、分類部14は、ステップST101で取得される点群データ、及び、ステップST102で取得される画像データに基づいて、地表面を含む周囲の領域を道路面及び非道路面に分類することとしてもよい。
In step ST103, the classification unit 14 classifies the ground surface into road surfaces and non-road surfaces based on the point cloud data acquired in step ST101. Here, for example, the classification unit 14 may classify the laser beam reflection points 201a within the same plane as road surfaces, and classify the other reflection points 201b as non-road surfaces.
Note that the classification unit 14 classifies the surrounding area including the ground surface into a road surface and a non-road surface based on the point cloud data obtained in step ST101 and the image data obtained in step ST102. Good too.

ステップST104において、推定部15は、ステップST103で非道路面と分類された反射点201bに基づいて、地物300を推定する。
この場合、推定部15は、反射点201bのうち1つの処理点を第1注目点211として選択し、第1注目点211と、反射点201bのうち第1注目点211とは異なる他の処理点(他の注目点212)と距離を算出し、算出された距離が第1閾値以下である他の処理点(他の注目点212)を選択し、選択された第1注目点211と複数の他の処理点(他の注目点212)とをグループ化することとしてもよい。
推定部15は、グループ化された反射点201c(点群)について、予め設定された地物300の形状に対応付けを行い、反射点201c(点群)と形状とが対応付けられる場合に、その形状の地物300として推定することとしてもよい。例えば、推定部15は、グループ化された反射点201c(点群)と、予め設定された円筒形状とが対応付けられる場合、反射点201c(点群)のサイズに応じて、地物300としてのクッションドラム300a及びラバーポール300bの一方に推定することとしてもよい。また、例えば、推定部15は、道路の延長方向に沿って存在する複数の反射点201bのうち、その延長方向に対して交差する横断方向(道路の幅方向W)にばらつきのある反射点201bをグループ化してクラスタリングを行い、そのクラスタリングが行われた反射点201c(点群)が、予め設定された植生300cの特徴点の分布に対応する場合に、地物300としての植生300cとして推定することとしてもよい。
In step ST104, the estimation unit 15 estimates the feature 300 based on the reflection point 201b classified as a non-road surface in step ST103.
In this case, the estimation unit 15 selects one processing point among the reflection points 201b as the first point of interest 211, and performs another process different from the first point of interest 211 among the reflection points 201b. (other points of interest 212), select other processing points (other points of interest 212) for which the calculated distance is less than or equal to the first threshold, and connect the selected first point of interest 211 and multiple points of interest. It is also possible to group together other processing points (other points of interest 212).
The estimation unit 15 associates the grouped reflection points 201c (point group) with the shape of the feature 300 set in advance, and when the reflection points 201c (point group) and the shape are associated, It may also be estimated as the terrestrial feature 300 having that shape. For example, when the grouped reflection points 201c (point cloud) are associated with a preset cylindrical shape, the estimation unit 15 determines the size of the reflection points 201c (point cloud) as the feature 300. It is also possible to estimate one of the cushion drum 300a and the rubber pole 300b. For example, the estimating unit 15 may determine which reflection points 201b have variations in the transverse direction (the width direction W of the road) intersecting the extension direction among the plurality of reflection points 201b existing along the extension direction of the road. are grouped and clustered, and when the clustered reflection points 201c (point group) correspond to a preset distribution of feature points of the vegetation 300c, it is estimated as the vegetation 300c as the feature 300. It may also be a thing.

ステップST105において、出力制御部16は、ステップST104で推定された地物300を出力する。例えば、出力制御部16は、ステップST104で推定された地物300を表示部19に表示することとしてよい。また、例えば、出力制御部16は、ステップST104で推定された地物300に関する情報を記憶部18に記憶することとしてもよい。また、例えば、出力制御部16は、ステップST104で推定された地物300に関する情報を外部(例えば、サーバ100等)に送信するよう通信部17を制御することとしてもよい。 In step ST105, the output control unit 16 outputs the feature 300 estimated in step ST104. For example, the output control unit 16 may display the feature 300 estimated in step ST104 on the display unit 19. Further, for example, the output control unit 16 may store information regarding the feature 300 estimated in step ST104 in the storage unit 18. Further, for example, the output control unit 16 may control the communication unit 17 to transmit the information regarding the feature 300 estimated in step ST104 to the outside (for example, the server 100, etc.).

なお、制御部11は、ステップST104で推定された地物300の位置に基づいて路肩縁400を特定することとしてもよい。制御部11は、特定された路肩縁400を地図情報に登録することとしてもよい。路肩縁400が登録された地図情報は、例えば、ナビゲーション装置(図示せず)等によって利用される。 Note that the control unit 11 may specify the road shoulder edge 400 based on the position of the feature 300 estimated in step ST104. The control unit 11 may register the identified road shoulder edge 400 in the map information. The map information in which the road shoulder edge 400 is registered is used by, for example, a navigation device (not shown).

次に、本実施形態の効果について説明する。
情報処理装置1は、地表面にレーザを照射することにより計測される点群データを取得する第1取得部12と、第1取得部12によって取得された点群データに基づいて、地表面を道路面及び非道路面に分類する分類部14と、分類部14によって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点201b毎にグループ化し、グループ化した反射点201c(点群)の特徴に基づいて地物300を推定する推定部15と、推定部15によって推定された地物300を出力する出力部と、を備える。
これにより、情報処理装置1は、推定された地物300を、道路地図を再生する場合に利用することができる。すなわち、情報処理装置1は、推定された地物300の位置に基づいて路肩縁400を特定することができ、この路肩縁400を道路地図に登録することができる。また、情報処理装置1は、推定された地物300の位置を道路地図に登録することができる。
また、情報処理装置1は、例えば、モバイルマッピングシステムで得られるデータに基づいて地物300を推定するので、より早く効率的に地物300を推定することができる。
Next, the effects of this embodiment will be explained.
The information processing device 1 includes a first acquisition unit 12 that acquires point cloud data measured by irradiating the earth surface with a laser, and a first acquisition unit 12 that acquires point cloud data measured by irradiating the earth surface with a laser. The classification unit 14 classifies road surfaces and non-road surfaces, and the point cloud data classified as non-road surfaces by the classification unit 14 is grouped by mutually adjacent reflection points 201b within a predetermined distance, and the grouped reflections are The estimation unit 15 includes an estimation unit 15 that estimates the feature 300 based on the characteristics of the points 201c (point group), and an output unit that outputs the feature 300 estimated by the estimation unit 15.
Thereby, the information processing device 1 can use the estimated feature 300 when reproducing a road map. That is, the information processing device 1 can specify the road shoulder edge 400 based on the estimated position of the feature 300, and can register this road shoulder edge 400 in the road map. Furthermore, the information processing device 1 can register the estimated position of the feature 300 on the road map.
Further, since the information processing device 1 estimates the feature 300 based on data obtained by a mobile mapping system, for example, the information processing device 1 can estimate the feature 300 more quickly and efficiently.

情報処理装置1では、推定部15は、反射点201bのうち1つの処理点を第1注目点211として選択し、第1注目点211と、反射点201bのうち第1注目点211とは異なる他の処理点(他の注目点212)と距離を算出し、算出された距離が第1閾値以下である他の処理点(他の注目点212)を選択し、選択された第1注目点211と複数の他の処理点(他の注目点212)とをグループ化することとしてもよい。
これにより、情報処理装置1は、互いに隣接する反射点201bをクラスタとしてグループ化することができる。
In the information processing device 1, the estimation unit 15 selects one processing point among the reflection points 201b as the first point of interest 211, and the first point of interest 211 is different from the first point of interest 211 among the reflection points 201b. Distances from other processing points (other points of interest 212) are calculated, other processing points (other points of interest 212) for which the calculated distance is less than or equal to the first threshold are selected, and the selected first point of interest 211 and a plurality of other processing points (other points of interest 212) may be grouped together.
Thereby, the information processing device 1 can group mutually adjacent reflection points 201b as a cluster.

情報処理装置1では、推定部15は、選択された第1注目点211と複数の他の処理点(他の注目点212)との数が第2閾値以下の場合にはグループ化をしないこととしてもよい。
これにより、情報処理装置1は、1つの地物300を構成するクラスタとしては反射点201bの数が少ないものはグループ化をしないので、地物300を誤って推定することを抑制することができる。
In the information processing device 1, the estimation unit 15 does not perform grouping when the number of the selected first point of interest 211 and a plurality of other processing points (other points of interest 212) is equal to or less than a second threshold. You can also use it as
As a result, the information processing device 1 does not group clusters constituting one feature 300 that have a small number of reflection points 201b, so that it is possible to suppress erroneous estimation of the feature 300. .

情報処理装置1では、推定部15は、グループ化された反射点201c(点群)について、予め設定された地物300の形状に対応付けを行い、反射点201c(点群)と形状とが対応付けられる場合に、その形状の地物300として推定することとしてもよい。
これにより、情報処理装置1は、地物300の形状として、例えば、クッションドラム300a、ラバーポール300b及び植生300c等の特徴形状が特定されている場合には、グループ化された反射点201c(点群)がその地物300として推定することができる。
In the information processing device 1, the estimation unit 15 associates the grouped reflection points 201c (point cloud) with the shape of the feature 300 set in advance, and determines whether the reflection points 201c (point cloud) and the shape are related to each other. If there is a correspondence, it may be estimated as the terrestrial feature 300 having that shape.
As a result, the information processing device 1 can detect the grouped reflection points 201c (points group) can be estimated as the feature 300.

情報処理装置1では、推定部15は、グループ化された反射点201c(点群)と、予め設定された円筒形状とが対応付けられる場合、反射点201c(点群)のサイズに応じて、地物300としてのクッションドラム300a及びラバーポール300bの一方に推定することとしてもよい。
これにより、情報処理装置1は、地物300としてクッションドラム300a及びラバーポール300bを推定することができる。
In the information processing device 1, when the grouped reflection points 201c (point group) are associated with a preset cylindrical shape, the estimation unit 15 calculates, according to the size of the reflection points 201c (point group), It is also possible to estimate one of the cushion drum 300a and the rubber pole 300b as the terrestrial feature 300.
Thereby, the information processing device 1 can estimate the cushion drum 300a and the rubber pole 300b as the features 300.

情報処理装置1では、推定部15は、道路の延長方向に沿って存在する複数の反射点201bのうち、延長方向に対して交差する横断方向(道路の幅方向W)にばらつきのある反射点201bをグループ化してクラスタリングを行い、そのクラスタリングが行われた反射点201c(点群)が、予め設定された植生300cの特徴点の分布に対応する場合に、地物300としての植生300cとして推定することとしてもよい。
これにより、情報処理装置1は、地物300として植生300cを推定することができる。
In the information processing device 1, the estimation unit 15 selects reflection points that vary in the transverse direction (road width direction W) that intersects the extension direction, among the plurality of reflection points 201b that exist along the extension direction of the road. 201b are grouped and clustered, and when the clustered reflection points 201c (point group) correspond to a preset distribution of feature points of the vegetation 300c, it is estimated as the vegetation 300c as the feature 300. You can also do it.
Thereby, the information processing device 1 can estimate the vegetation 300c as the feature 300.

情報処理装置1は、地表面を含む周囲を撮像して得られる画像データを取得する第2取得部13を備えることとしてもよい。この場合、分類部14は、第1取得部12によって取得された点群データに加えて、第2取得部13によって取得された画像データに基づいて、地表面を道路面及び非道路面に分類することとしてもよい。
これにより、情報処理装置1は、モバイルマッピングシステムで得られる点群データ及び画像データを利用して、点群201(反射点)を道路面及び非道路面のいずれかに分類することができる。
The information processing device 1 may include a second acquisition unit 13 that acquires image data obtained by imaging the surrounding area including the ground surface. In this case, the classification unit 14 classifies the ground surface into road surfaces and non-road surfaces based on the image data acquired by the second acquisition unit 13 in addition to the point cloud data acquired by the first acquisition unit 12. You can also do it.
Thereby, the information processing device 1 can classify the point group 201 (reflection points) into either a road surface or a non-road surface using the point cloud data and image data obtained by the mobile mapping system.

情報処理装置1では、推定部15は、第2取得部13によって取得された画像データに基づいて地物300の色を取得し、取得した地物300の色に基づいて、その地物300を推定することとしてもよい。
地物300には特徴的な色が付されている場合がある。このため、情報処理装置1は、画像データから得られる色の情報を利用することにより、地物300を推定することができる。
In the information processing device 1, the estimation unit 15 acquires the color of the feature 300 based on the image data acquired by the second acquisition unit 13, and determines the color of the feature 300 based on the acquired color of the feature 300. It may also be estimated.
The feature 300 may be given a characteristic color. Therefore, the information processing device 1 can estimate the feature 300 by using color information obtained from the image data.

情報処理方法では、コンピュータが、地表面にレーザを照射することにより計測される点群データを取得する第1取得ステップと、第1取得ステップによって取得された点群データに基づいて、地表面を道路面及び非道路面に分類する分類ステップと、分類ステップによって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点201b毎にグループ化し、グループ化した反射点201c(点群)の特徴に基づいて地物300を推定する推定ステップと、推定ステップによって推定された地物300を出力する出力ステップと、を実行する。
これにより、情報処理方法は、推定された地物300を、道路地図を再生する場合に利用することができる。すなわち、情報処理方法は、推定された地物300の位置に基づいて路肩縁400を特定することができ、この路肩縁400を道路地図に登録することができる。また、情報処理方法は、推定された地物300の位置を道路地図に登録することができる。
また、情報処理方法は、例えば、モバイルマッピングシステムで得られるデータに基づいて地物300を推定するので、より早く効率的に地物300を推定することができる。
The information processing method includes a first acquisition step in which a computer acquires point cloud data measured by irradiating a laser onto the earth's surface; A classification step of classifying into road surfaces and non-road surfaces, and point cloud data classified into non-road surfaces by the classification step are grouped into mutually adjacent reflection points 201b within a predetermined distance, and grouped reflection points 201c. An estimation step of estimating the feature 300 based on the features of the (point group) and an output step of outputting the feature 300 estimated by the estimation step are executed.
Thereby, the information processing method can utilize the estimated feature 300 when reproducing a road map. That is, the information processing method can specify the road shoulder edge 400 based on the estimated position of the feature 300, and can register this road shoulder edge 400 in the road map. Furthermore, the information processing method can register the estimated position of the feature 300 on the road map.
Further, since the information processing method estimates the feature 300 based on data obtained by a mobile mapping system, for example, the feature 300 can be estimated more quickly and efficiently.

情報処理プログラムは、コンピュータに、地表面にレーザを照射することにより計測される点群データを取得する第1取得機能と、第1取得機能によって取得された点群データに基づいて、地表面を道路面及び非道路面に分類する分類機能と、分類機能によって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点201b毎にグループ化し、グループ化した反射点201c(点群)の特徴に基づいて地物300を推定する推定機能と、推定機能によって推定された地物300を出力する出力機能と、を実現させる。
これにより、情報処理プログラムは、推定された地物300を、道路地図を再生する場合に利用することができる。すなわち、情報処理プログラムは、推定された地物300の位置に基づいて路肩縁400を特定することができ、この路肩縁400を道路地図に登録することができる。また、情報処理プログラムは、推定された地物300の位置を道路地図に登録することができる。
また、情報処理プログラムは、例えば、モバイルマッピングシステムで得られるデータに基づいて地物300を推定するので、より早く効率的に地物300を推定することができる。
The information processing program includes a first acquisition function that acquires point cloud data measured by irradiating the ground surface with a laser, and an information processing program that causes the computer to acquire the ground surface based on the point cloud data acquired by the first acquisition function. A classification function that classifies road surfaces and non-road surfaces, and point cloud data that is classified as non-road surfaces by the classification function are grouped by mutually adjacent reflection points 201b within a predetermined distance, and grouped reflection points 201c. An estimation function for estimating a feature 300 based on the characteristics of a point group (point cloud) and an output function for outputting the feature 300 estimated by the estimation function are realized.
Thereby, the information processing program can use the estimated feature 300 when reproducing a road map. That is, the information processing program can specify the road shoulder edge 400 based on the estimated position of the feature 300, and can register this road shoulder edge 400 in the road map. Furthermore, the information processing program can register the estimated position of the feature 300 on the road map.
Further, since the information processing program estimates the feature 300 based on data obtained by a mobile mapping system, for example, the feature 300 can be estimated more quickly and efficiently.

上述した情報処理装置1の各部は、コンピュータの演算処理装置等の機能として実現されてもよい。すなわち、情報処理装置1の第1取得部12、第2取得部13、分類部14、推定部15及び出力制御部16は、コンピュータの演算処理装置等による第1取得機能、第2取得機能、分類機能、推定機能及び出力制御機能としてそれぞれ実現されてもよい。
情報処理プログラムは、上述した各機能をコンピュータに実現させることができる。情報処理プログラムは、外部メモリ又は光ディスク等の、コンピュータで読み取り可能な非一時的な記録媒体に記録されていてもよい。
また、上述したように、情報処理装置1の各部は、コンピュータの演算処理装置等で実現されてもよい。その演算処理装置等は、例えば、集積回路等によって構成される。このため、情報処理装置1の各部は、演算処理装置等を構成する回路として実現されてもよい。すなわち、情報処理装置1の第1取得部12、第2取得部13、分類部14、推定部15及び出力制御部16は、コンピュータの演算処理装置等を構成する第1取得回路、第2取得回路、分類回路、推定回路及び出力制御回路として実現されてもよい。
また、情報処理装置1の通信部17、記憶部18及び表示部19(出力部)は、例えば、演算処理装置等の機能を含む通信機能、記憶機能及び表示機能(出力機能)として実現されもよい。また、情報処理装置1の通信部17、記憶部18及び表示部19(出力部)は、例えば、集積回路等によって構成されることにより通信回路、記憶回路及び表示回路(出力回路)として実現されてもよい。また、情報処理装置1の通信部17、記憶部18及び表示部19(出力部)は、例えば、複数のデバイスによって構成されることにより通信装置、記憶装置及び表示装置(出力装置)として構成されてもよい。
Each part of the information processing device 1 described above may be realized as a function of a computer processing device or the like. That is, the first acquisition unit 12, the second acquisition unit 13, the classification unit 14, the estimation unit 15, and the output control unit 16 of the information processing device 1 have a first acquisition function, a second acquisition function, and Each of these functions may be implemented as a classification function, an estimation function, and an output control function.
The information processing program can cause a computer to realize each of the functions described above. The information processing program may be recorded on a computer-readable non-transitory recording medium such as an external memory or an optical disc.
Further, as described above, each part of the information processing device 1 may be realized by a calculation processing device of a computer or the like. The arithmetic processing device and the like are constituted by, for example, an integrated circuit or the like. Therefore, each part of the information processing device 1 may be realized as a circuit that constitutes an arithmetic processing device or the like. That is, the first acquisition section 12, the second acquisition section 13, the classification section 14, the estimation section 15, and the output control section 16 of the information processing device 1 are a first acquisition circuit, a second acquisition circuit, etc. that constitute an arithmetic processing device of a computer, etc. It may be realized as a circuit, a classification circuit, an estimation circuit, and an output control circuit.
Furthermore, the communication unit 17, storage unit 18, and display unit 19 (output unit) of the information processing device 1 may be realized as a communication function, a storage function, and a display function (output function) including, for example, functions such as an arithmetic processing unit. good. Furthermore, the communication section 17, storage section 18, and display section 19 (output section) of the information processing device 1 are realized as a communication circuit, a storage circuit, and a display circuit (output circuit) by being configured with an integrated circuit, for example. You can. Furthermore, the communication unit 17, storage unit 18, and display unit 19 (output unit) of the information processing device 1 may be configured as a communication device, a storage device, and a display device (output device) by being configured with a plurality of devices, for example. You can.

1 情報処理装置
11 制御部
12 第1取得部
13 第2取得部
14 分類部
15 推定部
16 出力制御部
17 通信部
18 記憶部
19 表示部
1 Information processing device 11 Control unit 12 First acquisition unit 13 Second acquisition unit 14 Classification unit 15 Estimation unit 16 Output control unit 17 Communication unit 18 Storage unit 19 Display unit

Claims (8)

車両が走行する道路と当該道路の路肩とを含む周囲の領域にレーザを照射して物体で反射される反射点を計測することにより生成される点群データを取得する第1取得部と、
前記第1取得部によって取得された点群データに基づいて、上下方向に所定距離内に収まる複数の反射点を車両が走行する道路面に分類し、当該道路面に分類されなかった反射点を非道路面に分類する分類部と、
前記分類部によって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点毎にグループ化し、グループ化した複数の反射点を点群とした当該点群の特徴と、予め対応付けられた地物の形状とに基づいて、点群に対応する地物を推定する推定部と、
前記推定部によって推定された地物を出力する出力部と、を備え、
前記推定部は、点群と、予め設定された円筒形状とが対応付けられる場合、点群について円筒のフィッティングを行って軸の向き、高さ及び半径を取得し、前記軸の向きが道路面に対して垂直であり、前記高さが当該高さに関する閾値以下である場合、前記半径がラバーポールとクッションドラムとを区別する当該区別に関する閾値より小さければラバーポールと推定し、前記半径が前記区別に関する閾値よりも大きければクッションドラムと推定する
情報処理装置。
a first acquisition unit that acquires point cloud data generated by irradiating a laser onto a surrounding area including the road on which the vehicle is traveling and the shoulder of the road and measuring reflection points reflected by objects;
Based on the point cloud data acquired by the first acquisition unit, a plurality of reflection points that fall within a predetermined distance in the vertical direction are classified into the road surface on which the vehicle runs, and reflection points that are not classified into the road surface are a classification unit that classifies it as a non-road surface;
The point cloud data classified as a non-road surface by the classification unit is grouped by mutually adjacent reflection points within a predetermined distance, and the characteristics of the point cloud are made of a plurality of grouped reflection points as a point group; an estimation unit that estimates a feature corresponding to the point cloud based on the shape of the feature that has been associated in advance ;
an output unit that outputs the feature estimated by the estimation unit ,
When the point group is associated with a preset cylindrical shape, the estimation unit performs cylinder fitting on the point group to obtain the axis direction, height, and radius, and the estimation unit determines that the direction of the axis is on the road surface. and if the height is less than or equal to the threshold for the height, if the radius is smaller than the threshold for distinguishing between a rubber pole and a cushion drum, it is assumed to be a rubber pole; If it is larger than the discrimination threshold, it is assumed to be a cushion drum.
Information processing device.
前記推定部は、
複数の反射点のうち1つの処理点を第1注目点として選択し、
第1注目点と、複数の反射点のうち第1注目点とは異なる他の処理点と距離を算出し、
算出された距離が第1閾値以下である他の処理点を選択し、
選択された第1注目点と複数の他の処理点とをグループ化する
請求項1に記載の情報処理装置。
The estimation unit is
Selecting one processing point among the plurality of reflection points as the first point of interest,
Calculate the distance between the first point of interest and another processing point different from the first point of interest among the plurality of reflection points,
selecting another processing point whose calculated distance is less than or equal to the first threshold;
The information processing apparatus according to claim 1, wherein the selected first point of interest and a plurality of other processing points are grouped.
前記推定部は、選択された第1注目点と複数の他の処理点との数が第2閾値以下の場合にはグループ化をしない
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the estimation unit does not perform grouping when the number of the selected first point of interest and the plurality of other processing points is less than or equal to a second threshold.
前記推定部は、道路の延長方向に沿って存在する複数の反射点のうち、延長方向に対して交差する横断方向にばらつきのある反射点をグループ化してクラスタリングを行い、当該クラスタリングが行われた反射点を点群として、予め設定された植生の特徴点の分布に対応する場合に、地物としての植生として推定する
請求項1~3のいずれか1項に記載の情報処理装置。
The estimation unit performs clustering by grouping reflection points that vary in a transverse direction intersecting the extension direction among a plurality of reflection points existing along the extension direction of the road, and performs clustering. Reflection points are used as a point group, and if they correspond to a preset distribution of feature points of vegetation, they are estimated as vegetation as a feature.
The information processing device according to any one of claims 1 to 3 .
前記周囲の領域を撮像して得られる画像データを取得する第2取得部を備え、
前記分類部は、前記第1取得部によって取得された点群データ、前記第2取得部によって取得された画像データとを対応付けた結果に基づいて、画像データに記録される地物が有る領域を非道路面に分類する
請求項1~4のいずれか1項に記載の情報処理装置。
comprising a second acquisition unit that acquires image data obtained by imaging the surrounding area ,
The classification unit determines whether there is a feature to be recorded in the image data based on the result of associating the point cloud data acquired by the first acquisition unit with the image data acquired by the second acquisition unit. Classify area as non-road surface
The information processing device according to any one of claims 1 to 4 .
前記推定部は、前記第2取得部によって取得された画像データに基づいて地物の色を取得し、取得した地物の色に基づいて当該地物を推定する
請求項5に記載の情報処理装置。
The estimation unit acquires the color of the feature based on the image data acquired by the second acquisition unit, and estimates the feature based on the acquired color of the feature.
The information processing device according to claim 5 .
コンピュータが、
車両が走行する道路と当該道路の路肩とを含む周囲の領域にレーザを照射して物体で反射される反射点を計測することにより生成される点群データを取得する第1取得ステップと、
前記第1取得ステップによって取得された点群データに基づいて、上下方向に所定距離内に収まる複数の反射点を車両が走行する道路面に分類し、当該道路面に分類されなかった反射点を非道路面に分類する分類ステップと、
前記分類ステップによって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点毎にグループ化し、グループ化した複数の反射点を点群とした当該点群の特徴と、予め対応付けられた地物の形状とに基づいて、点群に対応する地物を推定する推定ステップと、
前記推定ステップによって推定された地物を出力する出力ステップと、を実行し、
前記推定ステップは、点群と、予め設定された円筒形状とが対応付けられる場合、点群について円筒のフィッティングを行って軸の向き、高さ及び半径を取得し、前記軸の向きが道路面に対して垂直であり、前記高さが当該高さに関する閾値以下である場合、前記半径がラバーポールとクッションドラムとを区別する当該区別に関する閾値より小さければラバーポールと推定し、前記半径が前記区別に関する閾値よりも大きければクッションドラムと推定する
情報処理方法。
The computer is
a first acquisition step of acquiring point cloud data generated by irradiating a laser onto a surrounding area including the road on which the vehicle is traveling and the shoulder of the road and measuring reflection points reflected by objects;
Based on the point cloud data acquired in the first acquisition step, a plurality of reflection points that fall within a predetermined distance in the vertical direction are classified into the road surface on which the vehicle runs, and reflection points that are not classified into the road surface are a classification step of classifying the surface into a non-road surface;
The point cloud data classified as a non-road surface in the classification step is grouped by mutually adjacent reflection points within a predetermined distance, and the characteristics of the point cloud are made of a plurality of grouped reflection points as a point group; an estimation step of estimating a feature corresponding to the point cloud based on the shape of the feature that has been associated in advance ;
an output step of outputting the feature estimated by the estimation step ;
In the estimation step, when the point group is associated with a preset cylindrical shape, the point group is fitted with a cylinder to obtain the direction, height, and radius of the axis, and the direction of the axis is set to the road surface. and if the height is less than or equal to the threshold for the height, if the radius is smaller than the threshold for distinguishing between a rubber pole and a cushion drum, it is assumed to be a rubber pole; If it is larger than the discrimination threshold, it is assumed to be a cushion drum.
Information processing method.
コンピュータに、
車両が走行する道路と当該道路の路肩とを含む周囲の領域にレーザを照射して物体で反射される反射点を計測することにより生成される点群データを取得する第1取得機能と、
前記第1取得機能によって取得された点群データに基づいて、上下方向に所定距離内に収まる複数の反射点を車両が走行する道路面に分類し、当該道路面に分類されなかった反射点を非道路面に分類する分類機能と、
前記分類機能によって非道路面に分類される点群データについて所定の距離内にある互いに隣接する反射点毎にグループ化し、グループ化した複数の反射点を点群とした当該点群の特徴と、予め対応付けられた地物の形状とに基づいて、点群に対応する地物を推定する推定機能と、
前記推定機能によって推定された地物を出力する出力機能と、を実現させ、
前記推定機能は、点群と、予め設定された円筒形状とが対応付けられる場合、点群について円筒のフィッティングを行って軸の向き、高さ及び半径を取得し、前記軸の向きが道路面に対して垂直であり、前記高さが当該高さに関する閾値以下である場合、前記半径がラバーポールとクッションドラムとを区別する当該区別に関する閾値より小さければラバーポールと推定し、前記半径が前記区別に関する閾値よりも大きければクッションドラムと推定する
情報処理プログラム。
to the computer,
a first acquisition function that acquires point cloud data generated by irradiating a laser onto a surrounding area including the road on which the vehicle is traveling and the shoulder of the road and measuring reflection points reflected by objects;
Based on the point cloud data acquired by the first acquisition function, a plurality of reflection points that fall within a predetermined distance in the vertical direction are classified into the road surface on which the vehicle travels, and reflection points that are not classified into the road surface are A classification function for classifying into non-road surfaces,
The point cloud data classified as a non-road surface by the classification function is grouped by mutually adjacent reflection points within a predetermined distance, and the characteristics of the point cloud are made of a plurality of grouped reflection points as a point group; an estimation function that estimates a feature corresponding to the point cloud based on the shape of the feature that has been associated in advance ;
and an output function that outputs the features estimated by the estimation function ,
When a point cloud is associated with a preset cylindrical shape, the estimation function performs cylinder fitting on the point cloud to obtain the direction, height, and radius of the axis, and if the direction of the axis is on the road surface. and if the height is less than or equal to the threshold for the height, if the radius is smaller than the threshold for distinguishing between a rubber pole and a cushion drum, it is presumed to be a rubber pole; If it is larger than the discrimination threshold, it is assumed to be a cushion drum.
Information processing program.
JP2020082195A 2020-05-07 2020-05-07 Information processing device, information processing method, and information processing program Active JP7417466B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020082195A JP7417466B2 (en) 2020-05-07 2020-05-07 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082195A JP7417466B2 (en) 2020-05-07 2020-05-07 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2021177136A JP2021177136A (en) 2021-11-11
JP7417466B2 true JP7417466B2 (en) 2024-01-18

Family

ID=78409422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082195A Active JP7417466B2 (en) 2020-05-07 2020-05-07 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7417466B2 (en)

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006003263A (en) 2004-06-18 2006-01-05 Hitachi Ltd Visual information processor and application system
JP2008003941A (en) 2006-06-23 2008-01-10 Nissan Motor Co Ltd Road end recognition device, automobile and road end recognition method
JP2009075117A (en) 2007-02-16 2009-04-09 Mitsubishi Electric Corp Road feature measuring device, feature identifying device, road feature measuring method, road feature measuring program, measuring instrument, measuring method, measuring program, measured position data, measuring terminal device, measuring server device, drawing device, drawing method, drawing program, and drawing data
US20100104199A1 (en) 2008-04-24 2010-04-29 Gm Global Technology Operations, Inc. Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP2010160777A (en) 2008-12-12 2010-07-22 Toyota Central R&D Labs Inc Map generation device, track estimation device, movable area estimation device and program
JP2012083157A (en) 2010-10-08 2012-04-26 Mitsubishi Electric Corp Outdoor feature detection system, program for the same, and record media of program for the same
JP2012225806A (en) 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc Road gradient estimation device and program
JP2013140515A (en) 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc Solid object detection device and program
WO2013157301A1 (en) 2012-04-16 2013-10-24 日産自動車株式会社 Device for detecting three-dimensional object and method for detecting three-dimensional object
JP2014006588A (en) 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc Road surface boundary estimation device and program
JP2016035653A (en) 2014-08-01 2016-03-17 株式会社大林組 Movement control device, movement control method, movement control program, and target member for use in the same movement control method
JP2016126613A (en) 2015-01-06 2016-07-11 トヨタ自動車株式会社 Road boundary line recognizing device, and road boundary line recognizing method
JP2016218539A (en) 2015-05-15 2016-12-22 トヨタ自動車株式会社 Vehicle runway recognition device
JP2017009378A (en) 2015-06-19 2017-01-12 株式会社トヨタマップマスター Point group data processor, point group data processing method, program, and recording medium
JP2017166971A (en) 2016-03-16 2017-09-21 株式会社デンソー Object detection device and object detection program
JP2017167092A (en) 2016-03-18 2017-09-21 株式会社パスコ Feature detection device, feature detection method and program
WO2018083999A1 (en) 2016-11-01 2018-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Display method and display device
WO2018123641A1 (en) 2016-12-27 2018-07-05 日立オートモティブシステムズ株式会社 Travelable area detection device and travel assistance system
JP2018152036A (en) 2017-03-10 2018-09-27 国立大学法人電気通信大学 Artificial feature recognition device, artificial feature recognition method and artificial feature recognition program
JP2019114149A (en) 2017-12-25 2019-07-11 株式会社Subaru Vehicle outside environment recognition device
JP2020020694A (en) 2018-08-01 2020-02-06 トヨタ自動車株式会社 Axis deviation detector and vehicle
US20200118425A1 (en) 2018-10-11 2020-04-16 Toyota Research Institute, Inc. System and method for roadway context learning by infrastructure sensors

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006003263A (en) 2004-06-18 2006-01-05 Hitachi Ltd Visual information processor and application system
JP2008003941A (en) 2006-06-23 2008-01-10 Nissan Motor Co Ltd Road end recognition device, automobile and road end recognition method
JP2009075117A (en) 2007-02-16 2009-04-09 Mitsubishi Electric Corp Road feature measuring device, feature identifying device, road feature measuring method, road feature measuring program, measuring instrument, measuring method, measuring program, measured position data, measuring terminal device, measuring server device, drawing device, drawing method, drawing program, and drawing data
US20100104199A1 (en) 2008-04-24 2010-04-29 Gm Global Technology Operations, Inc. Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP2010160777A (en) 2008-12-12 2010-07-22 Toyota Central R&D Labs Inc Map generation device, track estimation device, movable area estimation device and program
JP2012083157A (en) 2010-10-08 2012-04-26 Mitsubishi Electric Corp Outdoor feature detection system, program for the same, and record media of program for the same
JP2012225806A (en) 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc Road gradient estimation device and program
JP2013140515A (en) 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc Solid object detection device and program
WO2013157301A1 (en) 2012-04-16 2013-10-24 日産自動車株式会社 Device for detecting three-dimensional object and method for detecting three-dimensional object
JP2014006588A (en) 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc Road surface boundary estimation device and program
JP2016035653A (en) 2014-08-01 2016-03-17 株式会社大林組 Movement control device, movement control method, movement control program, and target member for use in the same movement control method
JP2016126613A (en) 2015-01-06 2016-07-11 トヨタ自動車株式会社 Road boundary line recognizing device, and road boundary line recognizing method
JP2016218539A (en) 2015-05-15 2016-12-22 トヨタ自動車株式会社 Vehicle runway recognition device
JP2017009378A (en) 2015-06-19 2017-01-12 株式会社トヨタマップマスター Point group data processor, point group data processing method, program, and recording medium
JP2017166971A (en) 2016-03-16 2017-09-21 株式会社デンソー Object detection device and object detection program
JP2017167092A (en) 2016-03-18 2017-09-21 株式会社パスコ Feature detection device, feature detection method and program
WO2018083999A1 (en) 2016-11-01 2018-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Display method and display device
WO2018123641A1 (en) 2016-12-27 2018-07-05 日立オートモティブシステムズ株式会社 Travelable area detection device and travel assistance system
JP2018152036A (en) 2017-03-10 2018-09-27 国立大学法人電気通信大学 Artificial feature recognition device, artificial feature recognition method and artificial feature recognition program
JP2019114149A (en) 2017-12-25 2019-07-11 株式会社Subaru Vehicle outside environment recognition device
JP2020020694A (en) 2018-08-01 2020-02-06 トヨタ自動車株式会社 Axis deviation detector and vehicle
US20200118425A1 (en) 2018-10-11 2020-04-16 Toyota Research Institute, Inc. System and method for roadway context learning by infrastructure sensors

Also Published As

Publication number Publication date
JP2021177136A (en) 2021-11-11

Similar Documents

Publication Publication Date Title
US20190163958A1 (en) Methods and associated systems for grid analysis
CN109635816B (en) Lane line generation method, apparatus, device, and storage medium
EP4086846A1 (en) Automatic detection of a calibration standard in unstructured lidar point clouds
JP7046218B2 (en) Information processing equipment, information processing methods and programs
CN105849585A (en) Object recognition device
JP2018173749A (en) Road sign detection device, road sign detection method, program, and road surface detection device
JP5743020B2 (en) Three-dimensional object detection device
CN111739099B (en) Falling prevention method and device and electronic equipment
JP2019530924A (en) Object detection from camera images
CN113887433A (en) Obstacle detection method and device, computer equipment and storage medium
KR20220041485A (en) Method and apparatus for tracking an object using LIDAR sensor, vehicle including the apparatus, and recording medium for recording program performing the method
KR102367138B1 (en) Method of detection crosswalk using lidar sensor and crosswalk detection device performing method
JP6397386B2 (en) Region division processing apparatus, method, and program
JP7417466B2 (en) Information processing device, information processing method, and information processing program
US11861914B2 (en) Object recognition method and object recognition device
CN115661394A (en) Method for constructing lane line map, computer device and storage medium
JP7417465B2 (en) Information processing device, information processing method, and information processing program
CN116863325A (en) Method for multiple target detection and related product
JP7165630B2 (en) Recognition system, vehicle control system, recognition method, and program
KR20220128787A (en) Method and apparatus for tracking an object using LIDAR sensor, and recording medium for recording program performing the method
CN110909569B (en) Road condition information identification method and terminal equipment
WO2019116518A1 (en) Object detection device and object detection method
WO2024042607A1 (en) External world recognition device and external world recognition method
KR102423781B1 (en) Method of detecting guard-rail using lidar sensor and guard-rail detection device performing method
CN111414848B (en) Full-class 3D obstacle detection method, system and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240105

R150 Certificate of patent or registration of utility model

Ref document number: 7417466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150