JP6597352B2 - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP6597352B2
JP6597352B2 JP2016019788A JP2016019788A JP6597352B2 JP 6597352 B2 JP6597352 B2 JP 6597352B2 JP 2016019788 A JP2016019788 A JP 2016019788A JP 2016019788 A JP2016019788 A JP 2016019788A JP 6597352 B2 JP6597352 B2 JP 6597352B2
Authority
JP
Japan
Prior art keywords
data
point
point cloud
cloud data
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016019788A
Other languages
Japanese (ja)
Other versions
JP2017138219A (en
Inventor
秀明 三澤
映 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016019788A priority Critical patent/JP6597352B2/en
Publication of JP2017138219A publication Critical patent/JP2017138219A/en
Application granted granted Critical
Publication of JP6597352B2 publication Critical patent/JP6597352B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、測距点データから物体を認識する技術に関する。   The present invention relates to a technique for recognizing an object from distance measuring point data.

特許文献1では、測距点データから物体を認識する物体認識装置において、点群データにおける分布の状態によらず、水平方向と平行に点群データを分割し、分割した点群データのそれぞれの特徴量に基づいて物体を認識する技術が開示されている。   In Patent Document 1, in an object recognition device that recognizes an object from distance measurement point data, the point cloud data is divided in parallel with the horizontal direction regardless of the distribution state in the point cloud data, and each of the divided point cloud data is divided. A technique for recognizing an object based on a feature amount is disclosed.

特開2012−221456号公報JP 2012-212456 A

しかしながら、上記の物体認識装置では、常に水平方向と平行に点群データを分割するので、物体の形状によっては認識精度が悪化するという問題点があった。
そこで、このような問題点をかんがみ、測距点データから物体を認識する物体認識装置において、物体の認識精度を向上させられるようにすることを本発明の目的とする。
However, since the object recognition apparatus always divides the point cloud data in parallel with the horizontal direction, there is a problem that the recognition accuracy is deteriorated depending on the shape of the object.
In view of these problems, it is an object of the present invention to improve the recognition accuracy of an object in an object recognition apparatus that recognizes an object from distance measurement point data.

本発明の一側面の物体認識装置においては、点群取得部と、分布認識部と、点群分割部と、物体認識部と、を備える。
点群取得部は、測距点データの集合である点群データを取得し(S110,S310)、分布認識部は、点群データを構成する測距点データの分布の状態を認識する(S320,S330,S350,S410)。また、点群分割部は、分布の状態に応じて点群データが含まれる領域を複数の領域に分割する1または複数の仮想的な平面を表す仮想平面における向きを設定し、該仮想平面にて点群データを複数に分割する(S340,S360,S420,S430,S440)。
The object recognition device according to one aspect of the present invention includes a point group acquisition unit, a distribution recognition unit, a point group division unit, and an object recognition unit.
The point cloud acquisition unit acquires point cloud data that is a set of distance measurement point data (S110, S310), and the distribution recognition unit recognizes the distribution state of the distance measurement point data constituting the point cloud data (S320). , S330, S350, S410). In addition, the point group dividing unit sets an orientation in a virtual plane representing one or more virtual planes that divide the area including the point cloud data into a plurality of areas according to the distribution state, and sets the direction in the virtual plane. The point cloud data is divided into a plurality of pieces (S340, S360, S420, S430, S440).

そして、物体認識部は仮想平面にて分割された点群データを表す分割データ毎に、この分割データの特徴を数値で表す特徴量を求め、分割データ毎の特徴量に基づいて、点群データが表す物体を認識する(S200,S210,S220)。   Then, the object recognizing unit obtains a feature amount that represents the feature of the divided data numerically for each divided data that represents the point cloud data divided on the virtual plane, and based on the feature amount for each divided data, Is recognized (S200, S210, S220).

このような物体認識装置によれば、測距点データの分布の状態に応じて点群データを分割する仮想平面の向きを設定するので、点群データを物体形状に応じて適切に分割することができ、点群データを分割した分割データが適切な状態で得られる。したがって、各分割データで詳細な特徴記述が可能になる。よって、物体の認識精度を向上させることができる。   According to such an object recognition device, since the orientation of the virtual plane for dividing the point cloud data is set according to the distribution state of the distance measuring point data, the point cloud data can be appropriately divided according to the object shape. The divided data obtained by dividing the point cloud data can be obtained in an appropriate state. Therefore, detailed feature description can be made for each divided data. Therefore, the recognition accuracy of the object can be improved.

なお、本発明において「仮想平面の向き」とは、水平面等の基準となる面に対する平面の傾きの大きさとその方向を示す。また、この欄および特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In the present invention, the “direction of the virtual plane” indicates the magnitude and direction of the inclination of the plane with respect to a reference plane such as a horizontal plane. Further, the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present invention is as follows. It is not limited.

走行安全装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of a travel safety apparatus. 制御部のCPUが実行する走行安全処理を示すフローチャートである。It is a flowchart which shows the driving | running | working safety process which CPU of a control part performs. 走行安全処理のうちの点群分割処理を示すフローチャートである。It is a flowchart which shows the point group division | segmentation process among driving | running | working safety processes. 縦方向分割においてライン毎にクラスタを分割する例を示す図である。It is a figure which shows the example which divides | segments a cluster for every line in vertical direction division | segmentation. 縦方向分割において1つの領域に所定数以上の測距点データが含まれるようにクラスタを分割する例を示す図である。It is a figure which shows the example which divides | segments a cluster so that a predetermined number or more of ranging point data may be contained in one area | region in vertical direction division | segmentation. 横方向分割の一例を示す図である。It is a figure which shows an example of a horizontal direction division | segmentation. 賽の目分割の一例を示す図である。It is a figure which shows an example of eyelid division | segmentation. 走行安全処理のうちの特徴演算処理を示すフローチャートである。It is a flowchart which shows the characteristic calculation process among driving | running | working safety processes. 反射強度の分散値を特徴量の1つとして用いる例を示す図である。It is a figure which shows the example which uses the dispersion | distribution value of reflection intensity as one of the feature-values. 縦方向分割および横方向分割をそれぞれ利用する例を示す図である。It is a figure which shows the example which each uses the vertical direction division | segmentation and a horizontal direction division | segmentation.

以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.構成]
本実施形態の走行安全装置1は、例えば乗用車等の車両に搭載されており、自車両が障害物等の物体と衝突することを抑制する走行安全機能を備えている。走行安全機能としては、物体の種別および物体までの距離を求める機能を含む。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
The travel safety device 1 of this embodiment is mounted on a vehicle such as a passenger car, for example, and includes a travel safety function that suppresses the host vehicle from colliding with an object such as an obstacle. The traveling safety function includes a function for obtaining the type of object and the distance to the object.

詳細には、走行安全装置1は、図1に示すように、制御部10と、レーザレーダ21と、表示部31と、警報部32と、作動指示部33とを備えている。
レーザレーダ21は、発光部22および受光部23を備えた周知のレーザレーダとして構成されている。レーザレーダ21は、車両の進行方向のうちの車両が通過する可能性がある領域を、物体を検出する検出領域とする。そして、レーザレーダ21の発光部22は、この検出領域を予め水平方向および鉛直方向に格子状に区分した多数の照射領域として設定し、これらの照射領域毎にレーザ光を照射する。
Specifically, as shown in FIG. 1, the travel safety device 1 includes a control unit 10, a laser radar 21, a display unit 31, an alarm unit 32, and an operation instruction unit 33.
The laser radar 21 is configured as a well-known laser radar including a light emitting unit 22 and a light receiving unit 23. The laser radar 21 sets a region in which the vehicle may pass in the traveling direction of the vehicle as a detection region for detecting an object. Then, the light emitting unit 22 of the laser radar 21 sets the detection area as a number of irradiation areas divided in a grid shape in the horizontal direction and the vertical direction in advance, and irradiates laser light for each of the irradiation areas.

なお、格子状に区分した多数の照射領域のうちの水平方向に並ぶものをラインと呼ぶ。レーザレーダ21の受光部23は、それぞれの照射領域にて得られるレーザ光の反射光を受光する。そして、レーザレーダ21は、測距点データを出力する。測距点データとは、照射領域の方向と反射光が得られたタイミングとに従って、レーザ光を反射した物体が存在する位置を示すものである。また、測距点データは、発光部22が発行するたびに得られるデータであり、反射光の強度を表す反射強度を示す情報も含まれている。   In addition, what is arranged in the horizontal direction among a large number of irradiation areas divided in a lattice shape is called a line. The light receiving unit 23 of the laser radar 21 receives reflected light of the laser light obtained in each irradiation region. Then, the laser radar 21 outputs ranging point data. The distance measuring point data indicates the position where the object that reflects the laser beam exists according to the direction of the irradiation region and the timing when the reflected light is obtained. The distance measuring point data is data obtained every time the light emitting unit 22 issues, and includes information indicating the reflection intensity indicating the intensity of the reflected light.

表示部31は、制御部10からの指令に従って車両の乗員に警告等を行うための画像を表示させる。警報部32は、制御部10からの指令に従って車両の乗員に警報を行うための警報音等を発する。   The display unit 31 displays an image for giving a warning or the like to the vehicle occupant in accordance with a command from the control unit 10. The warning unit 32 emits a warning sound or the like for warning a vehicle occupant in accordance with a command from the control unit 10.

作動指示部33は、車両が物体に衝突しそうなときに、制御部10からの指令に従って、車両のブレーキやステアリングに指示を出し、物体との衝突を回避するための作動を実施させる。   When the vehicle is about to collide with an object, the operation instructing unit 33 instructs the brake or steering of the vehicle according to a command from the control unit 10 to perform an operation for avoiding a collision with the object.

制御部10は、CPU11と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ12)と、を有する周知のマイクロコンピュータを中心に構成される。制御部10の各種機能は、CPU11が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ12が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、制御部10を構成するマイクロコンピュータの数は1つでも複数でもよい。   The control unit 10 is configured around a well-known microcomputer having a CPU 11 and a semiconductor memory (hereinafter, memory 12) such as a RAM, a ROM, and a flash memory. Various functions of the control unit 10 are realized by the CPU 11 executing a program stored in a non-transitional physical recording medium. In this example, the memory 12 corresponds to a non-transitional tangible recording medium that stores a program. Further, by executing this program, a method corresponding to the program is executed. The number of microcomputers constituting the control unit 10 may be one or plural.

制御部10は、CPU11がプログラムを実行することで実現される機能の構成として、後述する走行安全処理を実行する機能のほか、電子制御装置としての周知の機能を備える。制御部10を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部または全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。   The control unit 10 includes a well-known function as an electronic control device in addition to a function for executing a travel safety process, which will be described later, as a function configuration realized by the CPU 11 executing a program. The method of realizing these elements constituting the control unit 10 is not limited to software, and some or all of the elements may be realized using hardware that combines a logic circuit, an analog circuit, and the like.

[1−2.処理]
このように構成された走行安全装置1において、制御部10は、図2に示す走行安全処理を実施する。走行安全処理は、例えば車両の電源が投入されると開始される処理であり、その後、一定周期毎に繰り返し実施される処理である。
[1-2. processing]
In the travel safety device 1 configured as described above, the control unit 10 performs the travel safety process shown in FIG. The travel safety process is a process that is started when the vehicle is turned on, for example, and is then repeatedly performed at regular intervals.

走行安全処理では、図2に示すように、まずS110にて、点群データを取得する。ここで、点群データとは、レーザレーダ21にて得られた各照射領域における測距点データの集合を示す。   In the driving safety process, as shown in FIG. 2, first, point cloud data is acquired in S110. Here, the point cloud data indicates a set of distance measuring point data in each irradiation area obtained by the laser radar 21.

続いて、S120にて、クラスタリングを行う。クラスタリングとは、物体を表す測距点データをひとまとめにする処理を表す。具体的には、ある測距点データにて示される位置と他の測距点データにて示される位置との距離が予め設定された基準距離よりも近接するものをグループ化し、グループ化したものをクラスタ(物体)として抽出する。   Subsequently, in S120, clustering is performed. Clustering represents a process for collecting distance measuring point data representing an object. Specifically, the distance between the position indicated by a certain distance measurement point data and the position indicated by other distance measurement point data is grouped by grouping them closer than a preset reference distance. Are extracted as clusters (objects).

そして、S130にて、トラッキングを行う。この処理では、最新の点群データと1周期前に取得された点群データとを用いて、クラスタを追跡する処理である。具体的には、例えば、カルマンフィルタやパーティクルフィルタ等を用いて、クラスタの移動状態を監視し、移動の前後において大きさや形状が類似するクラスタを同じ物体を表すものとして追跡するよう設定する。   In S130, tracking is performed. In this process, the cluster is tracked using the latest point cloud data and the point cloud data acquired one cycle before. Specifically, for example, a Kalman filter, a particle filter, or the like is used to monitor the movement state of the clusters, and settings are made so that clusters having similar sizes and shapes before and after movement are tracked as representing the same object.

続いて、S200にて点群分割処理を実施する。点群分割処理は、点群データを複数に分割する際に、どのように分割するかを設定し、点群データを分割する処理である。なお、点群データを分割することで生成される複数の分割後のデータを分割データいう。   Subsequently, a point group division process is performed in S200. The point group dividing process is a process of setting how to divide the point group data into a plurality of points and dividing the point group data. A plurality of divided data generated by dividing the point cloud data is referred to as divided data.

点群分割処理の詳細は図3にて示す。すなわち、まずS310にて、クラスタを取得する。ここでのクラスタは、クラスタリング後の点群データを示す。
続いて、S320にて、クラスタを構成する測距点データの分布の状態を認識する。「測距点データの分布の状態」とは、複数の測距点データがどのように分布しているかを数値で示したものである。例えば、「測距点データの分布の状態」には、クラスタに外接する直方体や矩形等の図形の大きさ、この図形の重心位置から端点までの距離、この図形のアスペクト比、クラスタを構成する測距点データの数等が含まれうる。
Details of the point group division processing are shown in FIG. That is, first, in S310, a cluster is acquired. The cluster here indicates point cloud data after clustering.
Subsequently, in S320, the state of distribution of distance measuring point data constituting the cluster is recognized. The “distribution state of distance measuring point data” is a numerical value indicating how a plurality of distance measuring point data are distributed. For example, in the “distribution state of ranging point data”, the size of a figure such as a rectangular parallelepiped or a rectangle circumscribing the cluster, the distance from the center of gravity position of this figure to the end point, the aspect ratio of this figure, and the cluster are configured. The number of ranging point data can be included.

ここではまず、クラスタに外接する矩形(直方体)を外接矩形として求める。この処理では、自車両左右の水平方向をx軸、自車両の進行方向をy軸、鉛直方向をz軸としたときに、各軸においてクラスタの座標値の最小値と最大値とを通る直方体を外接矩形とする。このとき、x軸における最小値と最大値との差をクラスタの「横方向長さ」とし、z軸における最小値と最大値との差をクラスタの「縦方向長さ」とする。   Here, first, a rectangle (cuboid) circumscribing the cluster is obtained as a circumscribed rectangle. In this process, when the horizontal direction of the host vehicle is the x axis, the traveling direction of the host vehicle is the y axis, and the vertical direction is the z axis, a rectangular parallelepiped that passes through the minimum and maximum cluster coordinate values on each axis. Is a circumscribed rectangle. At this time, the difference between the minimum value and the maximum value on the x-axis is defined as the “horizontal length” of the cluster, and the difference between the minimum value and the maximum value on the z-axis is defined as the “vertical direction length” of the cluster.

続いて、S330にて、クラスタの縦方向長さを横方向長さで除した値と、所定の定数とを比較する。ここで、所定の定数は、「1+ε」で表される。なお、0<ε<1である。   Subsequently, in S330, a value obtained by dividing the vertical length of the cluster by the horizontal length is compared with a predetermined constant. Here, the predetermined constant is represented by “1 + ε”. Note that 0 <ε <1.

S330にて、クラスタの縦方向長さを横方向長さで除した値がこの定数より大きければ、クラスタが十分縦長であることを示す。この場合、S340にて、縦方向分割を行う。縦方向分割とは、クラスタを分割するための仮想平面の向きを水平面と平行に設定し、この仮想平面でクラスタを分割することで分割データを得ることを示す。   In S330, if the value obtained by dividing the vertical length of the cluster by the horizontal length is larger than this constant, it indicates that the cluster is sufficiently vertical. In this case, vertical division is performed in S340. In the vertical division, the direction of the virtual plane for dividing the cluster is set parallel to the horizontal plane, and divided data is obtained by dividing the cluster on this virtual plane.

縦方向分割の際には、例えば図4に示すように、レーザレーダ21におけるライン毎にクラスタを分割するよう設定してもよい。また、例えば図5に示すように、仮想平面による分割後の領域にある個数以上(例えば6個以上)の測距点データが含まれるようにクラスタを分割するよう設定してもよい。また、予め設定された縦方向の長さ毎に仮想平面を設定してもよい。   When dividing in the vertical direction, for example, as shown in FIG. 4, the cluster may be set to be divided for each line in the laser radar 21. For example, as shown in FIG. 5, the cluster may be set to be divided so that the number of distance measurement point data more than a certain number (for example, 6 or more) is included in the divided area by the virtual plane. Moreover, you may set a virtual plane for every length of the predetermined vertical direction.

また、S330の処理にて、クラスタの縦方向長さを横方向長さで除した値が前述の定数以下であれば、S350にて、クラスタの縦方向長さを横方向長さで除した値と、前述の定数とは異なる所定の定数とを比較する。ここでの定数は、「1−ε」で表される。なお、0<ε<1である。   If the value obtained by dividing the vertical length of the cluster by the horizontal length is equal to or smaller than the above-described constant in the process of S330, the vertical length of the cluster is divided by the horizontal length in S350. The value is compared with a predetermined constant different from the aforementioned constant. The constant here is represented by “1-ε”. Note that 0 <ε <1.

S350にて、クラスタの縦方向長さを横方向長さで除した値がこの定数より小さければ、クラスタが十分横長であることを示す。この場合、S360にて、横方向分割を行う。横方向分割とは、仮想平面の向きを奥行き方向に沿い、かつ鉛直方向と平行に設定し、この仮想平面にてクラスタを複数に分割するよう設定し、この仮想平面でクラスタを分割することで分割データを得ることを示す。奥行き方向とは、自車両の走行方向やレーザの照射方向と一致または略一致する方向を示す。   In S350, if the value obtained by dividing the vertical length of the cluster by the horizontal length is smaller than this constant, it indicates that the cluster is sufficiently horizontal. In this case, horizontal direction division is performed in S360. Horizontal division means that the orientation of the virtual plane is set along the depth direction and parallel to the vertical direction, the cluster is set to be divided into multiple parts on this virtual plane, and the cluster is divided on this virtual plane. Indicates that the divided data is obtained. The depth direction indicates a direction that coincides or substantially coincides with the traveling direction of the host vehicle and the laser irradiation direction.

横方向分割の際には、例えば図6に示すように、仮想平面による分割後の領域にある個数以上(例えば6個以上)の測距点データが含まれるようにクラスタを分割するよう設定してもよいし、予め設定された横方向の長さ毎に仮想平面を設定してもよい。   When dividing in the horizontal direction, for example, as shown in FIG. 6, it is set to divide the cluster so that more than a certain number (for example, six or more) of distance measuring point data is included in the divided area on the virtual plane. Alternatively, a virtual plane may be set for each preset lateral length.

また、S350にて、クラスタの縦方向長さを横方向長さで除した値がこの定数以上であれば、クラスタが縦長とも横長ともいえず、縦横比が概ね等しい旨を示す範囲内であるいえる。すなわち、「縦横比が概ね等しい」とは、物体における縦方向長さと横方向長さとの比が、予め設定された比率以内であることを示す。この場合には、S410にて、クラスタを構成する測距点データの数と変数Cとを比較する。変数Cは、実験的に設定される値であり、例えば、クラスタまでの距離や、クラスタの任意の方向の長さ大きくなるにつれて大きくなるよう設定される。   In S350, if the value obtained by dividing the vertical length of the cluster by the horizontal length is equal to or larger than this constant, the cluster cannot be said to be vertically long or wide, and is within the range indicating that the aspect ratio is substantially equal. I can say that. That is, “the aspect ratio is substantially equal” indicates that the ratio of the longitudinal length and the lateral length of the object is within a preset ratio. In this case, in S410, the number of ranging point data constituting the cluster is compared with the variable C. The variable C is a value set experimentally. For example, the variable C is set to increase as the distance to the cluster or the length of the cluster in any direction increases.

測距点データの数が変数Cよりも大きければ、S420にて、賽の目分割を行う。賽の目分割とは、例えば図7に示すように、クラスタに対して縦方向分割を行い、縦方向分割した分割後のクラスタ(分割データ)のそれぞれに対してさらに横方向分割を実施することで複数の方向にクラスタを分割するよう設定し、この仮想平面でクラスタを分割することで分割データを得ることを示す。   If the number of distance measuring point data is larger than the variable C, the eyelet division is performed in S420. For example, as shown in FIG. 7, the eyelet division is performed by dividing the cluster in the vertical direction and further dividing the cluster in the vertical direction by further dividing in the horizontal direction (divided data). It is set that the cluster is divided in the direction of, and divided data is obtained by dividing the cluster on this virtual plane.

また、S410にて、測距点データの数が変数C以下であれば、S430にて、S340の処理同様の縦方向分割を実施し、S440にて、S360の処理同様の横方向分割を実施する。   In S410, if the number of ranging point data is equal to or smaller than variable C, in S430, the vertical division similar to the process in S340 is performed, and in S440, the horizontal division similar to the process in S360 is performed. To do.

このような処理が終了すると、点群分割処理を終了し、図2に戻る。
続いて、S210にて、特徴演算処理を実施する。特徴演算処理は、クラスタの特徴量を抽出する処理である。クラスタの特徴量としては、例えば、分割特徴量を抽出する。分割特徴量とは、クラスタを分割することによって得られた分割データについての特徴量を表す。特徴量とは、分割データを構成する測距点の分散、標準偏差、平均値等から得られる特徴を数値化したものである。
When such a process is completed, the point group dividing process is terminated and the process returns to FIG.
Subsequently, in S210, feature calculation processing is performed. The feature calculation process is a process for extracting the feature amount of the cluster. As the cluster feature amount, for example, a divided feature amount is extracted. The divided feature amount represents a feature amount for divided data obtained by dividing a cluster. The feature amount is obtained by quantifying the feature obtained from the variance, standard deviation, average value, etc. of the distance measuring points constituting the divided data.

特徴演算処理は、図8に示すように、まず、S510にて、点群分割処理にて生成された分割データを取得する。
続いて、S520にて、分割データに対して、分割特徴量の抽出を行う。賽の目分割では、クラスタを複数の方向に分割することで得られた分割データについて、特徴量の抽出を行う。この処理では、分割特徴量に限らず、その他の特徴量、例えばクラスタに含まれる全点群のヒストグラム等を特徴量として抽出してもよい。これらの手法は、縦長のクラスタについての特徴量を検出する構成において有効な手法である。
In the feature calculation process, as shown in FIG. 8, first, in S510, the divided data generated by the point group division process is acquired.
Subsequently, in S520, a divided feature amount is extracted from the divided data. In the eyelet division, feature quantities are extracted from the divided data obtained by dividing the cluster in a plurality of directions. In this process, not only the divided feature amount but also other feature amounts, for example, histograms of all point groups included in the cluster may be extracted as feature amounts. These methods are effective in a configuration for detecting a feature amount of a vertically long cluster.

なお、点群分割処理にて、縦方向分割および横方向分割の両方が実施された場合には、それぞれの分割方法にて得られた分割データについて、それぞれの分割特徴量を求める。縦方向分割された分割データから得られた分割特徴量を縦特徴とし、横方向分割された分割データから得られた分割特徴量を横特徴とする。   When both vertical direction division and horizontal direction division are performed in the point group division processing, respective divided feature amounts are obtained for the divided data obtained by the respective division methods. A divided feature value obtained from the divided data divided in the vertical direction is defined as a vertical feature, and a divided feature value obtained from the divided data divided in the horizontal direction is defined as a horizontal feature.

ここで、S520の処理では、分割データ毎に、反射強度の特徴量も演算する。すなわち、反射強度のばらつきの程度を特徴量の1つとして求める。なお、「反射強度のばらつきの程度」とは、反射強度の分散や標準偏差、あるいは、距離に対する平均強度等の値を採用することができる。反射強度の分散を利用する場合、図9に示すように、分割データ毎の反射強度の分散値v1〜vNを特徴量fとして物体を識別する際に利用する。   Here, in the process of S520, the feature amount of the reflection intensity is also calculated for each divided data. That is, the degree of variation in reflection intensity is obtained as one of the feature amounts. The “degree of reflection intensity variation” may be a value such as the dispersion or standard deviation of the reflection intensity, or the average intensity with respect to the distance. When the reflection intensity dispersion is used, as shown in FIG. 9, the reflection intensity dispersion values v1 to vN for each divided data are used when the object is identified as the feature quantity f.

なお、S520の処理にて、縦特徴および横特徴の両方が得られた場合にのみ、S530を実施する。この処理では、縦特徴と横特徴とを統合する。
すなわち、図10に示すように、クラスタに対して縦方向分割と、横方向分割とを別々に実施し、これらの処理にて得られた特徴量の両方を用いて物体認識を実施できるようにする。なお、S530における統合の手法は、加重平均を採用する等、任意の手法を採用できる。
Note that S530 is performed only when both the vertical and horizontal features are obtained in the processing of S520. In this process, the vertical feature and the horizontal feature are integrated.
That is, as shown in FIG. 10, the vertical division and the horizontal division are separately performed on the cluster so that the object recognition can be performed using both of the feature amounts obtained by these processes. To do. Note that as the integration method in S530, any method such as a weighted average can be used.

続いて、物体種別の識別を実施する(S200,S210,S220)。この処理では、これまでに求めた特徴量を用いて、周知の識別手法にて物体種別を識別する。例えば、パターンマッチング、SVM(support vector machine)、Ababoost(Adaptive Boosting)等の識別器を用いることができる。この処理までを実施することで、どのような種別の物体が、どの位置に、どのような方向で移動しているかを認識できることになる。   Subsequently, the object type is identified (S200, S210, S220). In this process, the object type is identified by a well-known identification method using the feature amount obtained so far. For example, discriminators such as pattern matching, SVM (support vector machine), and Ababoost (Adaptive Boosting) can be used. By performing this process, it is possible to recognize what type of object is moving to which position and in what direction.

続いて、S240にて、警報を実施するか否かを判定する。この処理では、車両が該当クラスタに対応する物体と衝突する確率を物体との相対速度や相対距離に基づいて判定し、衝突する確率がある第1閾値以上であれば警報を行う必要があると判定する。   Subsequently, in S240, it is determined whether or not to issue an alarm. In this process, it is necessary to determine the probability that the vehicle will collide with the object corresponding to the cluster based on the relative speed or relative distance to the object, and to issue an alarm if the probability of collision is greater than or equal to the first threshold value. judge.

また、S250にて、衝突の回避制御を実施する必要があるか否かを判定する。この処理では、車両と物体とが衝突する確率が第1閾値よりも高い値に設定された第2閾値以上であれば回避制御を実施する必要があると判定する。   In S250, it is determined whether or not collision avoidance control needs to be performed. In this process, it is determined that it is necessary to perform the avoidance control if the probability that the vehicle and the object collide is equal to or higher than the second threshold set to a value higher than the first threshold.

続いて、S260にて、警報または回避制御の必要があると判定されたか否かを判定する。警報または回避制御の必要があれば、S270にて、警報または回避制御をするための指令を表示部31、警報部32、作動指示部33のうちの必要な個所に送信し、走行安全処理を終了する。   Subsequently, in S260, it is determined whether it is determined that an alarm or avoidance control is necessary. If alarm or avoidance control is necessary, in S270, a command for alarm or avoidance control is transmitted to the necessary portions of the display unit 31, the alarm unit 32, and the operation instruction unit 33, and the driving safety process is performed. finish.

また、警報または回避制御の必要がなければ、走行安全処理を終了する。
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
If there is no need for warning or avoidance control, the traveling safety process is terminated.
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.

(1a)上記の走行安全装置1において制御部10は、測距点データの集合である点群データを取得し、点群データを構成する測距点データの分布の状態を認識する。また、分布の状態に応じて点群データが含まれる領域を複数の領域に分割する1または複数の仮想的な平面を表す仮想平面における向きを設定し、該仮想平面にて点群データを複数に分割する。   (1a) In the traveling safety device 1 described above, the control unit 10 acquires point cloud data that is a set of distance measuring point data, and recognizes the distribution state of the distance measuring point data constituting the point cloud data. Further, an orientation in a virtual plane representing one or a plurality of virtual planes that divide an area including point cloud data into a plurality of areas according to a distribution state is set, and a plurality of point cloud data is set in the virtual plane. Divide into

そして、制御部10は、仮想平面にて分割された点群データを表す分割データ毎に、この分割データの特徴を数値で表す特徴量を求め、分割データ毎の特徴量に基づいて、点群データが表す物体を認識する(S200,S210,S220)。   And the control part 10 calculates | requires the feature-value which represents the characteristic of this division | segmentation data numerically for every division | segmentation data showing the point group data divided | segmented on the virtual plane, and based on the feature-value for every division | segmentation data, a point cloud The object represented by the data is recognized (S200, S210, S220).

このような走行安全装置1によれば、測距点データの分布の状態に応じて点群データを分割する仮想平面の向きを設定するので、点群データを物体形状に応じて適切に分割することができ、点群データを分割した分割データが適切な状態で得られる。したがって、各分割データで詳細な特徴記述、すなわち特徴量を求めることが可能になる。よって、物体の認識精度を向上させることができる。具体的には、電柱のような縦長の物体を横方向分割すると分割データに含まれる測距点数が少なくなったり、不適切なパーツ切り出し(例えば電柱であれば飛び出した足場の部分だけが切り出されるなど)がされたりするおそれがあり、適切に特徴量を求めることができないおそれがあるが、本実施形態の構成によれば、適切に特徴量を求めることができる。   According to such a travel safety device 1, since the orientation of the virtual plane for dividing the point cloud data is set according to the distribution state of the distance measuring point data, the point cloud data is appropriately divided according to the object shape. The divided data obtained by dividing the point cloud data can be obtained in an appropriate state. Therefore, a detailed feature description, that is, a feature amount can be obtained for each divided data. Therefore, the recognition accuracy of the object can be improved. Specifically, when a vertically long object such as an electric pole is divided in the horizontal direction, the number of distance measurement points included in the divided data is reduced, or inappropriate parts are cut out (for example, if the electric pole is used, only the part of the scaffold that has jumped out is cut out) Etc.) and the feature amount may not be obtained appropriately, but according to the configuration of the present embodiment, the feature amount can be obtained appropriately.

なお、本発明において「仮想平面の向き」とは、水平面等の基準となる面に対する平面の傾きの大きさとその方向を示す。
(1b)また、走行安全装置1において制御部10は、分布の状態として、点群データが示す物体の鉛直方向の長さと鉛直方向に直交する水平方向の長さとの比を表す縦横比を認識する。そして、縦横比が水平方向の長さに対して鉛直方向の長さが長い縦長を示す場合、仮想平面の向きを水平面と平行に設定し、縦横比が水平方向の長さに対して鉛直方向の長さが短い横長を示す場合、仮想平面の向きを奥行き方向に沿い、かつ鉛直方向と平行に設定する。
In the present invention, the “direction of the virtual plane” indicates the magnitude and direction of the inclination of the plane with respect to a reference plane such as a horizontal plane.
(1b) Further, in the travel safety device 1, the control unit 10 recognizes, as the distribution state, an aspect ratio that represents a ratio between a vertical length of an object indicated by the point cloud data and a horizontal length orthogonal to the vertical direction. To do. When the aspect ratio indicates a long vertical length with respect to the horizontal length, the orientation of the virtual plane is set parallel to the horizontal plane, and the aspect ratio is vertical with respect to the horizontal length. When the horizontal length indicates a short landscape, the direction of the virtual plane is set along the depth direction and parallel to the vertical direction.

このような走行安全装置1によれば、点群データが示す物体において縦横比が長い方向に直交する平面で複数に分割するので、分割した領域に測距点データがバランスよく分散する。よって、分割データ毎の特徴量を正しく算出することができ、物体の識別精度を向上させることができる。   According to such a traveling safety device 1, since the object indicated by the point cloud data is divided into a plurality of planes perpendicular to the direction having a long aspect ratio, the ranging point data is distributed in a balanced manner in the divided areas. Therefore, the feature amount for each divided data can be calculated correctly, and the object identification accuracy can be improved.

(1c)また、上記の走行安全装置1において制御部10は、分布の状態として、点群データが示す物体の鉛直方向の長さと鉛直方向に直交する水平方向の長さとの比を表す縦横比を認識する。そして、縦横比が概ね等しい旨を示す範囲内である場合、点群データを構成する測距点データの数と予め設定された閾値とを比較し、測距点データの数が閾値以上である場合、仮想平面の向きを水平面と平行としたもの、およびに設定する仮想平面の向きを奥行き方向に沿いかつ鉛直方向と平行としたものの両方を用いて点群データを複数に分割する。   (1c) Further, in the travel safety device 1 described above, the control unit 10 determines the ratio of the vertical length of the object indicated by the point cloud data and the horizontal length orthogonal to the vertical direction as the distribution state. Recognize If the aspect ratio is within the range indicating that the aspect ratios are substantially equal, the number of distance measuring point data constituting the point cloud data is compared with a preset threshold value, and the number of distance measuring point data is equal to or greater than the threshold value. In this case, the point cloud data is divided into a plurality of pieces using both the direction of the virtual plane parallel to the horizontal plane and the direction of the virtual plane to be set along the depth direction and parallel to the vertical direction.

このような走行安全装置1によれば、測距点データの数が十分多く、閾値以上となる場合には、鉛直方向および水平方向に沿ったそれぞれの仮想平面で点群データを分割するので、特徴量を認識しやすくすることができる。   According to such a travel safety device 1, when the number of distance measuring point data is sufficiently large and is equal to or greater than the threshold value, the point cloud data is divided on the respective virtual planes along the vertical direction and the horizontal direction. The feature amount can be easily recognized.

(1d)また、上記の走行安全装置1において制御部10は、点群データを構成する測距点データの数が閾値未満である場合、仮想平面の向きを水平面と平行として点群データを分割し、また、仮想平面の向きを奥行き方向に沿いかつ鉛直方向と平行として点群データを分割する。そして、異なる方向の仮想平面で分割された分割データごとに特徴量を求め、この特徴量に基づいて物体を認識する。   (1d) In the traveling safety device 1 described above, when the number of distance measuring point data constituting the point cloud data is less than the threshold, the control unit 10 divides the point cloud data with the direction of the virtual plane parallel to the horizontal plane. Further, the point cloud data is divided such that the direction of the virtual plane is along the depth direction and parallel to the vertical direction. Then, a feature amount is obtained for each divided data divided by virtual planes in different directions, and an object is recognized based on the feature amount.

このような走行安全装置1によれば、測距点データの数が十分でなく、閾値未満となる場合には、鉛直方向および水平方向に沿ったそれぞれの仮想平面で点群データを分割するので、測距点データの数が十分でない場合であっても、特徴量を認識しやすくすることができる。   According to such a travel safety device 1, when the number of distance measuring point data is not sufficient and is less than the threshold value, the point cloud data is divided on the respective virtual planes along the vertical direction and the horizontal direction. Even if the number of distance measuring point data is not sufficient, the feature amount can be easily recognized.

(1f)また、上記の走行安全装置1において制御部10は、測距点データには反射強度の情報も含まれており、反射強度のばらつきの程度を特徴量の1つとして求める。
このような走行安全装置1によれば、反射強度のばらつきの程度を特徴量の1つとするので、例えば、樹木と人物とを識別するときや、人物と電柱とを識別するときのように、反射強度のばらつきに差異がある複数の物体についての反射強度のばらつきの程度を特徴量としてSVM等で学習しておけば、複数の物体を反射強度のばらつきの程度に基づいて良好に識別することができる。なお、「反射強度のばらつきの程度」とは、反射強度の分散や標準偏差、あるいは、距離に対する平均強度等の値を採用することができる。
(1f) Further, in the travel safety device 1 described above, the control unit 10 obtains the degree of variation in the reflection intensity as one of the feature amounts because the distance measurement point data also includes information on the reflection intensity.
According to such a traveling safety device 1, since the degree of variation in reflection intensity is one of the feature quantities, for example, when identifying a tree and a person, or identifying a person and a utility pole, If the degree of reflection intensity variation for a plurality of objects having a difference in reflection intensity variation is learned as a feature amount using SVM or the like, the plurality of objects can be well identified based on the degree of reflection intensity variation. Can do. The “degree of reflection intensity variation” may be a value such as the dispersion or standard deviation of the reflection intensity, or the average intensity with respect to the distance.

[2.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other Embodiments]
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.

(2a)上記実施形態では、車両において本発明を適用したが、これに限定されるものではない。例えば、電柱や信号機等の固定された物体において本発明が適用されてもよい。   (2a) In the above embodiment, the present invention is applied to a vehicle, but the present invention is not limited to this. For example, the present invention may be applied to a fixed object such as a utility pole or a traffic light.

(2b)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   (2b) The functions of one constituent element in the above embodiment may be distributed as a plurality of constituent elements, or the functions of a plurality of constituent elements may be integrated into one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. Further, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

(2c)上述した走行安全装置1の他、当該走行安全装置1を構成要素とするシステム、当該走行安全装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、走行安全方法など、種々の形態で本発明を実現することもできる。   (2c) In addition to the above-described travel safety device 1, a system including the travel safety device 1 as a constituent element, a program for causing a computer to function as the travel safety device 1, a non-transitive semiconductor memory or the like in which the program is recorded The present invention can also be realized in various forms such as an actual recording medium and a driving safety method.

[3.本発明の構成と実施形態の構成との関係]
上記実施形態において走行安全装置1は本発明でいう物体認識装置に相当する。また、上記実施形態において制御部10が実行する処理のうちのS110,S310の処理は本発明でいう点群取得部に相当し、上記実施形態においてS200,S210,S220の処理は本発明でいう物体認識部に相当する。
[3. Relationship between Configuration of Present Invention and Configuration of Embodiment]
In the above embodiment, the travel safety device 1 corresponds to the object recognition device referred to in the present invention. In addition, the processing of S110 and S310 among the processing executed by the control unit 10 in the above embodiment corresponds to the point cloud acquisition unit referred to in the present invention, and the processing of S200, S210 and S220 in the above embodiment refers to the present invention. It corresponds to an object recognition unit.

また、上記実施形態においてS320,S330,S350,S410の処理は本発明でいう分布認識部に相当し、上記実施形態においてS340,S360,S420,S430,S440の処理は本発明でいう点群分割部に相当する。   In the above embodiment, the processes of S320, S330, S350, and S410 correspond to the distribution recognition unit in the present invention. In the above embodiment, the processes of S340, S360, S420, S430, and S440 are the point group division in the present invention. It corresponds to the part.

1…走行安全装置、10…制御部、11…CPU、12…メモリ、21…レーザレーダ、22…発光部、23…受光部、31…表示部、32…警報部、33…作動指示部。   DESCRIPTION OF SYMBOLS 1 ... Travel safety device, 10 ... Control part, 11 ... CPU, 12 ... Memory, 21 ... Laser radar, 22 ... Light emission part, 23 ... Light receiving part, 31 ... Display part, 32 ... Alarm part, 33 ... Operation instruction part

Claims (5)

測距点データに基づき物体を認識する物体認識装置であって、
測距点データの集合である点群データを取得する点群取得部(S110,S310)と、
前記点群データを構成する測距点データの分布の状態を認識する分布認識部(S320,S330,S350,S410)と、
前記分布の状態に応じて前記点群データが含まれる領域を複数の領域に分割する1または複数の仮想的な平面を表す仮想平面における向きを設定し、該仮想平面にて前記点群データを複数に分割する点群分割部(S340,S360,S420,S430,S440)と、
前記仮想平面にて分割された点群データを表す分割データ毎に、該分割データの特徴を数値で表す特徴量を求め、前記分割データ毎の特徴量に基づいて、前記点群データが表す物体を認識する物体認識部(S200,S210,S220)と、
を備え
前記分布認識部は、前記分布の状態として、前記点群データが示す物体の鉛直方向の長さと鉛直方向に直交する水平方向の長さとの比を表す縦横比を認識し、
前記点群分割部は、前記縦横比が前記水平方向の長さに対して前記鉛直方向の長さが長い縦長を示す場合、前記仮想平面の向きを水平面と平行に設定し、前記縦横比が前記水平方向の長さに対して前記鉛直方向の長さが短い横長を示す場合、前記仮想平面の向きを奥行き方向に沿い、かつ前記鉛直方向と平行に設定する
物体認識装置。
An object recognition device for recognizing an object based on ranging point data,
A point cloud acquisition unit (S110, S310) for acquiring point cloud data that is a set of ranging point data;
A distribution recognition unit (S320, S330, S350, S410) for recognizing the distribution state of the distance measuring point data constituting the point cloud data;
An orientation in a virtual plane representing one or a plurality of virtual planes that divide the area including the point cloud data into a plurality of areas according to the distribution state is set, and the point cloud data is set on the virtual plane. A point group dividing unit (S340, S360, S420, S430, S440) for dividing into a plurality of parts;
For each piece of divided data representing the point cloud data divided on the virtual plane, a feature amount representing the feature of the divided data as a numerical value is obtained, and the object represented by the point cloud data based on the feature amount for each divided data An object recognition unit (S200, S210, S220) for recognizing
Equipped with a,
The distribution recognition unit recognizes an aspect ratio representing a ratio between a vertical length of an object indicated by the point cloud data and a horizontal length orthogonal to the vertical direction as the distribution state,
The point group dividing unit sets the orientation of the virtual plane parallel to a horizontal plane when the aspect ratio indicates a length that is long in the vertical direction with respect to the length in the horizontal direction, and the aspect ratio is When the length in the vertical direction is short with respect to the length in the horizontal direction, the direction of the virtual plane is set along the depth direction and parallel to the vertical direction.
Object recognition device.
請求項1に記載の物体認識装置であって、
前記分布認識部は、前記分布の状態として、前記点群データが示す物体の鉛直方向の長さと鉛直方向に直交する水平方向の長さとの比を表す縦横比を認識し、
前記点群分割部は、前記縦横比が概ね等しい旨を示す範囲内である場合、前記点群データを構成する測距点データの数と予め設定された閾値とを比較し、前記測距点データの数が閾値以上である場合、前記仮想平面の向きを水平面と平行としたもの、およびに設定する前記仮想平面の向きを奥行き方向に沿いかつ前記鉛直方向と平行としたものの両方を用いて前記点群データを複数に分割する
物体認識装置。
The object recognition device according to claim 1 ,
The distribution recognition unit recognizes an aspect ratio representing a ratio between a vertical length of an object indicated by the point cloud data and a horizontal length orthogonal to the vertical direction as the distribution state,
When the point group dividing unit is within a range indicating that the aspect ratio is substantially equal, the point group dividing unit compares the number of ranging point data constituting the point group data with a preset threshold value, and the ranging point When the number of data is equal to or greater than a threshold, both the direction of the virtual plane is parallel to the horizontal plane and the direction of the virtual plane to be set along the depth direction and parallel to the vertical direction are used. An object recognition apparatus that divides the point cloud data into a plurality of pieces.
測距点データに基づき物体を認識する物体認識装置であって、
測距点データの集合である点群データを取得する点群取得部(S110,S310)と、
前記点群データを構成する測距点データの分布の状態を認識する分布認識部(S320,S330,S350,S410)と、
前記分布の状態に応じて前記点群データが含まれる領域を複数の領域に分割する1または複数の仮想的な平面を表す仮想平面における向きを設定し、該仮想平面にて前記点群データを複数に分割する点群分割部(S340,S360,S420,S430,S440)と、
前記仮想平面にて分割された点群データを表す分割データ毎に、該分割データの特徴を数値で表す特徴量を求め、前記分割データ毎の特徴量に基づいて、前記点群データが表す物体を認識する物体認識部(S200,S210,S220)と、
を備え
前記分布認識部は、前記分布の状態として、前記点群データが示す物体の鉛直方向の長さと鉛直方向に直交する水平方向の長さとの比を表す縦横比を認識し、
前記点群分割部は、前記縦横比が概ね等しい旨を示す範囲内である場合、前記点群データを構成する測距点データの数と予め設定された閾値とを比較し、前記測距点データの数が閾値以上である場合、前記仮想平面の向きを水平面と平行としたもの、およびに設定する前記仮想平面の向きを奥行き方向に沿いかつ前記鉛直方向と平行としたものの両方を用いて前記点群データを複数に分割する
物体認識装置。
An object recognition device for recognizing an object based on ranging point data,
A point cloud acquisition unit (S110, S310) for acquiring point cloud data that is a set of ranging point data;
A distribution recognition unit (S320, S330, S350, S410) for recognizing the distribution state of the distance measuring point data constituting the point cloud data;
An orientation in a virtual plane representing one or a plurality of virtual planes that divide the area including the point cloud data into a plurality of areas according to the distribution state is set, and the point cloud data is set on the virtual plane. A point group dividing unit (S340, S360, S420, S430, S440) for dividing into a plurality of parts;
For each piece of divided data representing the point cloud data divided on the virtual plane, a feature amount representing the feature of the divided data as a numerical value is obtained, and the object represented by the point cloud data based on the feature amount for each divided data An object recognition unit (S200, S210, S220) for recognizing
Equipped with a,
The distribution recognition unit recognizes an aspect ratio representing a ratio between a vertical length of an object indicated by the point cloud data and a horizontal length orthogonal to the vertical direction as the distribution state,
When the point group dividing unit is within a range indicating that the aspect ratio is substantially equal, the point group dividing unit compares the number of ranging point data constituting the point group data with a preset threshold value, and the ranging point When the number of data is equal to or greater than a threshold, both the direction of the virtual plane is parallel to the horizontal plane and the direction of the virtual plane to be set along the depth direction and parallel to the vertical direction are used. Dividing the point cloud data into a plurality of pieces
Object recognition device.
請求項2または請求項3に記載の物体認識装置であって、
前記点群分割部は、前記点群データを構成する測距点データの数が前記閾値未満である場合、前記仮想平面の向きを水平面と平行として前記点群データを分割し、また、前記仮想平面の向きを奥行き方向に沿いかつ前記鉛直方向と平行として前記点群データを分割し、
前記物体認識部は、異なる方向の仮想平面で分割された分割データごとに前記特徴量を求め、該特徴量に基づいて物体を認識する
物体認識装置。
The object recognition device according to claim 2 or 3,
The point group dividing unit divides the point group data by setting the direction of the virtual plane parallel to a horizontal plane when the number of ranging point data constituting the point group data is less than the threshold, and the virtual Dividing the point cloud data with the plane direction along the depth direction and parallel to the vertical direction,
The object recognition unit obtains the feature amount for each divided data divided by virtual planes in different directions, and recognizes the object based on the feature amount.
請求項1から請求項4までのいずれか1項に記載の物体認識装置であって、
前記測距点データには反射強度の情報も含まれており、
前記物体認識部は、前記反射強度のばらつきの程度を特徴量の1つとして求める
物体認識装置。
The object recognition device according to any one of claims 1 to 4, wherein:
The distance measuring point data also includes reflection intensity information,
The object recognition unit obtains a degree of variation in the reflection intensity as one of feature quantities.
JP2016019788A 2016-02-04 2016-02-04 Object recognition device Active JP6597352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016019788A JP6597352B2 (en) 2016-02-04 2016-02-04 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016019788A JP6597352B2 (en) 2016-02-04 2016-02-04 Object recognition device

Publications (2)

Publication Number Publication Date
JP2017138219A JP2017138219A (en) 2017-08-10
JP6597352B2 true JP6597352B2 (en) 2019-10-30

Family

ID=59566787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016019788A Active JP6597352B2 (en) 2016-02-04 2016-02-04 Object recognition device

Country Status (1)

Country Link
JP (1) JP6597352B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7204087B2 (en) * 2018-04-25 2023-01-16 成典 田中 Object recognition device
JP7290240B2 (en) * 2018-04-27 2023-06-13 成典 田中 Object recognition device
WO2021074660A1 (en) * 2019-10-18 2021-04-22 日産自動車株式会社 Object recognition method and object recognition device
WO2021106030A1 (en) * 2019-11-25 2021-06-03 三菱電機株式会社 Obstacle detection device
CN111968229A (en) * 2020-06-28 2020-11-20 北京百度网讯科技有限公司 High-precision map making method and device
WO2022186354A1 (en) * 2021-03-03 2022-09-09 株式会社Preferred Networks Information processing device and autonomous mobile robot

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3335419B2 (en) * 1993-05-25 2002-10-15 オリンパス光学工業株式会社 Camera ranging device
JP4156084B2 (en) * 1998-07-31 2008-09-24 松下電器産業株式会社 Moving object tracking device
JP3674400B2 (en) * 1999-08-06 2005-07-20 日産自動車株式会社 Ambient environment recognition device
US8289321B2 (en) * 2004-03-17 2012-10-16 Sony Corporation Method and apparatus for detecting plane, and robot apparatus having apparatus for detecting plane
JP2007114831A (en) * 2005-10-18 2007-05-10 Omron Corp Object detection device
JP5822255B2 (en) * 2011-04-14 2015-11-24 株式会社豊田中央研究所 Object identification device and program
CN103106632B (en) * 2012-11-29 2016-02-24 华中科技大学 A kind of fusion method of the different accuracy three dimensional point cloud based on average drifting
JP6382525B2 (en) * 2014-02-10 2018-08-29 株式会社デンソー Object identification method and object identification device
US9759809B2 (en) * 2014-07-08 2017-09-12 Sikorsky Aircraft Corporation LIDAR-based shipboard tracking and state estimation for autonomous landing

Also Published As

Publication number Publication date
JP2017138219A (en) 2017-08-10

Similar Documents

Publication Publication Date Title
JP6597352B2 (en) Object recognition device
JP5944781B2 (en) Mobile object recognition system, mobile object recognition program, and mobile object recognition method
US10769421B2 (en) Method for performing pedestrian detection with aid of light detection and ranging
JP5822255B2 (en) Object identification device and program
JP5206752B2 (en) Driving environment recognition device
JP6733225B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
US10502832B2 (en) Object recognition apparatus and noise removal method
CN110286389B (en) Grid management method for obstacle identification
CN111052201B (en) Collision prediction device, collision prediction method, and storage medium
KR20140019501A (en) Method for producing classification for recognizing object
JP4322913B2 (en) Image recognition apparatus, image recognition method, and electronic control apparatus
JP2018097765A (en) Object detection device and object detection method
JP6413957B2 (en) Pitching judgment device
JP2017187864A (en) Vehicle controller, vehicle control method
JP2016197278A (en) Pedestrian determination device
JP2015152319A (en) Object identification method and object identification device
JP2018092596A (en) Information processing device, imaging device, apparatus control system, mobile body, information processing method, and program
US20220171975A1 (en) Method for Determining a Semantic Free Space
JP5780249B2 (en) Image processing apparatus and vehicle control system using the image processing apparatus
JP2013205410A (en) Outside recognition device for vehicle, and vehicle system using the same
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
US20200086857A1 (en) Information processing device, vehicle control device, and mobile object control method
WO2020209046A1 (en) Object detection device
JP2010032429A (en) Object detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R151 Written notification of patent or utility model registration

Ref document number: 6597352

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250