WO2022102371A1 - 物体検出装置、物体検出方法 - Google Patents

物体検出装置、物体検出方法 Download PDF

Info

Publication number
WO2022102371A1
WO2022102371A1 PCT/JP2021/039039 JP2021039039W WO2022102371A1 WO 2022102371 A1 WO2022102371 A1 WO 2022102371A1 JP 2021039039 W JP2021039039 W JP 2021039039W WO 2022102371 A1 WO2022102371 A1 WO 2022102371A1
Authority
WO
WIPO (PCT)
Prior art keywords
line information
line
object detection
detection device
information
Prior art date
Application number
PCT/JP2021/039039
Other languages
English (en)
French (fr)
Inventor
直樹 柴田
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to JP2022561369A priority Critical patent/JPWO2022102371A1/ja
Publication of WO2022102371A1 publication Critical patent/WO2022102371A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • This disclosure relates to object detection technology.
  • Occupancy grid mapping is known as a technique for detecting an object.
  • Japanese Unexamined Patent Publication No. 2007-161162 describes a technique of detecting the position of a roadside object such as a guardrail with a point cloud by a radio wave radar and calculating an approximate curve using the detected point cloud.
  • Japanese Patent Application Laid-Open No. 2007-161162 recognizes a road shape using this approximate curve.
  • OGM When a continuous object is detected by OGM, it may be determined that the already detected object is a newly detected object.
  • an object detection device uses an acquisition unit that acquires line information representing an object as a line segment, first line information that is the line information acquired last time, and second line information that is the line information acquired this time in advance. It is provided with a determination unit for determining whether or not the object represented by the second line information is an already recognized object according to whether or not a predetermined condition is satisfied.
  • this object detection device determines whether or not the determination unit satisfies a predetermined condition by using the first line information which is the line information acquired last time and the second line information which is the line information acquired this time. It is determined whether or not the object represented by the second line information is an already recognized object according to the above. Therefore, it is possible to determine whether the detected object is an already detected object or a newly detected object.
  • FIG. 1 is an explanatory diagram showing an outline of the configuration of the object detection device.
  • FIG. 2 is a flowchart showing an example of the object determination process.
  • FIG. 3 is an explanatory diagram showing an example of an object.
  • FIG. 4 is a diagram showing an example of a captured image.
  • FIG. 5 is a diagram showing another example of the captured image.
  • FIG. 6 is a diagram showing still another example of the captured image.
  • FIG. 7 is a diagram showing an example of a line segment defined by line information.
  • FIG. 8 is a diagram showing another example of a line segment defined by line information.
  • FIG. 9 is a diagram showing still another example of a line segment defined by line information.
  • the object detection device 100 is mounted on the vehicle 10.
  • the vehicle 10 includes an object detection device 100, a camera 122, and an object sensor 124.
  • the camera 122 captures the front of the vehicle 10 and generates an image.
  • the captured image which is an image captured by the camera 122, is composed of a plurality of pixel data, which is a point cloud.
  • the object sensor 124 measures the distance to a plurality of objects existing in the detection range.
  • Examples of the object sensor 124 include an object sensor using a reflected wave such as a LiDAR (Light Detection and Ringing), a millimeter wave radar, and an ultrasonic sensor.
  • the object sensor 124 detects an object as three-dimensional coordinates.
  • a point cloud is acquired from the position information, which is the position information of the detected object.
  • the object detection device 100 detects an object as a line segment.
  • the "object” includes not only a single object but also a continuous structure composed of a plurality of objects whose distances from each other are within a predetermined distance.
  • Objects include, for example, guardrails, buildings such as houses, and walls such as block walls.
  • the object preferably does not include moving objects such as vehicles and pedestrians. Further, it is preferable not to include an object smaller than a predetermined height such as an empty can or a magazine.
  • the predetermined height is, for example, a size that a vehicle can get over.
  • the object detection device 100 includes a central processing unit (CPU), a microcomputer composed of a RAM, a ROM, and the like, and the microcomputer executes a pre-installed program to obtain the acquisition unit 111.
  • the determination unit 112 functions as a determination unit 112. However, some or all of the functions of each of these parts may be realized by a hardware circuit.
  • the acquisition unit 111 acquires point cloud information including a plurality of points representing an object and line information representing an object calculated by using the point cloud information as a straight line.
  • the acquisition unit 111 acquires point cloud information from the captured image captured by the camera 122 and the position information detected by the object sensor 124.
  • the acquisition unit 111 extracts an object from the captured image by using an image analysis technique such as semantic segmentation, detects the contour of the object, and acquires point cloud information in which points are set every 25 cm.
  • the acquisition unit 111 acquires line information calculated from the point cloud information acquired by the acquisition unit 111 by using, for example, the least squares method or the least median method (Least Median of Squares (LMedS)).
  • the acquisition unit 111 calculates and acquires line information from the acquired point cloud information.
  • the line information is, for example, a linear function indicating a straight line representing an object or coordinates at both ends of a line segment representing an object.
  • the determination unit 112 determines whether or not the object represented by the line information acquired by the acquisition unit 111 is an already recognized object.
  • the "already recognized object” is an object that has already been determined by the determination unit 112. The details of the determination will be described later.
  • the object determination process shown in FIG. 2 is a series of processes related to an object detection method for determining whether the detected object is a new object by the object detection device 100. More specifically, it is a process of determining whether or not the object detected as a line segment is an already detected object. This process is a process that is repeatedly executed by the object detection device 100 while the vehicle 10 is traveling, and is, for example, a process that is repeatedly executed every 100 ms. That is, the object detection device 100 immediately determines whether or not the detected object is a new object while the vehicle 10 is traveling.
  • step S100 the acquisition unit 111 acquires the point cloud information. More specifically, the acquisition unit 111 acquires point cloud information from the captured image taken by the camera 122 and the position information of the object detected by the object sensor 124.
  • step S110 the acquisition unit 111 acquires line information. More specifically, the acquisition unit 111 acquires line information from the point cloud information acquired in step S100.
  • step S120 the determination unit 112 determines whether or not the object represented by the line information acquired in step S110 is an already recognized object. More specifically, the determination unit 112 uses the first line information, which is the line information acquired last time, and the second line information, which is the line information acquired this time, to determine whether or not a predetermined condition is satisfied. Therefore, it is determined whether or not the object represented by the second line information is an already recognized object. In the present embodiment, the determination unit 112 determines that the object is already recognized when the condition is satisfied.
  • the "previously acquired line information" is the line information acquired in the latest object determination process performed before the line information was acquired in step S110 of the object determination process this time.
  • the reliability given to the first line information may be inherited by the second line information.
  • the number of acquisitions is the same as the number of acquisitions given to the first-line information, or the number of acquisitions is increased with respect to the second-line information. The number of acquisitions may be given.
  • the determination unit 112 can adopt, for example, any one or more of the following conditions as predetermined conditions.
  • the inclination of the line segment defined by the line information in the above condition 1 is, for example, the inclination from the axis horizontal to the traveling direction of the vehicle 10.
  • the predetermined angle is, for example, ⁇ 30 degrees.
  • the first threshold distance and the second threshold distance under the above condition 3 may be the same distance or different distances.
  • conditions 1 to 3 and other conditions can be combined as appropriate to make the conditions. For example, when conditions 1 to 3 are used, weighting is performed on the value of the difference between the angle used for each condition and the value of the size of the overlapping region and the threshold value, and the weighted value is equal to or less than a predetermined threshold value. It may be determined that the condition is satisfied.
  • step S120: YES If the object indicated by the line information is an already recognized object, that is, if the condition is satisfied (step S120: YES), the determination unit 112 determines that the object is already recognized in step S130. On the other hand, if the object indicated by the line information is not an already recognized object, that is, if the condition is not satisfied (step S120: NO), the determination unit 112 determines that the object is a new object in step S135. In the process of step S130 or S135, the object detection device 100 outputs information including the line information and the determination result acquired in step S110 to the device that performs the process using the determination result of the object detection device 100. May be good.
  • the discrimination in step S120 will be described by taking the case where the object 20 and the object 30 are in front of the vehicle 10 as an example.
  • the object 20 is a guardrail.
  • the object 30 is a sound insulation wall.
  • a case where the above-mentioned condition 3 is adopted as a predetermined condition will be described as an example.
  • the first threshold distance and the second threshold distance under the condition 3 are the same distance dth.
  • the captured image captured by the camera 122 changes according to the traveling of the vehicle 10.
  • the line segment LN1 representing the object 20 is calculated from the captured image shown in FIG. Further, as shown in FIG. 8, the line segment LN2 representing the object 20 is calculated from the captured image shown in FIG. Further, as shown in FIG. 9, the line segment LN3 representing the object 30 is calculated from the captured image shown in FIG.
  • the line information shown in FIG. 7 is the first line information and the line information shown in FIG. 8 is the second line information
  • the line information shown in FIG. 8 is the first line information and the line information shown in FIG. 9 is the second line information
  • a rectangular region A2 having a distance dth in the vertical direction from the line segment LN2 defined by the first line information and a rectangular region having a distance dth in the vertical direction from the line segment LN3 defined by the second line information. Does not overlap with A3. That is, the condition is not satisfied. Therefore, the determination unit 112 determines that the object represented by the second line information shown in FIG. 9 is not an already recognized object.
  • the determination unit 112 uses the first line information which is the line information acquired last time and the second line information which is the line information acquired this time in advance. It is determined whether or not the object represented by the second line information is an already recognized object depending on whether or not the predetermined condition is satisfied. Therefore, it is possible to determine whether the detected object is an already detected object or a newly detected object.
  • the acquisition unit 111 acquires point cloud information from the image captured by the camera 122 and the distance measurement information detected by the object sensor 124.
  • straight line information is acquired from the point cloud information.
  • the acquisition unit 111 may directly acquire the point cloud information and the linear information from the camera 122 or the object sensor 124.
  • the present disclosure is not limited to the above-described embodiment, and can be realized with various configurations within a range not deviating from the purpose.
  • the technical features in the embodiments corresponding to the technical features in each embodiment described in the column of the outline of the invention are for solving the above-mentioned problems or for achieving a part or all of the above-mentioned effects.
  • the technical feature is not described as essential in the present specification, it can be appropriately deleted.
  • the limitations and techniques described herein are implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. May be done.
  • the acquisition unit and the determination unit described in the present disclosure, the method thereof may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits.
  • the limiting unit and method thereof described in the present disclosure may be a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may be realized by one or more dedicated computers configured.
  • the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

物体検出装置(100)は、物体を線分で表す線情報を取得する取得部(111)と、前回取得した線情報である第1線情報と今回取得した線情報である第2線情報とを用いて、予め定められた条件を満たすか否かに応じて第2線情報が表す物体が既に認識された物体か否かを判定する判定部(112)と、を備える。

Description

物体検出装置、物体検出方法 関連出願の相互参照
 本願は、その全ての開示が参照によりここに組み込まれる、2020年11月16日に出願された、出願番号2020-190244の日本国特許出願に基づく優先権を主張する。
 本開示は、物体検出技術に関する。
 物体を検出する技術として占有グリッドマッピング(Occupancy Grid Mapping(OGM))が知られている。特開2007-161162号公報には、電波レーダによってガードレール等の路側物の位置を点群で検出し、検出した点群を用いて近似曲線を算出する技術が記載されている。特開2007-161162号公報は、この近似曲線を用いて、道路形状を認識する。
 OGMによって連続している物体を検出する場合、既に検出された物体についても、新規に検出された物体であると判断される恐れがある。
 本開示の一形態によれば、物体検出装置が提供される。この物体検出装置は、物体を線分で表す線情報を取得する取得部と、前回取得した線情報である第1線情報と今回取得した線情報である第2線情報とを用いて、予め定められた条件を満たすか否かに応じて前記第2線情報が表す物体が既に認識された物体か否かを判定する判定部と、を備える。
 この物体検出装置によれば、判定部は、前回取得した線情報である第1線情報と今回取得した線情報である第2線情報とを用いて、予め定められた条件を満たすか否かに応じて第2線情報が表す物体が既に認識された物体か否かを判定する。そのため、検出した物体が、既に検出された物体か、新規に検出された物体かを判定できる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は物体検出装置の構成の概要を示す説明図、 図2は物体判定処理の一例を示したフローチャート、 図3は物体の一例を示す説明図、 図4は撮像画像の一例を示した図、 図5は撮像画像の他の例を示した図、 図6は撮像画像の更に他の例を示した図、 図7は線情報により規定される線分の一例を示した図、 図8は線情報により規定される線分の他の例を示した図、 図9は線情報により規定される線分の更に他の例を示した図。
A.第1実施形態:
 図1に示すように、本実施形態において、物体検出装置100は、車両10に搭載される。車両10は、物体検出装置100と、カメラ122と、物体センサ124とを備える。
 カメラ122は、車両10の前方を撮像して画像を生成する。カメラ122が撮像した画像である撮像画像は、点群である複数の画素データによって構成される。
 物体センサ124は、検知範囲に存在する複数の物体との距離を測定する。物体センサ124として、例えば、LiDAR(Light Detection and Ranging)、ミリ波レーダ、超音波センサ等の反射波を利用した物体センサが挙げられる。物体センサ124は、3次元の座標として物体を検出する。検出した物体の位置の情報である位置情報から点群を取得する。
 物体検出装置100は、物体を線分として検出する。本実施形態において、「物体」とは、ある単体の物体だけでなく、互いの距離が予め定められた距離以内である複数の物体からなる連続構造物を含む。物体には、例えば、ガードレールや家等の建造物、ブロック塀等の壁面が含まれる。物体は、車両や歩行者等の移動体を含まないことが好ましい。また、空き缶や雑誌等の予め定められた高さよりも小さい物体も含まないことが好ましい。予め定められた高さとは、例えば、車両が乗り越えることが出来る大きさである。本実施形態において、物体検出装置100は、中央処理装置(CPU)や、RAM、ROMにより構成されたマイクロコンピュータ等からなり、予めインストールされたプログラムをマイクロコンピュータが実行することによって、取得部111と、判定部112と、して機能する。ただし、これらの各部の機能の一部又は全部をハードウエア回路で実現してもよい。
 取得部111は、物体を表す複数の点を含む点群情報と、点群情報を用いて算出された物体を直線で表す線情報と、を取得する。本実施形態において、取得部111は、カメラ122が撮像した撮像画像および物体センサ124が検出した位置情報から点群情報を取得する。例えば、取得部111は、セマンティックセグメンテーション等の画像解析技術を用いて、撮像画像から物体を抽出し、その物体の輪郭を検出して25cm毎に点を設定した点群情報を取得する。取得部111は、例えば、最小二乗法や最小メジアン法(Least Median of Squares(LMedS)を用いて、取得部111によって取得された点群情報から算出される線情報を取得する。本実施形態において、取得部111は、取得した点群情報から線情報を算出し、取得する。線情報は、例えば、物体を表す直線を示す1次関数や、物体を表す線分の両端の座標である。
 判定部112は、取得部111が取得した線情報が表す物体が既に認識された物体か否かを判定する。「既に認識された物体」とは、既に判定部112の判定の対象となった物体である。判定の詳細については後述する。
 図2に示す物体判定処理は、物体検出装置100が、検出した物体が新規物体か判定する物体検出方法に関わる一連の処理である。より具体的には、線分として検出した物体が既に検出した物体か否かを判定する処理である。この処理は車両10の走行中、物体検出装置100により繰り返し実行される処理であり、例えば、100ms毎に繰り返し実行される処理である。すなわち、物体検出装置100は、車両10の走行中に、検出した物体が新規物体か否かを即時に判定する。
 ステップS100で、取得部111は、点群情報を取得する。より具体的には、取得部111は、カメラ122が撮影した撮像画像や、物体センサ124が検出した物体の位置情報から、点群情報を取得する。
 ステップS110で、取得部111は、線情報を取得する。より具体的には、取得部111は、ステップS100で取得した点群情報から線情報を取得する。
 ステップS120で、判定部112は、ステップS110で取得した線情報が表す物体が既に認識された物体か否かを判定する。より具体的には、判定部112は、前回取得した線情報である第1線情報と今回取得した線情報である第2線情報とを用いて、予め定められた条件を満たすか否かに応じて第2線情報が表す物体が既に認識された物体か否かを判定する。本実施形態において、判定部112は、条件を満たす場合に、既に認識された物体であると判定する。「前回取得した線情報」とは、今回の物体判定処理のステップS110において線情報を取得する以前に行われた、直近の物体判定処理で取得された線情報である。前回取得した線情報である第1線情報には、車両10の移動量に応じて、既知の技術を用いてエゴモーション補正が実行されてもよい。なお、第1線情報に対して信頼度が付与されている場合、第1線情報に付与されている信頼度が第2線情報に引き継がれても良い。例えば、信頼度して取得回数が用いられている場合には、第2線情報に対して、第1線情報に付与されている取得回数と同一の取得回数、あるいは、回数が増数された取得回数が付与されても良い。線情報に対して信頼度を付し、第1線情報から第2線情報に引き継ぐことによって、判定部112における判定に際して、取得回数が低い線情報を制御対象から除外し、物体判定の精度を向上させることができる。
 判定部112は、予め定められた条件として、例えば、以下のような条件のいずれか1つ以上を採用することが可能である。
<条件1>
第1線情報により規定される線分の傾きと第2線情報により規定される線分の傾きとの差が予め定められた角度以下であること。
<条件2>
第1線情報により規定される線分と第2線情報により規定される線分の少なくとも一部とが重なること。
<条件3>
第1線情報により規定される線分から垂直方向に予め定められた第1閾値距離の矩形領域と第2線情報により規定される線分から垂直方向に予め定められた第2閾値距離の矩形領域との少なくとも一部とが重なること。
 上記の条件1における線情報により規定される線分の傾きとは、例えば、車両10の進行方向に水平な軸からの傾きである。また、予め定められた角度とは、例えば±30度である。
 上記の条件3における第1閾値距離と第2閾値距離とは、同じ距離でもよく、異なる距離でもよい。
 また、上記の条件1~3やその他の条件を適宜組み合わせて条件とすることもできる。例えば、条件1~3を使用し、各条件に用いる角度や重複する領域の大きさの値と閾値との差の値に重み付けを実施し、重み付け後の値が予め定めた閾値以下の場合に条件を満たすと判定してもよい。
 判定部112は、線情報が示す物体が既に認識された物体である場合、つまり条件を満たす場合(ステップS120:YES)、ステップS130において、既に認識された物体であると判定する。一方、判定部112は、線情報が示す物体が既に認識された物体でない場合、つまり条件を満たさない場合(ステップS120:NO)、ステップS135において、新規物体であると判定する。なお、ステップS130またはS135の処理において、物体検出装置100は、物体検出装置100の判定結果を用いて処理を行う装置に、ステップS110で取得した線情報と判定結果とを含む情報を出力してもよい。
 図3に示すように、車両10の前方に物体20および物体30がある場合を例としてステップS120の判別を説明する。物体20は、ガードレールである。物体30は、遮音壁である。予め定められた条件として、上述した条件3を採用した場合を例として説明する。本実施形態において、条件3における第1閾値距離と第2閾値距離とは同じ距離dthである。図4、図5、図6の順に示すように、車両10の走行に応じて、カメラ122が撮像した撮像画像が変化する。
 図7に示すように、図4に示す撮像画像から物体20を表す線分LN1が算出される。また、図8に示すように、図5に示す撮像画像から物体20を表す線分LN2が算出される。また、図9に示すように、図6に示す撮像画像から物体30を表す線分LN3が算出される。
 図7に示す線情報が第1線情報であり、図8に示す線情報が第2線情報である場合を例として説明する。図8にハッチングを付して示すように、第1線情報により規定される線分LN1から垂直方向に距離dthの矩形領域A1と、第2線情報により規定される線分LN2から垂直方向に距離dthの矩形領域A2との一部と、が重なっている。すなわち、条件を満たしている。そのため、判定部112は、図8に示す第2線情報が表す物体は既に認識された物体であると判定する。
 図8に示す線情報が第1線情報であり、図9に示す線情報が第2線情報である場合を例として説明する。図9に示すように、第1線情報により規定される線分LN2から垂直方向に距離dthの矩形領域A2と、第2線情報により規定される線分LN3から垂直方向に距離dthの矩形領域A3と、は重なっていない。すなわち、条件を満たしていない。そのため、判定部112は、図9に示す第2線情報が表す物体は既に認識された物体ではないと判定する。
 以上で説明した本実施形態の物体検出装置100によれば、判定部112は、前回取得した線情報である第1線情報と今回取得した線情報である第2線情報とを用いて、予め定められた条件を満たすか否かに応じて第2線情報が表す物体が既に認識された物体か否かを判定する。そのため、検出した物体が、既に検出された物体か、新規に検出された物体かを判定できる。
B.他の実施形態:
 上記実施形態において、取得部111は、カメラ122が撮像した画像や物体センサ124が検出した測距情報から点群情報を取得している。また、点群情報から直線情報を取得している。この代わりに、取得部111は、カメラ122や物体センサ124から、直接点群情報および直線情報を取得してもよい。
 本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述した課題を解決するために、あるいは上述の効果の一部又は全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜削除することが可能である。
 本開示に記載の制限部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の取得部及び決定部、その手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制限部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。

Claims (7)

  1.  物体検出装置(100)であって、
     物体を線分で表す線情報を取得する取得部(111)と、
     前回取得した線情報である第1線情報と今回取得した線情報である第2線情報とを用いて、予め定められた条件を満たすか否かに応じて前記第2線情報が表す物体が既に認識された物体か否かを判定する判定部(112)と、を備える、物体検出装置。
  2.  請求項1に記載の物体検出装置であって、
     前記判定部は、前記条件を満たす場合に、前記第2線情報が表す物体が既に認識された物体であると判定する、物体検出装置。
  3.  請求項1または請求項2に記載の物体検出装置であって、
     前記取得部は、前記物体を表す複数の点を含む点群情報を取得し、前記点群情報を用いて前記線情報を取得する、物体検出装置。
  4.  請求項1から請求項3のいずれか一項に記載の物体検出装置であって、
     前記条件は、前記第1線情報により規定される線分の傾きと前記第2線情報により規定される線分の傾きとの差が予め定められた角度以下であることを含む、物体検出装置。
  5.  請求項1から請求項4のいずれか一項に記載の物体検出装置であって、
     前記条件は、前記第1線情報により規定される線分と前記第2線情報により規定される線分の少なくとも一部とが重なることを含む、物体検出装置。
  6.  請求項5に記載の物体検出装置であって、
     前記条件は、前記第1線情報により規定される線分から垂直方向に予め定められた第1閾値距離の矩形領域と前記第2線情報により規定される線分から垂直方向に予め定められた第2閾値距離の矩形領域との少なくとも一部とが重なることを含む、物体検出装置。
  7.  物体検出方法であって、
     物体を表す複数の点を含む点群情報を取得する点群取得工程と、
     前記点群情報を用いて、前記物体を線分で表す線情報を取得する線情報取得工程と、
     前回取得した線情報である第1線情報と今回取得した線情報である第2線情報とを用いて、予め定められた条件を満たすか否かに応じて前記第2線情報が表す物体が既に認識された物体か否かを判定する判定工程と、を備える、物体検出方法。
PCT/JP2021/039039 2020-11-16 2021-10-22 物体検出装置、物体検出方法 WO2022102371A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022561369A JPWO2022102371A1 (ja) 2020-11-16 2021-10-22

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-190244 2020-11-16
JP2020190244 2020-11-16

Publications (1)

Publication Number Publication Date
WO2022102371A1 true WO2022102371A1 (ja) 2022-05-19

Family

ID=81601044

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/039039 WO2022102371A1 (ja) 2020-11-16 2021-10-22 物体検出装置、物体検出方法

Country Status (2)

Country Link
JP (1) JPWO2022102371A1 (ja)
WO (1) WO2022102371A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07318652A (ja) * 1994-05-26 1995-12-08 Nippondenso Co Ltd 車両用障害物認識装置
JP2002092618A (ja) * 2000-09-19 2002-03-29 Toshiba Corp 目標判定処理装置及び目標判定処理方法
JP2007161162A (ja) * 2005-12-15 2007-06-28 Denso Corp 車両用道路形状認識装置
CN102435606A (zh) * 2011-11-16 2012-05-02 马建春 利用三维特征数据曲线支持线条痕迹检验鉴定的方法
JP2017162125A (ja) * 2016-03-08 2017-09-14 富士通株式会社 画像解析プログラム、画像解析装置、及び画像解析方法
JP2018093423A (ja) * 2016-12-06 2018-06-14 富士通株式会社 画像処理プログラム、画像処理装置および画像処理方法
JP2018146495A (ja) * 2017-03-08 2018-09-20 株式会社リコー 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム
JP2019096132A (ja) * 2017-11-24 2019-06-20 トヨタ自動車株式会社 物体認識装置
JP2020135866A (ja) * 2019-02-22 2020-08-31 富士通株式会社 オブジェクト検出方法、検出装置及び電子機器

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07318652A (ja) * 1994-05-26 1995-12-08 Nippondenso Co Ltd 車両用障害物認識装置
JP2002092618A (ja) * 2000-09-19 2002-03-29 Toshiba Corp 目標判定処理装置及び目標判定処理方法
JP2007161162A (ja) * 2005-12-15 2007-06-28 Denso Corp 車両用道路形状認識装置
CN102435606A (zh) * 2011-11-16 2012-05-02 马建春 利用三维特征数据曲线支持线条痕迹检验鉴定的方法
JP2017162125A (ja) * 2016-03-08 2017-09-14 富士通株式会社 画像解析プログラム、画像解析装置、及び画像解析方法
JP2018093423A (ja) * 2016-12-06 2018-06-14 富士通株式会社 画像処理プログラム、画像処理装置および画像処理方法
JP2018146495A (ja) * 2017-03-08 2018-09-20 株式会社リコー 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム
JP2019096132A (ja) * 2017-11-24 2019-06-20 トヨタ自動車株式会社 物体認識装置
JP2020135866A (ja) * 2019-02-22 2020-08-31 富士通株式会社 オブジェクト検出方法、検出装置及び電子機器

Also Published As

Publication number Publication date
JPWO2022102371A1 (ja) 2022-05-19

Similar Documents

Publication Publication Date Title
US20230079730A1 (en) Control device, scanning system, control method, and program
JP3424334B2 (ja) 走行路検出装置
JP6747269B2 (ja) 物体認識装置
JP2002096702A (ja) 車間距離推定装置
WO2020235396A1 (ja) 障害物検出装置および障害物検出方法
JP4719996B2 (ja) 物体検知装置
CN115469312A (zh) 车辆的可通行区域检测方法、装置、电子设备及存储介质
US11841419B2 (en) Stationary and moving object recognition apparatus
US11861914B2 (en) Object recognition method and object recognition device
CN115151836A (zh) 用于探测车辆周围环境中的移动对象的方法和机动车辆
WO2022102371A1 (ja) 物体検出装置、物体検出方法
JP7152884B2 (ja) 車両用物体検知装置
US20230065727A1 (en) Vehicle and vehicle control method
JP2020020690A (ja) 自車位置推定装置
JP4644590B2 (ja) 周辺車両位置検出装置および周辺車両位置検出方法
US20210133465A1 (en) Intersecting road estimation device
JP6789440B2 (ja) 物体同定装置
JP7344744B2 (ja) 路側端検出方法、及び、路側端検出装置
JPH08329398A (ja) 走行路検出装置
JPH08329397A (ja) 車両認識装置及びそれを用いた車両接近報知装置
KR102363924B1 (ko) 영상을 이용한 차간 거리 측정 장치 및 방법
JP7401273B2 (ja) 移動体の制御装置及び方法
US20230146935A1 (en) Content capture of an environment of a vehicle using a priori confidence levels
JP7505381B2 (ja) 物体検出装置および物体検出方法
KR102663836B1 (ko) 차량 간 거리 측정 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21891618

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022561369

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21891618

Country of ref document: EP

Kind code of ref document: A1