JP7395913B2 - object detection device - Google Patents

object detection device Download PDF

Info

Publication number
JP7395913B2
JP7395913B2 JP2019178544A JP2019178544A JP7395913B2 JP 7395913 B2 JP7395913 B2 JP 7395913B2 JP 2019178544 A JP2019178544 A JP 2019178544A JP 2019178544 A JP2019178544 A JP 2019178544A JP 7395913 B2 JP7395913 B2 JP 7395913B2
Authority
JP
Japan
Prior art keywords
vehicle
boundary line
interest
point
bounding box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019178544A
Other languages
Japanese (ja)
Other versions
JP2021056717A (en
Inventor
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019178544A priority Critical patent/JP7395913B2/en
Publication of JP2021056717A publication Critical patent/JP2021056717A/en
Application granted granted Critical
Publication of JP7395913B2 publication Critical patent/JP7395913B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、物体検知装置に関する。 Embodiments of the present invention relate to object detection devices.

従来、車両に設置された撮像部(カメラ)により撮像された撮像画像に対して、例えば、矩形のバウンディングボックスを設定し、物体(例えば、歩行者や他車両等の障害物)を検出する技術が実用化されている。例えば、予め定めた物体に対応する映像を撮像画像の中から抽出し、その映像全体を囲むようなバウンディングボックスを設定することで物体の認識を行うものがある。 Conventionally, a technology that detects objects (e.g., obstacles such as pedestrians and other vehicles) by setting, for example, a rectangular bounding box on a captured image captured by an imaging unit (camera) installed in a vehicle. has been put into practical use. For example, some systems perform object recognition by extracting a video corresponding to a predetermined object from a captured image and setting a bounding box that surrounds the entire video.

特開2018-142309号公報Japanese Patent Application Publication No. 2018-142309

ところで、上述したようなバウンディングボックスを用いた従来の物体認識の場合、例えば、物体までの距離を測距センサ等を用いずに推定しようとする場合、バウンディングボックスの下端中央部分の座標を物体の位置として、例えば二次元座標から三次元座標に変換することにより物体までの距離を推定する場合がある。しかしながら、上述したように、バウンディングボックスは、予め定めた物体に対応する映像を抽出し、その映像全体を囲むように設定する。そして、バウンディングボックスの例えば底辺の中央位置を物体の位置として推定することがある。そのため、実際の物体の位置とは異なる位置に基づいて距離推定を行ってしまう場合があった。その結果、物体までの距離誤差が大きくなってしまう場合があり、例えば、走行支援等により車両を走行させる場合、物体と接触してしまうリスクが高くなってしまう場合があるという問題があった。したがって、バウンディングボックスを用いた物体検知において、物体の位置をより高い精度で推定できる物体検知装置が提供できれば、より信頼性が高く、安全性の高い物体回避制御を実現させることができて有意義である。 By the way, in the case of conventional object recognition using a bounding box as described above, for example, when trying to estimate the distance to an object without using a distance sensor, etc., the coordinates of the center part of the lower end of the bounding box are As the position, for example, the distance to the object may be estimated by converting from two-dimensional coordinates to three-dimensional coordinates. However, as described above, the bounding box is set to extract an image corresponding to a predetermined object and surround the entire image. Then, for example, the center position of the bottom of the bounding box may be estimated as the position of the object. Therefore, distance estimation may be performed based on a position different from the actual position of the object. As a result, the distance error to the object may become large, and for example, when the vehicle is driven using driving support or the like, there is a problem in that the risk of contact with the object may become high. Therefore, in object detection using a bounding box, if an object detection device that can estimate the object's position with higher accuracy can be provided, it would be meaningful to realize more reliable and safer object avoidance control. be.

本発明の実施形態にかかる物体検知装置は、例えば、車両が存在する路面を含む周囲状況を撮像可能な撮像部で撮像された撮像画像を取得する取得部と、上記撮像画像に含まれる上記路面上で立体物が存在する領域として認識される物体領域と上記路面との境界を示す立体物境界線と、上記物体領域に含まれる上記立体物のうち予め定められた対象物体を選択するための矩形のバウンディングボックスと、を設定する設定部と、上記立体物境界線のうち上記バウンディングボックスに含まれる部分境界線を抽出するとともに、当該部分境界線上で上記車両と上記対象物体との接触を回避するために注目する注目点を推定して出力する制御部と、を備え、前記制御部は、前記注目点に基づき、三次元空間における前記車両から前記対象物体までの距離を算出する。この構成によれば、例えば、バウンディングボックスにより対象物体を抽出した上で、さらに物体と路面との境界、つまり、物体の足元の位置が特定できるため、対象物体の位置検出精度を向上できる。つまり、対象物体との接触を回避するための、より精度の高い注目点に位置が推定され、三次元空間における車両から対象物体までの距離が算出される。その結果、より信頼性が高くかつ安全性の高い物体回避制御を実現させることができる。 The object detection device according to the embodiment of the present invention includes, for example, an acquisition unit that acquires a captured image captured by an imaging unit capable of capturing a surrounding situation including a road surface on which a vehicle is present, and the road surface included in the captured image. A three-dimensional object boundary line indicating the boundary between the object area recognized as the area in which the three-dimensional object exists and the road surface, and a three-dimensional object boundary line for selecting a predetermined target object from among the three-dimensional objects included in the object area. a setting unit for setting a rectangular bounding box; and extracting a partial boundary line included in the bounding box from among the three-dimensional object boundary lines, and avoiding contact between the vehicle and the target object on the partial boundary line. a control unit that estimates and outputs a point of interest to be focused on in order to calculate a distance from the vehicle to the target object in a three-dimensional space based on the point of interest . According to this configuration, for example, after extracting the target object using a bounding box, it is possible to further specify the boundary between the object and the road surface, that is, the position of the foot of the object, so that the accuracy of detecting the position of the target object can be improved. In other words, the position is estimated to be a more accurate point of interest to avoid contact with the target object , and the distance from the vehicle to the target object in three-dimensional space is calculated . As a result, more reliable and safer object avoidance control can be realized.

本発明の実施形態にかかる物体検知装置の上記制御部は、例えば、上記部分境界線のうち上記バウンディングボックスの縦軸方向の最下位置を上記注目点としてもよい。この構成によれば、例えば、物体の位置を示す部分境界線のうち、車両(自車)に最も近い位置、すなわち、接触する可能性の高い位置を注目点として容易に決定することができる。その結果、より信頼性が高くかつ安全性の高い物体回避制御を実現させることができる。 For example, the control unit of the object detection device according to the embodiment of the present invention may set the lowermost position of the bounding box in the vertical axis direction of the partial boundary line as the point of interest. According to this configuration, for example, among the partial boundary lines indicating the position of the object, the position closest to the vehicle (self-vehicle), that is, the position with a high possibility of contact can be easily determined as the point of interest. As a result, more reliable and safer object avoidance control can be realized.

本発明の実施形態にかかる物体検知装置の上記制御部は、例えば、上記部分境界線において、上記部分境界線の傾きの正負が切り替わる切替り位置が存在する場合、上記切替り位置を上記注目点としてもよい。この構成によれば、例えば、対象物体のコーナー部分(例えば、角部分)を注目点として抽出可能となり、より信頼性が高くかつ安全性の高い物体回避制御を実現させることができる。 For example, when there is a switching position in the partial boundary line where the slope of the partial boundary line is switched between positive and negative, the control unit of the object detection device according to the embodiment of the present invention changes the switching position to the point of interest. You can also use it as According to this configuration, for example, a corner portion (for example, a corner portion) of a target object can be extracted as a point of interest, and more reliable and safe object avoidance control can be realized.

本発明の実施形態にかかる物体検知装置の上記制御部は、例えば、上記車両の舵角に基づく進行方向を示す走行予想線で定まる走行予想領域と上記バウンディングボックスとに基づき、上記部分境界線を定めて、上記注目点の位置を推定するようにしてもよい。この構成によれば、例えば、車両が進行(走行)する可能性のある領域について部分境界線の抽出が可能となり、より信頼性が高いかつ安全性の高い物体回避制御を実現させることができる。 The control unit of the object detection device according to the embodiment of the present invention may, for example, determine the partial boundary line based on the bounding box and an expected travel area determined by an expected travel line indicating the traveling direction based on the steering angle of the vehicle. Alternatively, the position of the point of interest may be estimated. According to this configuration, for example, it is possible to extract a partial boundary line for a region in which a vehicle is likely to proceed (drive), and it is possible to realize object avoidance control with higher reliability and higher safety.

図1は、実施形態にかかる物体検知装置を搭載可能な車両の一例を示す模式的な平面図である。FIG. 1 is a schematic plan view showing an example of a vehicle in which an object detection device according to an embodiment can be mounted. 図2は、実施形態にかかる物体検知装置を含む制御システムの構成の例示的なブロック図である。FIG. 2 is an exemplary block diagram of the configuration of a control system including the object detection device according to the embodiment. 図3は、実施形態にかかる物体検知装置(物体検知部)をCPUで実現する場合の構成を例示的に示すブロック図である。FIG. 3 is a block diagram exemplarily showing a configuration when the object detection device (object detection section) according to the embodiment is implemented by a CPU. 図4は、実施形態にかかる物体検知装置において、立体物境界線とバウンディングボックスの設定を示す例示的かつ模式的な説明図である。FIG. 4 is an exemplary and schematic explanatory diagram showing the setting of solid object boundaries and bounding boxes in the object detection device according to the embodiment. 図5は、実施形態にかかる物体検知装置において、部分境界線の設定を示す例示的かつ模式的な説明図である。FIG. 5 is an exemplary and schematic explanatory diagram showing the setting of partial boundaries in the object detection device according to the embodiment. 図6は、実施形態にかかる物体検知装置において、バウンディングボックスの縦軸方向の最下位置を注目点とすることを説明する例示的かつ模式的な図である。FIG. 6 is an exemplary and schematic diagram illustrating that the lowest position of the bounding box in the vertical axis direction is the point of interest in the object detection device according to the embodiment. 図7は、実施形態にかかる物体検知装置において、バウンディングボックスの縦軸方向の最下位置を注目点とする他の例を説明する例示的かつ模式的な図である。FIG. 7 is an exemplary and schematic diagram illustrating another example in which the lowest position of the bounding box in the vertical axis direction is the point of interest in the object detection device according to the embodiment. 図8は、実施形態にかかる物体検知装置において、走行予想領域とバウンディングボックスとに基づき、部分境界線を設定することを示す模式的な説明図である。FIG. 8 is a schematic explanatory diagram illustrating setting a partial boundary line based on the predicted travel area and the bounding box in the object detection device according to the embodiment. 図9は、実施形態にかかる物体検知装置の注目点の推定処理の流れの一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the flow of the attention point estimation process of the object detection device according to the embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。 Exemplary embodiments of the invention are disclosed below. The configuration of the embodiment shown below, and the actions, results, and effects brought about by the configuration are examples. The present invention can be realized with configurations other than those disclosed in the embodiments below, and it is possible to obtain at least one of various effects based on the basic configuration and derivative effects. .

本実施形態の物体検知装置は、例えば、撮像画像に含まれる路面上で立体物が存在する領域として認識される物体領域と路面との境界を示す立体物境界線と、物体領域に含まれる対象物体を選択(抽出)するためのバウンディングボックスと、を用いて、対象物体が路面と接触している部分境界線の位置を抽出する。そして、部分境界線上で車両と対象物体との接触を回避するために注目すべき注目点を推定して出力する。 The object detection device of this embodiment detects, for example, a three-dimensional object boundary line indicating a boundary between an object area and the road surface, which is recognized as an area where a three-dimensional object exists on the road surface included in the captured image, and an object included in the object area. The position of the partial boundary line where the target object is in contact with the road surface is extracted using a bounding box for selecting (extracting) the object. Then, the points of interest that should be noted in order to avoid contact between the vehicle and the target object on the partial boundary line are estimated and output.

図1は、本実施形態の物体検知装置が搭載される車両10の模式的な平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪12(前輪12F、後輪12R)の駆動に関わる装置の方式、個数、及び、レイアウト等は、種々に設定することができる。 FIG. 1 is a schematic plan view of a vehicle 10 in which an object detection device of this embodiment is mounted. The vehicle 10 may be, for example, an automobile (internal combustion engine automobile) whose driving source is an internal combustion engine (engine, not shown), or an automobile (electric automobile) whose driving source is an electric motor (motor, not shown). , fuel cell vehicle, etc.), or a vehicle (hybrid vehicle) that uses both of these as drive sources. Further, the vehicle 10 can be equipped with various transmission devices, and can be equipped with various devices (systems, parts, etc.) necessary to drive an internal combustion engine or an electric motor. Further, the system, number, layout, etc. of devices related to driving the wheels 12 (front wheels 12F, rear wheels 12R) in the vehicle 10 can be set in various ways.

図1に例示されるように、車両10には、複数の撮像部14として、例えば四つの撮像部14a~14dが設けられている。撮像部14は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部14は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部14は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~220°の範囲を撮影することができる。また、例えば、車両10の外周部に配置される撮像部14(14a~14d)の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部14(14a~14d)は、車両10が移動可能な路面や路面に付されたマーク(矢印や区画線、駐車スペースを示す駐車枠、車線分離線等)や物体(障害物として、例えば、歩行者、他車両等)を含む車両10の外部の周辺状況を逐次撮影し、撮像画像データとして出力する。 As illustrated in FIG. 1, the vehicle 10 is provided with, for example, four imaging units 14a to 14d as the plurality of imaging units 14. The imaging unit 14 is, for example, a digital camera incorporating an imaging element such as a CCD (Charge Coupled Device) or a CIS (CMOS image sensor). The imaging unit 14 can output moving image data (captured image data) at a predetermined frame rate. The imaging units 14 each have a wide-angle lens or a fisheye lens, and can take images in a range of, for example, 140° to 220° in the horizontal direction. Furthermore, for example, the optical axis of the imaging section 14 (14a to 14d) disposed on the outer periphery of the vehicle 10 may be set diagonally downward. Therefore, the imaging unit 14 (14a to 14d) detects road surfaces on which the vehicle 10 can move, marks attached to the road surfaces (arrows, division lines, parking frames indicating parking spaces, lane separation lines, etc.) and objects (as obstacles). , pedestrians, other vehicles, etc.) are sequentially photographed and output as captured image data.

撮像部14aは、例えば、車両10の前側、すなわち車両前後方向の前方側で車幅方向のほぼ中央の端部、例えばフロントバンパ10aやフロントグリル等に設けられて、車両10の前端部(例えばフロントバンパ10a)を含む前方画像を撮像可能である。また、撮像部14bは、例えば、車両10の後側、すなわち車両前後方向の後方側で車幅方向のほぼ中央の端部、例えばリヤバンパ10bの上方位置に設けられて、車両10の後端部(例えばリヤバンパ10b)を含む後方領域を撮像可能である。また、撮像部14cは、例えば、車両10の右側の端部、例えば右側のドアミラー10cに設けられて、車両10の右側方を中心とする領域(例えば右前方から右後方の領域)を含む右側方画像を撮像可能である。撮像部14dは、例えば、車両10の左側の端部、例えば左側のドアミラー10dに設けられて、車両10の左側方を中心とする領域(例えば左前方から左後方の領域)を含む左側方画像を撮像可能である。 The imaging unit 14a is, for example, provided on the front side of the vehicle 10, that is, on the front side in the longitudinal direction of the vehicle, at an end portion approximately at the center in the vehicle width direction, such as the front bumper 10a, the front grille, etc. It is possible to capture a front image including the front bumper 10a). Further, the imaging unit 14b is provided, for example, at the rear side of the vehicle 10, that is, at the rear side in the longitudinal direction of the vehicle, at a substantially central end in the vehicle width direction, for example, at a position above the rear bumper 10b, and at the rear end of the vehicle 10. (For example, the rear bumper 10b) can be imaged. Further, the imaging unit 14c is provided, for example, at the right end of the vehicle 10, for example, the right side door mirror 10c, and is located on the right side including an area centered on the right side of the vehicle 10 (for example, an area from the right front to the right rear). It is possible to capture images from both sides. The imaging unit 14d is provided, for example, at the left end of the vehicle 10, for example, the left side door mirror 10d, and captures a left side image including an area centered on the left side of the vehicle 10 (for example, an area from the front left to the rear left). can be imaged.

例えば、撮像部14a~14dで得られた各撮像画像データは、それぞれ演算処理や画像処理を実行することで、車両10の周囲それぞれの方向における画像を表示したり周辺監視を実行したりすることができる。また、各撮像画像データに基づいて、演算処理や画像処理を実行することで、より広い視野角の画像を生成したり、車両10を上方や前方、側方等から見た仮想的な画像(俯瞰画像(平面画像)や側方視画像、正面視画像等)を生成して表示したり、周辺監視を実行したりすることができる。 For example, each captured image data obtained by the imaging units 14a to 14d is subjected to arithmetic processing and image processing to display images in each direction around the vehicle 10 or to perform surrounding monitoring. I can do it. In addition, by performing arithmetic processing and image processing based on each captured image data, images with a wider viewing angle can be generated, and virtual images ( It is possible to generate and display a bird's-eye view image (a planar image), a side view image, a front view image, etc., and perform peripheral monitoring.

各撮像部14で撮像された撮像画像データは、上述したように、車両10の周囲の状況を運転者等の利用者に提供するために、車室内の表示装置に表示される。また、撮像画像データは、物体(例えば、他車両や歩行者等の障害物)の検出や、位置特定、距離測定等各種検出や検知を行う処理装置(処理部)に提供され、車両10を制御するために利用することができる。 As described above, the captured image data captured by each imaging unit 14 is displayed on a display device in the vehicle interior in order to provide users, such as the driver, with information about the surroundings of the vehicle 10. In addition, the captured image data is provided to a processing device (processing unit) that performs various detections and detections such as detecting objects (for example, obstacles such as other vehicles and pedestrians), specifying the position, and measuring distance. It can be used for control.

図2は、車両10に搭載される物体検知装置を含む制御システム100の構成の例示的なブロック図である。車両10の車室内には、表示装置16や、音声出力装置18が設けられている。表示装置16は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置18は、例えば、スピーカである。また、表示装置16は、例えば、タッチパネル等、透明な操作入力部20で覆われている。使用者(例えば、運転者)は、操作入力部20を介して表示装置16の表示画面に表示される画像を視認することができる。また、利用者は、表示装置16の表示画面に表示される画像に対応した位置で、手指等で操作入力部20を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置16や、音声出力装置18、操作入力部20等は、例えば、車両10のダッシュボードの車幅方向すなわち左右方向の例えば中央部に位置されたモニタ装置22に設けられている。モニタ装置22は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。モニタ装置22は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。 FIG. 2 is an exemplary block diagram of the configuration of control system 100 including an object detection device mounted on vehicle 10. A display device 16 and an audio output device 18 are provided inside the vehicle 10 . The display device 16 is, for example, an LCD (liquid crystal display) or an OELD (organic electroluminescent display). The audio output device 18 is, for example, a speaker. Further, the display device 16 is covered with a transparent operation input section 20 such as a touch panel. A user (for example, a driver) can visually recognize an image displayed on the display screen of the display device 16 via the operation input unit 20. Further, the user can perform operation input by touching, pressing, or moving the operation input section 20 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 16. I can do it. The display device 16, the audio output device 18, the operation input unit 20, and the like are provided, for example, in a monitor device 22 located at the center of the dashboard of the vehicle 10 in the vehicle width direction, that is, in the left-right direction. The monitor device 22 can have an operation input section (not shown) such as a switch, dial, joystick, push button, or the like. The monitor device 22 can be used, for example, as a navigation system or an audio system.

また、図2に例示されるように、制御システム100(物体検知装置を含む)は、撮像部14(14a~14d)やモニタ装置22に加え、ECU24(electronic control unit)、車輪速センサ26、舵角センサ28、シフトセンサ30、走行支援部32等が含まれる。制御システム100において、ECU24やモニタ装置22、車輪速センサ26、舵角センサ28、シフトセンサ30、走行支援部32等は、電気通信回線としての車内ネットワーク34を介して電気的に接続されている。車内ネットワーク34は、例えば、CAN(controller area network)として構成されている。ECU24は、車内ネットワーク34を通じて制御信号を送ることで、各種システムの制御が実行できる。また、ECU24は、車内ネットワーク34を介して、操作入力部20や各種スイッチの操作信号等、車輪速センサ26、舵角センサ28、シフトセンサ30等の各種センサの検出信号等を受け取ることができる。なお、車内ネットワーク34には、車両10を走行させるための種々のシステム(操舵システム、ブレーキシステム、駆動システム等)や種々のセンサが接続されているが、図2において、本実施形態の物体検知装置と関連性の低い構成は図示を省略するとともに、その説明を省略する。 Further, as illustrated in FIG. 2, the control system 100 (including the object detection device) includes, in addition to the imaging section 14 (14a to 14d) and the monitor device 22, an ECU 24 (electronic control unit), a wheel speed sensor 26, It includes a steering angle sensor 28, a shift sensor 30, a driving support section 32, and the like. In the control system 100, the ECU 24, monitor device 22, wheel speed sensor 26, steering angle sensor 28, shift sensor 30, driving support section 32, etc. are electrically connected via an in-vehicle network 34 as a telecommunications line. . The in-vehicle network 34 is configured as, for example, a CAN (controller area network). The ECU 24 can control various systems by sending control signals through the in-vehicle network 34. Further, the ECU 24 can receive operation signals from the operation input unit 20 and various switches, detection signals from various sensors such as the wheel speed sensor 26, the steering angle sensor 28, the shift sensor 30, etc. via the in-vehicle network 34. . Note that various systems (steering system, brake system, drive system, etc.) and various sensors for driving the vehicle 10 are connected to the in-vehicle network 34, and in FIG. Configurations that are less relevant to the device are not shown in the drawings, and their descriptions are also omitted.

ECU24は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両10の制御全般を司る。具体的には、ECU24は、CPU(Central Processing Unit)24a、ROM(Read Only Memory)24b、RAM(Random Access Memory)24c、表示制御部24d、音声制御部24e、およびSSD(Solid State Drive)24fを備える。 The ECU 24 is composed of a computer or the like, and controls overall control of the vehicle 10 through cooperation of hardware and software. Specifically, the ECU 24 includes a CPU (Central Processing Unit) 24a, a ROM (Read Only Memory) 24b, a RAM (Random Access Memory) 24c, a display control section 24d, an audio control section 24e, and an SSD (Solid State Drive) 24f. Equipped with

CPU24aは、ROM24b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。CPU24aは、例えば、撮像部14が撮像した撮像画像に対して画像処理を施し、物体認識を実行して、物体の存在する位置、物体までの距離等の推定を行うことができる。また、認識した物体との接触を回避するための注目点の位置を推定することができる。さらに、その注目点に基づき、物体に接触することなく車両10を走行させるための走行支援処理等を実行させることができる。例えば、操舵システム、ブレーキシステム、駆動システム等の制御や操作に必要な情報の提供を行うことができる。 The CPU 24a reads a program stored (installed) in a nonvolatile storage device such as a ROM 24b, and executes arithmetic processing according to the program. For example, the CPU 24a can perform image processing on the captured image captured by the imaging unit 14, perform object recognition, and estimate the location of the object, the distance to the object, and the like. Additionally, it is possible to estimate the position of a point of interest to avoid contact with the recognized object. Furthermore, based on the point of interest, it is possible to execute a driving support process or the like for driving the vehicle 10 without contacting an object. For example, information necessary for controlling and operating a steering system, brake system, drive system, etc. can be provided.

ROM24bは、各プログラム及びプログラムの実行に必要なパラメータ等を記憶する。RAM24cは、CPU24aが物体検知処理を実行する際のワークエリアとして使用されるとともに、CPU24aでの演算で用いられる各種のデータ(撮像部14で逐次(時系列的に)撮像される撮像画像データ等)の一時的な格納エリアとして利用される。表示制御部24dは、ECU24での演算処理のうち、主として、撮像部14から取得してCPU24aへ出力する画像データに対する画像処理、CPU24aから取得した画像データを表示装置16に表示させる表示用の画像データへの変換等を実行する。音声制御部24eは、ECU24での演算処理のうち、主として、CPU24aから取得して音声出力装置18に出力させる音声の処理を実行する。SSD24fは、書き換え可能な不揮発性の記憶部であって、ECU24の電源がオフされた場合にあってもCPU24aから取得したデータを記憶し続ける。なお、CPU24aや、ROM24b、RAM24c等は、同一パッケージ内に集積されうる。また、ECU24は、CPU24aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD24fに替えてHDD(hard disk drive)が設けられてもよいし、SSD24fやHDDは、ECU24とは別に設けられてもよい。 The ROM 24b stores each program and parameters necessary for executing the program. The RAM 24c is used as a work area when the CPU 24a executes object detection processing, and also stores various data used in calculations by the CPU 24a (captured image data sequentially (chronologically) captured by the imaging unit 14, etc.). ) is used as a temporary storage area. Among the calculation processing performed by the ECU 24, the display control unit 24d mainly processes image data acquired from the imaging unit 14 and output to the CPU 24a, and performs image processing for displaying image data acquired from the CPU 24a on the display device 16. Executes conversion to data, etc. Among the calculation processing performed by the ECU 24, the audio control unit 24e mainly executes audio processing that is acquired from the CPU 24a and output to the audio output device 18. The SSD 24f is a rewritable non-volatile storage unit, and continues to store data acquired from the CPU 24a even when the power of the ECU 24 is turned off. Note that the CPU 24a, ROM 24b, RAM 24c, etc. can be integrated in the same package. Further, the ECU 24 may have a configuration in which other logic processors such as a DSP (digital signal processor), logic circuits, etc. are used instead of the CPU 24a. Further, an HDD (hard disk drive) may be provided in place of the SSD 24f, or the SSD 24f and the HDD may be provided separately from the ECU 24.

車輪速センサ26は、車輪12の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ26は、各車輪12に配置され、各車輪12で検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ26は、例えば、ホール素子などを用いて構成されうる。CPU24aは、車輪速センサ26から取得した検出値に基づいて車両10の車速や加速度等を演算し、各種制御を実行する。 The wheel speed sensor 26 is a sensor that detects the amount of rotation of the wheel 12 and the number of rotations per unit time. The wheel speed sensor 26 is arranged at each wheel 12 and outputs the number of wheel speed pulses indicating the rotation speed detected by each wheel 12 as a sensor value. The wheel speed sensor 26 may be configured using, for example, a Hall element. The CPU 24a calculates the vehicle speed, acceleration, etc. of the vehicle 10 based on the detected values obtained from the wheel speed sensors 26, and executes various controls.

舵角センサ28は、例えば、ステアリングホイール等の操舵部の操舵量を検出するセンサである。舵角センサ28は、例えば、ホール素子などを用いて構成される。CPU24aは、運転者による操舵部の操舵量や、例えば駐車支援を実行する際の自動操舵時の前輪12Fの操舵量等を、舵角センサ28から取得して各種制御を実行する。 The steering angle sensor 28 is, for example, a sensor that detects the amount of steering of a steering unit such as a steering wheel. The steering angle sensor 28 is configured using, for example, a Hall element. The CPU 24a acquires from the steering angle sensor 28 the amount of steering of the steering unit by the driver, the amount of steering of the front wheels 12F during automatic steering when executing parking assistance, for example, and executes various controls.

シフトセンサ30は、変速操作部の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、変速機の動作状態、変速段の状態や車両10の走行可能方向(Dレンジ:前進方向、Rレンジ:後退方向)等を示す情報を検出する。 The shift sensor 30 is a sensor that detects the position of the movable parts (bars, arms, buttons, etc.) of the gear shift operation unit, and detects the operating state of the transmission, the gear position state, and the direction in which the vehicle 10 can travel (D range: forward Detects information indicating the direction, R range (reverse direction), etc.

走行支援部32は、制御システム100によって算出された移動経路または外部から提供された移動経路に基づいて、車両10を移動させる走行支援を実現するために、操舵システム、ブレーキシステム、駆動システム等に制御情報を提供する。走行支援部32は、例えば、操舵システム、ブレーキシステム、駆動システム等を全て自動制御する完全自動制御を実行させたり、操舵システム、ブレーキシステム、駆動システム等の一部の制御を自動制御する半自動制御を実行させたりする。また、走行支援部32は、移動経路に沿って車両10が移動できるように、操舵システム、ブレーキシステム、駆動システム等の操作案内を運転者に提供して、運転者に運転操作を実行させる手動制御を実行させてもよい。この場合、走行支援部32は、表示装置16や音声出力装置18に対して操作情報を提供するようにしてもよい。また、走行支援部32は、半自動制御を実行する場合も、運転者に操作させる、例えばアクセル操作等に関する情報を表示装置16や音声出力装置18を介して提供することができる。 The driving support unit 32 provides driving support for the steering system, brake system, drive system, etc. in order to realize driving support for moving the vehicle 10 based on the movement route calculated by the control system 100 or the movement route provided from the outside. Provide control information. For example, the driving support unit 32 executes fully automatic control that automatically controls all of the steering system, brake system, drive system, etc., or semi-automatic control that automatically controls part of the steering system, brake system, drive system, etc. or execute it. In addition, the driving support unit 32 provides the driver with operation guidance for the steering system, brake system, drive system, etc. so that the vehicle 10 can move along the travel route, and manually prompts the driver to perform driving operations. Control may also be executed. In this case, the driving support section 32 may provide operation information to the display device 16 and the audio output device 18. Further, even when performing semi-automatic control, the driving support unit 32 can provide the driver with information regarding, for example, accelerator operation, via the display device 16 and the audio output device 18.

図3は、実施形態にかかる物体検知装置(物体検知部40)をCPU24aで実現する場合の構成を例示的かつ模式的に示すブロック図である。CPU24aは、ROM24bから読み出した物体検知プログラムを実行することにより、図3に示すように、画像取得部42、設定部44、制御部46等のモジュールを含む物体検知部40を実現する。また、設定部44は、立体物境界線設定部44a、バウンディングボックス設定部44b、走行予想領域設定部44c等の詳細モジュールを含む。また、制御部46は、部分境界線抽出部46a、注目点推定部46b、出力部46c等の詳細モジュールを含む。なお、画像取得部42、設定部44、制御部46の一部または全部を回路等のハードウェアによって構成してもよい。また、図3では、図示を省略しているが、CPU24aは、車両10の走行に必要な各種モジュールを実現することもできる。また、図2では、主として物体検知処理を実行するCPU24aを示しているが、車両10の走行に必要な各種モジュールを実現するためのCPUを備えてもよいし、ECU24とは別のECUを備えてもよい。 FIG. 3 is a block diagram illustratively and schematically showing a configuration when the object detection device (object detection unit 40) according to the embodiment is implemented by the CPU 24a. By executing the object detection program read from the ROM 24b, the CPU 24a realizes the object detection section 40 including modules such as an image acquisition section 42, a setting section 44, a control section 46, etc., as shown in FIG. Further, the setting section 44 includes detailed modules such as a three-dimensional object boundary line setting section 44a, a bounding box setting section 44b, and an expected travel area setting section 44c. Further, the control unit 46 includes detailed modules such as a partial boundary line extraction unit 46a, a point of interest estimation unit 46b, and an output unit 46c. Note that part or all of the image acquisition section 42, setting section 44, and control section 46 may be configured by hardware such as a circuit. Although not shown in FIG. 3, the CPU 24a can also implement various modules necessary for the vehicle 10 to travel. Further, although FIG. 2 mainly shows the CPU 24a that executes object detection processing, it may also include a CPU for realizing various modules necessary for running the vehicle 10, or may include an ECU separate from the ECU 24. It's okay.

画像取得部42は、撮像部14により撮像された、車両10が存在する路面を含む車両10の周囲状況を示す撮像画像(周辺画像)を取得し、設定部44および制御部46に提供する。なお、画像取得部42は、各撮像部14(14a~14d)が撮像する撮像画像を逐次取得して設定部44および制御部46に提供するようにしてもよい。また、別の例では、画像取得部42は、シフトセンサ30から取得できる車両10の進行可能方向(前進方向または後退方向)に関する情報に基づいて進行可能方向の物体検知が実行できるように、進行可能方向の撮像画像を選択的に取得して設定部44および制御部46に提供するようにしてもよい。 The image acquisition unit 42 acquires a captured image (surrounding image) showing the surrounding situation of the vehicle 10 including the road surface on which the vehicle 10 exists, captured by the imaging unit 14, and provides it to the setting unit 44 and the control unit 46. Note that the image acquisition section 42 may sequentially acquire the captured images captured by each of the imaging sections 14 (14a to 14d) and provide them to the setting section 44 and the control section 46. In another example, the image acquisition unit 42 detects objects in the possible travel direction of the vehicle 10 based on information regarding the possible travel direction of the vehicle 10 (forward direction or backward direction) that can be obtained from the shift sensor 30. Captured images in possible directions may be selectively acquired and provided to the setting unit 44 and the control unit 46.

設定部44は、画像取得部42から提供される撮像画像に画像処理等を施すことにより、各種境界線や領域の設定を行う。図4、図5は、各種境界線や領域の設定を説明する例示的かつ模式的な図である。なお、図4、図5は、車両10が後退可能な状態(シフトセンサ30の検出結果がRレンジの場合)で、後方画像について、各種境界線や領域が設定されている例である。 The setting unit 44 performs image processing and the like on the captured image provided from the image acquisition unit 42 to set various boundaries and areas. FIGS. 4 and 5 are exemplary and schematic diagrams illustrating settings of various boundary lines and areas. Note that FIGS. 4 and 5 are examples in which various boundary lines and areas are set for the rear image when the vehicle 10 is in a state where it can move backward (when the detection result of the shift sensor 30 is in the R range).

立体物境界線設定部44aは、図4に示されるように、撮像画像50(例えば、後方画像)に含まれる路面52上で立体物(他車両54やフェンス56等)が存在する領域として認識される物体領域BRと路面52との境界を示す立体物境界線58を設定する。立体物境界線58は、周知の画像処理技術、例えば、エッジ検出や直線近似や、機械学習等の手法を用いて設定することができる。立体物境界線58は、路面52上に存在する立体物の足元の位置(路面52と接触する位置や路面52から浮いた立体物が路面52に投影された位置を結んだ線と見なすことができる。なお、図4の場合、作図の都合上、立体物境界線58は平滑な線として表現されているが、実際は、立体物の形状や位置、撮像画像の解像度や認識精度、ノイズ等により非平滑な線になる場合がある。そのような場合は、周知の平滑化処置(スムージング処理)を実行してもよい。 As shown in FIG. 4, the three-dimensional object boundary line setting unit 44a recognizes an area where a three-dimensional object (another vehicle 54, a fence 56, etc.) exists on a road surface 52 included in a captured image 50 (for example, a rear image). A three-dimensional object boundary line 58 indicating the boundary between the object region BR and the road surface 52 is set. The three-dimensional object boundary line 58 can be set using a well-known image processing technique such as edge detection, linear approximation, machine learning, or the like. The three-dimensional object boundary line 58 can be regarded as a line connecting the foot position of the three-dimensional object existing on the road surface 52 (the position where it contacts the road surface 52 or the position where the three-dimensional object floating from the road surface 52 is projected onto the road surface 52). In the case of Fig. 4, the three-dimensional object boundary line 58 is expressed as a smooth line for convenience of drawing, but in reality, it may vary depending on the shape and position of the three-dimensional object, the resolution and recognition accuracy of the captured image, noise, etc. The line may be non-smooth. In such a case, a well-known smoothing process may be performed.

バウンディングボックス設定部44bは、物体領域BRに含まれる立体物(他車両54やフェンス56等)のうち予め定められた対象物体(例えば、他車両54に相当する物体)を選択するための矩形のバウンディングボックス60を設定する。対象物体は、車両10を走行させる場合に、路面52上に存在し得る接触を避けるべき障害物であり、例えば、他車両54やフェンス56に相当する物体の他、自転車、歩行者、電柱、街路樹、花壇等に相当する物体であり、予め、例えば機械学習等により学習させたモデルにより抽出することができる物体である。バウンディングボックス設定部44bは、周知に技術に従い学習させたモデルを撮像画像50に適用し、例えば、対象物体の特徴点と撮像画像50に含まれる画像の特徴点との一致度を求めて、撮像画像50上のどこに既知の対象物体が存在するかを検出する。そして、検出した物体、すなわち、図4に示すように、対象物体と見なせる物体(例えば、他車両54)を囲むように、バウンディングボックス60を設定する。なお、図4、図5および後述する図8では、車両10との接触を回避する物体を検知する例として、車両10に最も近い位置で抽出された物体についてバウンディングボックス60を設定した例を示している。 The bounding box setting unit 44b is configured to set a rectangular shape for selecting a predetermined target object (for example, an object corresponding to the other vehicle 54) from among the three-dimensional objects (other vehicle 54, fence 56, etc.) included in the object region BR. A bounding box 60 is set. Target objects are obstacles that may exist on the road surface 52 and should be avoided when the vehicle 10 is traveling, and include objects such as other vehicles 54 and fences 56, as well as bicycles, pedestrians, telephone poles, These objects correspond to roadside trees, flower beds, etc., and are objects that can be extracted in advance using a model trained by, for example, machine learning. The bounding box setting unit 44b applies a model trained according to a well-known technique to the captured image 50, calculates the degree of coincidence between the feature points of the target object and the feature points of the image included in the captured image 50, and It is detected where on the image 50 a known target object exists. Then, a bounding box 60 is set to surround the detected object, that is, an object that can be considered as a target object (for example, another vehicle 54), as shown in FIG. 4, FIG. 5, and FIG. 8, which will be described later, show an example in which a bounding box 60 is set for an object extracted at a position closest to the vehicle 10, as an example of detecting an object that avoids contact with the vehicle 10. ing.

走行予想領域設定部44cは、車両10が走行した場合に通過が予想される領域を設定する。例えば、車両10の現在の舵角に基づき、車両10が走行する方向と車両10が通過する領域が推定できる。したがって、車両10の通過領域によって、対象物体(例えば他車両54)との接触を回避する必要がある領域を限定することが可能となり、接触回避位置の推定精度を向上することができるとともに、回避のための処理負荷を軽減することができる。なお、走行予想領域設定部44cを用いた制御の詳細は後述する。 The expected travel area setting unit 44c sets an area through which the vehicle 10 is expected to travel. For example, based on the current steering angle of the vehicle 10, the direction in which the vehicle 10 will travel and the area through which the vehicle 10 will pass can be estimated. Therefore, it is possible to limit the area where it is necessary to avoid contact with a target object (for example, another vehicle 54) by the passage area of the vehicle 10, and it is possible to improve the estimation accuracy of the contact avoidance position and to avoid processing load can be reduced. Note that the details of the control using the predicted travel area setting section 44c will be described later.

制御部46は、車両10と対象物体との接触を回避するための限界線となる部分境界線62を抽出するとともに、部分境界線62上に車両10との接触を回避するために注目するべき注目点Tを推定して出力する。なお、注目点Tは、対象物体との接触を回避する場合の代表的に点(位置)であり、注目点Tとの接触を回避できれば、車両10との接触が回避できるものとする。 The control unit 46 extracts a partial boundary line 62 that is a limit line for avoiding contact between the vehicle 10 and the target object, and also identifies points on the partial boundary line 62 that should be noted in order to avoid contact with the vehicle 10. The point of interest T is estimated and output. Note that the point of interest T is a typical point (position) when avoiding contact with a target object, and if contact with the point of interest T can be avoided, contact with the vehicle 10 can be avoided.

部分境界線抽出部46aは、図4、図5に示すように、撮像画像50に対して立体物境界線設定部44aが設定した立体物境界線58のうちバウンディングボックス設定部44bが同じ撮像画像50に設定したバウンディングボックス60に含まれる部分を抽出して部分境界線62として設定する。つまり、バウンディングボックス60によって、立体物境界線58の一部が部分境界線62として選択され、図5に示すように、対象物体と見なされた例えば他車両54の足元の位置(他車両54の車輪と路面52の接触位置や他車両54のボディの投影位置)を示す線分となる。つまり、車両10が(例えば、他車両54)に接近していく場合に、部分境界線抽出部46aによって抽出された部分境界線62は、対象物体(例えば他車両54)との接触を回避するための限界線と見なすことができる。なお、バウンディングボックス60が設定される場合、対象物体が存在する。そして、対象物体(立体物)が存在する場合、立体物境界線58で設定されていることになる。したがって、バウンディングボックス60が設定可能な場合(対象物体が存在する場合)は、部分境界線62を抽出することができる。 As shown in FIGS. 4 and 5, the partial boundary line extraction unit 46a selects the captured image in which the bounding box setting unit 44b is the same among the three-dimensional object boundaries 58 set by the three-dimensional object boundary line setting unit 44a in the captured image 50. 50 is extracted and set as a partial boundary line 62. That is, a part of the three-dimensional object boundary line 58 is selected as a partial boundary line 62 by the bounding box 60, and as shown in FIG. This line segment indicates the contact position between the wheels and the road surface 52 or the projected position of the body of the other vehicle 54. That is, when the vehicle 10 approaches (for example, another vehicle 54), the partial boundary line 62 extracted by the partial boundary line extraction unit 46a avoids contact with the target object (for example, other vehicle 54). It can be seen as a limit line for Note that when the bounding box 60 is set, a target object exists. If a target object (three-dimensional object) exists, it is set as a three-dimensional object boundary line 58. Therefore, if the bounding box 60 can be set (if a target object exists), the partial boundary line 62 can be extracted.

注目点推定部46bは、図5に示すように、部分境界線62上で、車両1と対象物体との接触を回避するために注目する注目点Tを推定する。上述したように、車両10が対象物体に接近する場合に、部分境界線62を超えなければ、接触する可能性は小さい。そこで、注目点推定部46bは、立体物境界線設定部44aで設定された対象物体の足元を示す部分境界線62上に注目点Tを設定(推定)する。注目点推定部46bは、予め定めた規則に従い注目点Tの設定を行う。例えば、図5に示すように、注目点推定部46bは、撮像画像50の二次元座標(X-Y座標)において、部分境界線62の両端のX座標をXおよびXとした場合に、その中点の位置を注目点TのX座標Xとする。したがって、注目点Tの二次元座標は、(X,Y)と推定することができる。 As shown in FIG. 5, the attention point estimation unit 46b estimates the attention point T on the partial boundary line 62 to avoid contact between the vehicle 1 and the target object. As described above, when the vehicle 10 approaches a target object, the possibility of contact is small unless the vehicle 10 crosses the partial boundary line 62. Therefore, the point of interest estimating section 46b sets (estimates) the point of interest T on the partial boundary line 62 indicating the foot of the target object set by the three-dimensional object boundary line setting section 44a. The attention point estimation unit 46b sets the attention point T according to predetermined rules. For example, as shown in FIG. 5, the point of interest estimation unit 46b calculates that in the two-dimensional coordinates (XY coordinates) of the captured image 50, when the X coordinates of both ends of the partial boundary line 62 are X i and X j , , let the position of the midpoint be the X coordinate X0 of the point of interest T. Therefore, the two-dimensional coordinates of the point of interest T can be estimated as (X 0 , Y 0 ).

出力部46cは、注目点Tの情報として二次元座標の情報を走行支援部32に出力してもよいし、周知の演算処理によって、二次元座標を三次元座標に変化して、注目点Tの三次元座標を走行支援部32に出力してもよい。また、出力部46cは、三次元空間にける車両10から対象物体までの距離(端部参照位置Pから注目点Tまでの距離)を算出して走行支援部32に出力してもよい。 The output unit 46c may output information on two-dimensional coordinates to the driving support unit 32 as information on the point of interest T, or change the two-dimensional coordinates into three-dimensional coordinates by well-known calculation processing and output the two-dimensional coordinate information as the information on the point of interest T. The three-dimensional coordinates of the vehicle may be output to the driving support section 32. The output unit 46c may also calculate the distance from the vehicle 10 to the target object in the three-dimensional space (the distance from the end reference position P to the point of interest T) and output the calculated distance to the driving support unit 32.

このように、立体物境界線58とバウンディングボックス60とを組み合わせて、部分境界線62を抽出することにより、対象物体(例えば他車両54)の足元の位を認識することができる。そして、部分境界線62上で推定した注目点Tを用いて、走行支援を実行させることにより、車両10と対象物体との位置関係をより正確に認識した上で、対象物体に対する接触回避をより精度よく実現できる。特に、車両10が対象物体に接近した際の位置関係(相対距離)が正確に検知できるので、より正確な制御を実行させることができる。 In this way, by combining the three-dimensional object boundary line 58 and the bounding box 60 and extracting the partial boundary line 62, it is possible to recognize the location under the feet of the target object (for example, another vehicle 54). Then, by executing driving support using the point of interest T estimated on the partial boundary line 62, the positional relationship between the vehicle 10 and the target object can be more accurately recognized, and contact with the target object can be more easily avoided. It can be achieved with high precision. In particular, since the positional relationship (relative distance) when the vehicle 10 approaches the target object can be accurately detected, more accurate control can be executed.

なお、注目点推定部46bは、別の実施形態として、例えば、図5に示すように、部分境界線62において、当該部分境界線62の傾きの正負が切り替わる切替り位置が存在する場合、その切替り位置を注目点Tとして推定してもよい。部分境界線62の傾きの正負が切り替わる位置(座標(X,Y)は、図5に示されるように、対象物体(例えば他車両54)の車両前面に対応する部分境界線62のうち分割線62aと、車両側面に対応する分割線62bとの接触位置に対応する。すなわち、部分境界線62の傾きの切り替わり位置が、対象物体のコーナー位置(例えば、他車両54の右前コーナーの位置)を示す。つまり、車両10が対象物体(他車両54)に接近するように走行する場合、傾きの切り替わり位置に対応する対象物体のコーナー位置が、車両10のリヤバンパ10bから最も近い位置となる可能性が高い。この位置を注目点Tとして、接触を回避するように走行制御を行わせることによって、対象物体との接触回避をより確実に行うことができる。 In addition, as another embodiment, for example, as shown in FIG. 5, in the partial boundary line 62, when there is a switching position where the slope of the partial boundary line 62 changes between positive and negative, The switching position may be estimated as the point of interest T1 . As shown in FIG. 5, the position (coordinates (X 1 , Y 1 ) where the slope of the partial boundary line 62 switches between positive and negative is the position of the partial boundary line 62 corresponding to the front of the vehicle of the target object (for example, the other vehicle 54). This corresponds to the contact position between the dividing line 62a and the dividing line 62b corresponding to the side surface of the vehicle.In other words, the position where the slope of the partial boundary line 62 changes corresponds to the corner position of the target object (for example, the position of the front right corner of the other vehicle 54). ).In other words, when the vehicle 10 travels close to the target object (other vehicle 54), the corner position of the target object corresponding to the tilt switching position is the closest position from the rear bumper 10b of the vehicle 10. By setting this position as the point of interest T1 and performing travel control to avoid contact, it is possible to more reliably avoid contact with the target object.

部分境界線62の傾きの正負が切り替わる位置の推定は、例えば、部分境界線62における変曲点を算出することにより推定してもよいし、部分境界線62上の任意の二点間の傾きを順次算出して、傾きの正負変化を検知することによって推定してもよい。 The position where the slope of the partial boundary line 62 switches between positive and negative may be estimated, for example, by calculating an inflection point on the partial boundary line 62, or by calculating the slope between any two points on the partial boundary line 62. It may be estimated by sequentially calculating and detecting positive/negative changes in the slope.

また、注目点Tを推定する場合の別の実施形態として、例えば、図5に示すように、部分境界線62のうちバウンディングボックス60における縦軸方向(y軸方向)の最下位置を注目点Tとしてもよい。図5に示されるように、バウンディングボックス60において、y軸方向の下方は、より車両10に近い。つまり、バウンディングボックス60に含まれる部分境界線62のうち最下位置は、対象物体(他車両54)の足元を示す位置で最も車両10に近い位置となる。したがって、注目点Tを回避するように走行制御を行わせることによって、対象物体との接触回避をより確実に行うことができる。 Further, as another embodiment for estimating the point of interest T, for example, as shown in FIG. It may also be T2 . As shown in FIG. 5, in the bounding box 60, the lower part in the y-axis direction is closer to the vehicle 10. That is, the lowest position of the partial boundary lines 62 included in the bounding box 60 is the position closest to the vehicle 10 and indicates the foot of the target object (other vehicle 54). Therefore, by controlling the travel to avoid the point of interest T2 , it is possible to more reliably avoid contact with the target object.

図6は、バウンディングボックス60の縦軸方向の最下位置を注目点Tとすることを説明する別の例示的かつ模式的な図である。図6は、バウンディングボックス60によって対象物体としてフェンス64が抽出された場合である。フェンス64のように奥行きない、または少ない物体の場合、部分境界線62の傾きの正負が切り替わる位置が存在しない、または検出できない場合がある。このような場合は、上述した別の実施形態と同様に、部分境界線62のうちバウンディングボックス60における縦軸方向(y軸方向)の最下位置を注目点Tとすることが可能である。したがって、注目点Tとの接触を回避するように走行制御を行わせることによって、対象物体(フェンス64)との接触回避をより確実に行うことができる。 FIG. 6 is another exemplary and schematic diagram illustrating that the lowest position in the vertical axis direction of the bounding box 60 is set as the point of interest T. FIG. 6 shows a case where a fence 64 is extracted as a target object by the bounding box 60. In the case of an object such as the fence 64, which has no or little depth, the position where the slope of the partial boundary line 62 changes from positive to negative may not exist or may not be detected. In such a case, as in the other embodiment described above, it is possible to set the lowest position of the partial boundary line 62 in the vertical axis direction (y-axis direction) in the bounding box 60 as the point of interest T3. . Therefore, by performing travel control to avoid contact with the point of interest T3 , contact with the target object (fence 64) can be avoided more reliably.

また、図7は、対象物体として歩行者66が抽出された場合である。歩行者66の場合、歩行動作に基づく部分境界線62(立体物境界線58)が短い場合がある。この場合でも、歩行者66に対して設定された部分境界線62のうちバウンディングボックス60における縦軸方向(y軸方向)の最下位置を注目点Tとすることが可能である。つまり、注目点Tを歩行者66の足元を示す最も車両10に近い位置と見なすことができる。したがって、注目点Tとの接触を回避するように走行制御を行わせることによって、対象物体(歩行者66)との接触回避をより確実に行うことができる。なお、歩行者66等の動体の挙動によっては、動作に基づく部分境界線62(立体物境界線58)が十分に抽出可能な場合があり、部分境界線62の傾きの正負が切り替わる位置が存在する場合がある。このような場合は、変曲点の位置を用いた注目点Tの推定が可能となる。したがって、注目点Tとの接触を回避するように走行制御を行わせることによって、対象物体(動体)との接触回避を同様に実施することができる。 Further, FIG. 7 shows a case where a pedestrian 66 is extracted as the target object. In the case of a pedestrian 66, the partial boundary line 62 (three-dimensional object boundary line 58) based on the walking motion may be short. Even in this case, it is possible to set the lowest position in the vertical axis direction (y-axis direction) of the bounding box 60 among the partial boundary lines 62 set for the pedestrian 66 as the point of interest T4 . In other words, the point of interest T4 can be regarded as the position closest to the vehicle 10 indicating the feet of the pedestrian 66. Therefore, by performing travel control to avoid contact with the point of interest T4 , contact with the target object (pedestrian 66) can be more reliably avoided. Note that depending on the behavior of a moving object such as a pedestrian 66, it may be possible to sufficiently extract the partial boundary line 62 (three-dimensional object boundary line 58) based on the movement, and there is a position where the slope of the partial boundary line 62 switches between positive and negative. There are cases where In such a case, it is possible to estimate the point of interest T4 using the position of the inflection point. Therefore, by performing travel control to avoid contact with the point of interest T4 , contact with the target object (moving object) can be similarly avoided.

図8は、注目点Tをさらに効率的に推定することができる変形例を示す例示的かつ模式的な説明図である。 FIG. 8 is an exemplary and schematic explanatory diagram showing a modification that allows the point of interest T to be estimated more efficiently.

設定部44の走行予想領域設定部44cは、前述したように、車両10が走行した場合に通過が予想される領域を設定する。例えば、舵角センサ28から提供される車両10の現在の舵角に基づき、車両10が走行する方向(車輪12の通過する位置、方向)を推定できる。例えば、図8に示すように、走行予想領域設定部44cは、右後輪の進む走行予想線68aと左後輪の進む走行予想線66bとに基づき、走行予想線66a,66bとで囲まれた走行予想領域68を設定することができる。つまり、車両10が走行する場合(例えば後退する場合)、車両10は走行予想領域68以外の領域は通過しない。したがって、部分境界線抽出部46aは、走行予想領域68とバウンディングボックス60とが重なる領域に含まれる立体物境界線58に基づき、部分境界線62cを定めることができる。その結果、注目点推定部46bは、車両10の通過が予想されるより限定された領域で、部分境界線62cを抽出して注目点Tの推定が可能になる。その結果、注目点Tの推定精度を向上させることができるとともに、注目点Tを推定するための処理負荷が軽減可能となる。走行予想領域68を用いて部分境界線62cを抽出した場合も、上述した例と同様に、部分境界線62cのX座標上中点を算出してり、部分境界線62cの変曲点を算出したり、最下位置を算出したりすることによって、注目点Tの位置を推定することができる。 As described above, the expected travel area setting unit 44c of the setting unit 44 sets the area through which the vehicle 10 is expected to travel. For example, based on the current steering angle of the vehicle 10 provided from the steering angle sensor 28, it is possible to estimate the direction in which the vehicle 10 travels (the position and direction in which the wheels 12 pass). For example, as shown in FIG. 8, the predicted driving area setting section 44c defines a region surrounded by predicted driving lines 66a and 66b based on a predicted driving line 68a along which the right rear wheel travels and a predicted driving line 66b along which the left rear wheel travels. A predicted driving area 68 can be set. That is, when the vehicle 10 travels (for example, when reversing), the vehicle 10 does not pass through any area other than the expected travel area 68. Therefore, the partial boundary line extraction unit 46a can determine the partial boundary line 62c based on the three-dimensional object boundary line 58 included in the area where the expected travel area 68 and the bounding box 60 overlap. As a result, the point of interest estimation unit 46b can extract the partial boundary line 62c and estimate the point of interest T in a more limited area where the vehicle 10 is expected to pass. As a result, the accuracy of estimating the point of interest T can be improved, and the processing load for estimating the point of interest T can be reduced. Even when the partial boundary line 62c is extracted using the predicted driving area 68, the midpoint on the X coordinate of the partial boundary line 62c is calculated, and the inflection point of the partial boundary line 62c is calculated, as in the above example. The position of the point of interest T can be estimated by calculating the lowest position.

以上のように構成される物体検知装置(物体検知部40)による注目点Tの推定処理の流れの一例を図9のフローチャートを用いて説明する。 An example of the flow of the process of estimating the point of interest T by the object detection device (object detection unit 40) configured as described above will be described using the flowchart of FIG. 9.

まず、物体検知部40は、現在の車両10の進行可能方向の確認を行う。例えば、シフトセンサ30から取得できる変速操作部のシフト位置に基づき、車両10が後退走行可能な状態か否か確認する(S100)。後退走行可能な状態の場合(S100のYes)、すなわち、変速操作部においてRレンジが選択されている場合、画像取得部42は、撮像部14bが撮像した後方画像を物体検知対象の画像として取得する(S102)。一方、S100において、後退走行可能な状態でない場合(S100のNo)、例えば、変速操作部において、前進走行可能なDレンジが選択されている場合や、Pレンジ、Nレンジ等Rレンジ以外が選択されている場合、画像取得部42は、撮像部14aが撮像した前方画像を物体検知対象の画像として取得する(S104)。 First, the object detection unit 40 confirms the current direction in which the vehicle 10 can travel. For example, based on the shift position of the speed change operation unit that can be obtained from the shift sensor 30, it is confirmed whether the vehicle 10 is in a state where it can travel backwards (S100). If the vehicle is in a state where it is possible to travel backwards (Yes in S100), that is, if the R range is selected in the gear shift operation section, the image acquisition section 42 acquires the rear image captured by the imaging section 14b as an image of the object detection target. (S102). On the other hand, in S100, if it is not possible to drive backwards (No in S100), for example, in the shift operation section, the D range that allows forward running is selected, or a range other than R ranges such as P range or N range is selected. If so, the image acquisition unit 42 acquires the front image captured by the imaging unit 14a as an image of the object detection target (S104).

物体検知対象の画像が取得されると、立体物境界線設定部44aは、画像取得部42が取得した撮像画像に対して立体物境界線58の設定を行うとともに(S106)、バウンディングボックス設定部44bは、バウンディングボックス60の設定を行う(S108)。また、走行予想領域設定部44cは、舵角センサ28から取得される車両10の現在の舵角に基づき、走行予想線68aおよび走行予想線68bを設定し、その走行予想線68a,68bに基づき走行予想領域68を設定する(S110)。 When the image of the object detection target is acquired, the three-dimensional object boundary line setting section 44a sets the three-dimensional object boundary line 58 on the captured image acquired by the image acquisition section 42 (S106), and also sets the three-dimensional object boundary line 58 in the captured image acquired by the image acquisition section 42 (S106). 44b sets the bounding box 60 (S108). Further, the predicted travel area setting unit 44c sets a predicted travel line 68a and a predicted travel line 68b based on the current steering angle of the vehicle 10 acquired from the steering angle sensor 28, and based on the predicted travel lines 68a and 68b. A predicted travel area 68 is set (S110).

制御部46は、走行予想領域68と重なるバウンディングボックス60が存在するか否か確認する(S112)。重なる領域が存在する場合(S112のYes)、車両10が走行する可能性のある領域に物体検知の対象となる対象物体が存在することになる。この場合、部分境界線抽出部46aは、バウンディングボックス60に含まれる立体物境界線58で定まる部分境界線62をさらに走行予想領域68で限定することで、車両10と接触する可能性のある対象物体の場所(部分)を特定し、その場所に対する部分境界線62cを設定する(S114)。 The control unit 46 checks whether there is a bounding box 60 that overlaps the predicted travel region 68 (S112). If an overlapping region exists (Yes in S112), a target object to be detected exists in a region where the vehicle 10 is likely to travel. In this case, the partial boundary line extracting unit 46a further limits the partial boundary line 62 determined by the three-dimensional object boundary line 58 included in the bounding box 60 by the predicted travel area 68, so that The location (part) of the object is specified, and a partial boundary line 62c for the location is set (S114).

そして、注目点推定部46bは、部分境界線抽出部46aが抽出した部分境界線62cに基づき、注目点Tを推定する(S116)。注目点Tの推定は、前述したように、部分境界線62(62c)の両端のX座標をXおよびXとした場合に、例えば、その中点の位置として、Tの座標(X,Y)を推定してもよい。また、部分境界線62(62c)の傾きの正負が切り替わる位置をTの座標として推定してもよい。また、部分境界線62のうちバウンディングボックス60における縦軸方向(y軸方向)の最下位置を注目点Tとしてもよい。 Then, the attention point estimation unit 46b estimates the attention point T based on the partial boundary line 62c extracted by the partial boundary line extraction unit 46a (S116). As mentioned above, the point of interest T can be estimated by using the coordinates of T (X 0 , Y 0 ) may be estimated. Alternatively, the position where the slope of the partial boundary line 62 (62c) switches between positive and negative may be estimated as the coordinate of T. Alternatively, the lowest position of the partial boundary line 62 in the bounding box 60 in the vertical axis direction (y-axis direction) may be set as the point of interest T.

注目点Tが推定されると、出力部46cは、二次元座標上で推定された注目点Tの座標情報を三次元座標上の座標情報に変換して、三次元空間にける車両10から対象物体までの距離(端部参照位置Pから注目点Tまでの距離)を算出して走行支援部32に出力して(S118)、一連の物体検知処理を一旦終了する。また、別の例では、出力部46cは、二次元座標の注目点Tの情報や三次元座標の注目点Tの情報を走行支援部32に出力して、走行支援部32側で座標変換処理や距離算出を行うようにしてもよい。走行支援部32では、取得した注目点Tに基づく情報に基づき、対象物体との接触を回避するような、操舵システム、ブレーキシステム、駆動システム等の制御または運転者への操作案内等を実行する。 When the point of interest T is estimated, the output unit 46c converts the coordinate information of the point of interest T estimated on two-dimensional coordinates into coordinate information on three-dimensional coordinates, and converts the coordinate information of the point of interest T estimated on two-dimensional coordinates to The distance to the object (distance from the end reference position P to the point of interest T) is calculated and output to the driving support unit 32 (S118), and the series of object detection processes is temporarily ended. In another example, the output unit 46c outputs information on the point of interest T in two-dimensional coordinates and information on the point of interest T in three-dimensional coordinates to the driving support unit 32, and performs coordinate conversion processing on the driving support unit 32 side. Alternatively, distance calculation may be performed. Based on the information based on the acquired point of interest T, the driving support unit 32 controls the steering system, brake system, drive system, etc. or provides operation guidance to the driver to avoid contact with the target object. .

S112において、バウンディングボックス60と走行予想領域68とで重なる領域が存在しない場合(S112のNo)、現在の車両10の舵角に基づく走行において、接触する可能性のある対象物体は存在しないと見なし、S116に移行し、注目点Tが存在しないことを示す情報を出力部46cを介して、走行支援部32に出力して一連の物体検知処理を一旦終了する。 In S112, if there is no overlap between the bounding box 60 and the expected travel area 68 (No in S112), it is assumed that there is no target object that may come into contact with the vehicle 10 during travel based on the current steering angle of the vehicle 10. , the process moves to S116, and information indicating that the point of interest T does not exist is outputted to the driving support unit 32 via the output unit 46c, and the series of object detection processes is temporarily ended.

このように、実施形態の物体検知装置によれば、バウンディングボックス60により認識される対象物体の足元の位置、すなわち、対象物体に、より接近した位置の検出が可能となる。したがって、対象物体の位置を示す注目点Tの検知精度を、バウンディングボックス60のみを用いて対象物体の位置を検知していた場合より向上することができる。その結果、車両10に対する対象物体の位置、距離をより正確に把握可能になり、対象物体との接触回避をより確実に実施することができる。特に、車両10が対象物体に接近した場合の位置関係や距離の認識を、より正確に行うことが可能になり、信頼性および安全性が向上した制御を実現させることができる。 In this way, according to the object detection device of the embodiment, it is possible to detect the position of the foot of the target object recognized by the bounding box 60, that is, the position closer to the target object. Therefore, the accuracy of detecting the point of interest T indicating the position of the target object can be improved compared to the case where the position of the target object is detected using only the bounding box 60. As a result, the position and distance of the target object relative to the vehicle 10 can be more accurately determined, and contact with the target object can be avoided more reliably. In particular, it becomes possible to more accurately recognize the positional relationship and distance when the vehicle 10 approaches a target object, and control with improved reliability and safety can be realized.

なお、上述した実施形態において、推定した注目点Tの情報を、操舵システム、ブレーキシステム、駆動システム等の制御や運転者への操作案内を実施するために利用する例をしましたが、他の制御、例えば、画像表示や警報出力等処理に利用してもよい。この場合も、注目点Tの検知精度の向上により、画像表示の精度や警報精度の向上に寄与できる。 In the embodiment described above, an example was given in which the information on the estimated point of interest T is used to control the steering system, brake system, drive system, etc., and to provide operation guidance to the driver. It may also be used for control, for example, processing such as image display and alarm output. In this case as well, the improved detection accuracy of the point of interest T can contribute to improved image display accuracy and warning accuracy.

図4、図5、図8に示す撮像画像50は、物体認識の流れを説明するための画像であり、表示装置16に表示する必要はないが、表示装置16に表示することにより、物体検知状況を運転者に提示可能となり、物体検知処理への信頼感、安心感を向上させることに寄与できる。また、本実施形態で説明した高精度の物体検知は、特に車両10が駐車支援や出庫支援等において、10が低速で走行して対象物体に接近する場合に有効である。したがって、例えば、車輪速センサ26から提供される車速に従い、所定速度以下(例えば、12km/h以下)の場合に本実施形態の物体検知処理を実行するようにしてもよい。逆に、所定速度を超える走行中の場合には、例えば、バウンディングボックス60のみを用いた簡易的な物体検知処理を行うようにしてもよい。 The captured images 50 shown in FIGS. 4, 5, and 8 are images for explaining the flow of object recognition, and although they do not need to be displayed on the display device 16, they can be displayed on the display device 16 to help detect objects. This makes it possible to present the situation to the driver, contributing to improving confidence in object detection processing and a sense of security. Furthermore, the highly accurate object detection described in this embodiment is particularly effective when the vehicle 10 travels at a low speed and approaches a target object in parking assistance, exit assistance, or the like. Therefore, for example, according to the vehicle speed provided by the wheel speed sensor 26, the object detection process of this embodiment may be executed when the vehicle speed is below a predetermined speed (for example, 12 km/h or below). Conversely, when the vehicle is running at a speed exceeding a predetermined speed, for example, a simple object detection process using only the bounding box 60 may be performed.

また、上述した実施形態では、前方画像または後方画像を用いて物体検知を行う例を示したが、右側方画像や左側方画像についても、同様の物体検知処理が可能であり、同様の効果を得ることができる。 Further, in the above-described embodiment, an example was shown in which object detection is performed using the front image or the rear image, but the same object detection processing is possible for the right side image and the left side image, and the same effect can be achieved. Obtainable.

本実施形態の物体検知部40(CPU24a)で実行される物体検知処理のための物体検知プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The object detection program for object detection processing executed by the object detection unit 40 (CPU 24a) of this embodiment is a file in an installable format or an executable format, and is stored on a CD-ROM, a flexible disk (FD), or a CD-ROM. The information may be provided by being recorded on a computer-readable recording medium such as R, DVD (Digital Versatile Disk), or the like.

さらに、物体検知プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される物体検知プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Furthermore, the object detection program may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. Further, the object detection program executed in this embodiment may be provided or distributed via a network such as the Internet.

本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments and modifications of the present invention have been described, these embodiments and modifications are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

10…車両、14,14a,14b,14c,14d…撮像部、24…ECU、24a…CPU、26…車輪速センサ、28…舵角センサ、30…シフトセンサ、32…走行支援部、40…物体検知部、42…画像取得部、44…設定部、44a…立体物境界線設定部、44b…バウンディングボックス設定部、44c…走行予想領域設定部、46…制御部、46a…部分境界線抽出部、46b…注目点推定部、46c…出力部、50…撮像画像、52…路面、58…立体物境界線、60…バウンディングボックス、62…部分境界線、100…制御システム、T…注目点。 DESCRIPTION OF SYMBOLS 10... Vehicle, 14, 14a, 14b, 14c, 14d... Imaging unit, 24... ECU, 24a... CPU, 26... Wheel speed sensor, 28... Rudder angle sensor, 30... Shift sensor, 32... Driving support unit, 40... Object detection unit, 42... Image acquisition unit, 44... Setting unit, 44a... Three-dimensional object boundary line setting unit, 44b... Bounding box setting unit, 44c... Driving expected area setting unit, 46... Control unit, 46a... Partial boundary line extraction Section, 46b... Point of interest estimation section, 46c... Output section, 50... Captured image, 52... Road surface, 58... Three-dimensional object boundary line, 60... Bounding box, 62... Partial boundary line, 100... Control system, T... Point of interest .

Claims (4)

車両が存在する路面を含む周囲状況を撮像可能な撮像部で撮像された撮像画像を取得する取得部と、
前記撮像画像に含まれる前記路面上で立体物が存在する領域として認識される物体領域と前記路面との境界を示す立体物境界線と、前記物体領域に含まれる前記立体物のうち予め定められた対象物体を選択するための矩形のバウンディングボックスと、を設定する設定部と、
前記立体物境界線のうち前記バウンディングボックスに含まれる部分境界線を抽出するとともに、当該部分境界線上で前記車両と前記対象物体との接触を回避するために注目する注目点を推定して出力する制御部と、
を備え
前記制御部は、前記注目点に基づき、三次元空間における前記車両から前記対象物体までの距離を算出する、物体検知装置。
an acquisition unit that acquires an image captured by an imaging unit capable of capturing an image of the surrounding situation including the road surface where the vehicle is present;
A three-dimensional object boundary line indicating a boundary between the road surface and an object area recognized as a region where a three-dimensional object exists on the road surface included in the captured image, and a three-dimensional object boundary line that indicates a boundary between the three-dimensional object included in the object area. a rectangular bounding box for selecting a target object;
extracting a partial boundary line included in the bounding box from the three-dimensional object boundary line, and estimating and outputting a point of interest to be focused on to avoid contact between the vehicle and the target object on the partial boundary line; a control unit;
Equipped with
The control unit is an object detection device that calculates a distance from the vehicle to the target object in three-dimensional space based on the point of interest .
前記制御部は、前記部分境界線のうち前記バウンディングボックスの縦軸方向の最下位置を前記注目点とする、請求項1に記載の物体検知装置。 The object detection device according to claim 1, wherein the control unit sets the lowest position in the vertical axis direction of the bounding box among the partial boundaries as the point of interest. 前記制御部は、前記部分境界線において、前記部分境界線の傾きの正負が切り替わる切替り位置が存在する場合、前記切替り位置を前記注目点とする、請求項1に記載の物体検知装置。 2. The object detection device according to claim 1, wherein when there is a switching position in the partial boundary line where the slope of the partial boundary line is switched between positive and negative, the control unit sets the switching position as the point of interest. 前記制御部は、前記車両の舵角に基づく進行方向を示す走行予想線で定まる走行予想領域と前記バウンディングボックスとに基づき、前記部分境界線を定めて、前記注目点の位置を推定する、請求項1から請求項3のいずれか1項に記載の物体検知装置。 The control unit estimates the position of the point of interest by determining the partial boundary line based on the bounding box and a predicted travel area determined by a predicted travel line indicating a traveling direction based on a steering angle of the vehicle. The object detection device according to any one of claims 1 to 3.
JP2019178544A 2019-09-30 2019-09-30 object detection device Active JP7395913B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019178544A JP7395913B2 (en) 2019-09-30 2019-09-30 object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019178544A JP7395913B2 (en) 2019-09-30 2019-09-30 object detection device

Publications (2)

Publication Number Publication Date
JP2021056717A JP2021056717A (en) 2021-04-08
JP7395913B2 true JP7395913B2 (en) 2023-12-12

Family

ID=75272716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019178544A Active JP7395913B2 (en) 2019-09-30 2019-09-30 object detection device

Country Status (1)

Country Link
JP (1) JP7395913B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023074948A (en) * 2021-11-18 2023-05-30 オムロン株式会社 Work recognition apparatus, work recognition method, and work recognition program
CN114220291B (en) * 2021-12-01 2023-08-01 阿维塔科技(重庆)有限公司 Garage parking/taking positioning method, system, automobile and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260449A (en) 2003-02-25 2004-09-16 Denso Corp Rear part confirmation supporting device for vehicle
JP2007214806A (en) 2006-02-08 2007-08-23 Sumitomo Electric Ind Ltd Obstacle detection system and obstacle detecting method
JP2014211855A (en) 2012-06-01 2014-11-13 株式会社リコー Object recognition device, object recognition method, and program for object recognition
JP2018142309A (en) 2017-02-28 2018-09-13 三星電子株式会社Samsung Electronics Co.,Ltd. Virtual roadway generating apparatus and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5083443B2 (en) * 2001-03-28 2012-11-28 パナソニック株式会社 Driving support device and method, and arithmetic device
JP4765213B2 (en) * 2001-07-19 2011-09-07 日産自動車株式会社 Parking assistance device for vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260449A (en) 2003-02-25 2004-09-16 Denso Corp Rear part confirmation supporting device for vehicle
JP2007214806A (en) 2006-02-08 2007-08-23 Sumitomo Electric Ind Ltd Obstacle detection system and obstacle detecting method
JP2014211855A (en) 2012-06-01 2014-11-13 株式会社リコー Object recognition device, object recognition method, and program for object recognition
JP2018142309A (en) 2017-02-28 2018-09-13 三星電子株式会社Samsung Electronics Co.,Ltd. Virtual roadway generating apparatus and method

Also Published As

Publication number Publication date
JP2021056717A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
JP6724425B2 (en) Parking assistance device
US10031227B2 (en) Parking assist system
US10179608B2 (en) Parking assist device
JP6281289B2 (en) Perimeter monitoring apparatus and program
JP7351172B2 (en) parking assist device
JP2016084094A (en) Parking assist apparatus
JP6852534B2 (en) Obstacle detection and notification device, method and program
JP6554866B2 (en) Image display control device
JP7395913B2 (en) object detection device
US11301701B2 (en) Specific area detection device
JP2022023870A (en) Display control device
JP7003755B2 (en) Parking support device
JP7009785B2 (en) Peripheral monitoring device
JP7427907B2 (en) parking assist device
JP2021062738A (en) Parking support device, parking support method, and program
JP6977318B2 (en) Peripheral display device
JP7400338B2 (en) parking assist device
JP7329409B2 (en) PARKING ASSIST DEVICE, PARKING ASSIST METHOD, AND PROGRAM
JP2022055774A (en) Parking support system, parking support device, parking support method, and program
JP7114919B2 (en) Driving support device
JP7380058B2 (en) parking assist device
JP7383973B2 (en) parking assist device
JP7454177B2 (en) Peripheral monitoring device and program
JP2019022110A (en) Display control device
JP6730885B2 (en) Departure support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7395913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150