JP2014000921A - Vehicle periphery monitoring device, vehicle periphery monitoring method and program - Google Patents

Vehicle periphery monitoring device, vehicle periphery monitoring method and program Download PDF

Info

Publication number
JP2014000921A
JP2014000921A JP2012138997A JP2012138997A JP2014000921A JP 2014000921 A JP2014000921 A JP 2014000921A JP 2012138997 A JP2012138997 A JP 2012138997A JP 2012138997 A JP2012138997 A JP 2012138997A JP 2014000921 A JP2014000921 A JP 2014000921A
Authority
JP
Japan
Prior art keywords
road surface
vehicle
imaging
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012138997A
Other languages
Japanese (ja)
Inventor
Masaru Tanaka
優 田中
Morihito Oshita
守人 大下
Yoka Iga
陽香 伊賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2012138997A priority Critical patent/JP2014000921A/en
Publication of JP2014000921A publication Critical patent/JP2014000921A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To obtain a vehicle periphery monitoring device for grasping presence/absence of an object distant upward from the road surface as an example.SOLUTION: A vehicle periphery monitoring device of an embodiment includes: an information acquisition part which acquires imaging data output from an imaging part which is provided to the vehicle to pick up the periphery of the vehicle, and a detection result output from a ranging part which is provided to the vehicle, emits waves to the imaging area of the imaging part to detect reflected waves of the waves; and a determination part which determines whether or not there is an object distant upward from the road surface in the imaging area by using the imaging data and the detection result.

Description

本発明の実施形態は、車両周辺監視装置、車両周辺監視方法およびプログラムに関する。   Embodiments described herein relate generally to a vehicle periphery monitoring device, a vehicle periphery monitoring method, and a program.

従来、カメラで撮像した車両の後方映像を車室内に配置された表示装置に表示する技術が知られている。   2. Description of the Related Art Conventionally, a technique for displaying a rear image of a vehicle imaged by a camera on a display device arranged in a vehicle interior is known.

特開2002−29345号公報JP 2002-29345 A

しかしながら、この種の技術では、一例として、路面から上方に離れた物体(宙空物)については、車両からの距離感が画像では把握し難い。この種の技術では、一例として、路面から上方に離れた物体の有無を把握できることが望まれている。   However, with this type of technology, as an example, it is difficult to grasp the sense of distance from the vehicle in an image with respect to an object (aerial object) separated upward from the road surface. In this type of technology, as an example, it is desired that the presence or absence of an object separated upward from the road surface can be grasped.

実施形態の車両周辺監視装置は、車両に設けられ当該車両の周辺を撮像する撮像部から出力された撮像データと、前記車両に設けられ前記撮像部の撮像領域に波を発射して当該波の反射波を検出する測距部から出力された検出結果と、を取得する情報取得部と、前記撮像データと前記検出結果とを用いて、前記撮像領域内に路面から上方に離れた物体があるかを判定する判定部と、を備えている。したがって、当該車両周辺監視装置によれば、一例として、路面から上方に離れた物体の有無を把握することができる。   The vehicle periphery monitoring device according to the embodiment emits a wave to an imaging area of the imaging unit provided in the vehicle and imaging data output from an imaging unit provided in the vehicle and imaging the periphery of the vehicle. Using the detection result output from the distance measurement unit that detects the reflected wave, the information acquisition unit that acquires the imaging data, and the detection result, there is an object that is separated from the road surface in the imaging region And a determination unit for determining whether or not. Therefore, according to the vehicle periphery monitoring apparatus, as an example, it is possible to grasp the presence or absence of an object that is separated upward from the road surface.

前記車両周辺監視装置にあっては、前記判定部が前記路面から上方に離れた物体があると判定した場合、前記路面から上方に離れた物体がある旨を、前記車両に設けられた報知部に報知させる報知制御部を備えてよい。当該構成によれば、一例として、路面から上方に離れた物体がある旨を、運転者に知らせることができ、よって、運転者の運転の支援を行うことができる。   In the vehicle periphery monitoring device, when the determination unit determines that there is an object separated upward from the road surface, a notification unit provided in the vehicle that there is an object separated upward from the road surface You may provide the alerting | reporting control part to alert | report. According to this configuration, as an example, it is possible to notify the driver that there is an object away from the road surface, and thus it is possible to assist the driver in driving.

前記車両周辺監視装置にあっては、前記判定部は、前記撮像領域内に路面に接地された物体があるかを判定し、前記報知制御部は、前記判定部が前記路面に接地された物体があると判定した場合と、前記判定部が前記路面から上方に離れた物体があると判定した場合とで、異なる報知を前記報知部にさせてよい。当該構成によれば、一例として、前記判定部が前記路面に接地された物体があると判定した場合の報知と、前記判定部が前記路面から上方に離れた物体があると判定した場合の報知とを、運転者が良好に区別して認識することができる。   In the vehicle periphery monitoring device, the determination unit determines whether there is an object grounded on a road surface in the imaging region, and the notification control unit is an object on which the determination unit is grounded on the road surface. Different notifications may be made to the notification unit when it is determined that there is an object and when the determination unit determines that there is an object away from the road surface. According to this configuration, as an example, notification when the determination unit determines that there is an object grounded on the road surface, and notification when the determination unit determines that there is an object separated upward from the road surface. And the driver can distinguish and recognize them well.

前記車両周辺監視装置にあっては、前記報知部は、表示装置であってよく、前記報知制御部は、前記判定部が前記路面に接地された物体があると判定した場合、前記表示装置に、前記撮像データを用いた画像中の前記路面に接地された物体にパネル表示を重ねて表示させ、前記判定部が前記路面から上方に離れた物体があると判定した場合、前記表示装置に、前記撮像データを用いた画像中の前記路面から上方に離れた物体に前記パネル表示を重ねて表示させるとともに、前記路面から上方に離れた物体がある旨を示す警報を前記画像中に表示させてよい。当該構成によれば、一例として、運転者は、前記路面から上方に離れた物体があることを、前記警報によって良好に認識することができる。   In the vehicle periphery monitoring device, the notification unit may be a display device, and when the notification control unit determines that there is an object grounded on the road surface, When the display unit displays a panel display superimposed on an object grounded on the road surface in the image using the imaging data, and the determination unit determines that there is an object separated upward from the road surface, the display device, The panel display is overlapped and displayed on an object away from the road surface in the image using the imaging data, and an alarm indicating that there is an object away from the road surface is displayed in the image. Good. According to the said structure, the driver | operator can recognize favorably by the said warning that there exists an object left | separated upwards from the said road surface as an example.

前記車両周辺監視装置にあっては、前記報知部は、表示装置であってよく、前記報知制御部は、前記判定部が前記路面に接地された物体があると判定した場合、前記表示装置に、前記撮像データを用いた画像中の前記路面に接地された物体に第一のパネル表示を重ねて表示させ、前記判定部が前記路面から上方に離れた物体があると判定した場合、前記表示装置に、前記撮像データを用いた画像中の前記路面から上方に離れた物体に前記第一のパネル表示とは異なる第二のパネル表示を重ねて表示させてよい。当該構成によれば、一例として、運転者は、前記路面から上方に離れた物体があることを、第二のパネル表示によって良好に認識することができる。   In the vehicle periphery monitoring device, the notification unit may be a display device, and when the notification control unit determines that there is an object grounded on the road surface, If the first panel display is superimposed on the object grounded on the road surface in the image using the imaging data, and the determination unit determines that there is an object away from the road surface, the display The apparatus may cause a second panel display different from the first panel display to be displayed in an overlapping manner on an object separated upward from the road surface in the image using the imaging data. According to this configuration, as an example, the driver can well recognize from the second panel display that there is an object separated upward from the road surface.

前記車両周辺監視装置にあっては、前記判定部は、前記検出結果を用いて第一の距離を取得し、前記撮像データから判定対象の物体を検出し当該判定対象の物体の前記車両からの第二の距離を前記撮像データを用いて取得し、前記第一の距離と前記第二の距離とに差がある場合、前記路面から上方に離れた物体があると判定してよい。当該構成によれば、一例として、前記第一の距離と前記第二の距離とを用いて、路面から上方に離れた物体があるかを判定することができる。   In the vehicle periphery monitoring device, the determination unit obtains a first distance using the detection result, detects a determination target object from the imaging data, and determines the determination target object from the vehicle. When the second distance is acquired using the imaging data and there is a difference between the first distance and the second distance, it may be determined that there is an object away from the road surface. According to this configuration, as an example, it is possible to determine whether there is an object away from the road surface using the first distance and the second distance.

前記車両周辺監視装置にあっては、前記判定部は、前記第二の距離を、前記判定対象の物体の特徴点が前記路面上に位置すると仮定して取得してよい。当該構成によれば、一例として、前記判定対象の物体の特徴点が実際には前記路面から上方に離れている場合でも前記第二の距離を取得することができる。   In the vehicle periphery monitoring device, the determination unit may acquire the second distance on the assumption that a feature point of the object to be determined is located on the road surface. According to this configuration, as an example, the second distance can be acquired even when the feature point of the object to be determined is actually separated upward from the road surface.

前記車両周辺監視装置にあっては、前記判定部は、前記第一の距離と前記第二の距離との差が閾値以上の場合、前記路面から上方に離れた物体があると判定してよい。当該構成によれば、一例として、前記路面から上方に離れた物体があるかを判定する際に、第一の距離や第二の距離の誤差を吸収ことができる。   In the vehicle periphery monitoring device, the determination unit may determine that there is an object away from the road surface when the difference between the first distance and the second distance is equal to or greater than a threshold value. . According to this configuration, as an example, when determining whether there is an object that is away from the road surface, errors in the first distance and the second distance can be absorbed.

前記車両周辺監視装置にあっては、前記判定部は、前記路面から上方に離れた物体があると判定した場合、前記第一の距離と前記第二の距離とを用いて、前記路面から上方に離れた物体の前記路面からの距離を推定してよい。当該構成によれば、前記路面から上方に離れた物体の前記路面からの推定距離を認識することができる。   In the vehicle periphery monitoring device, when the determination unit determines that there is an object separated upward from the road surface, the determination unit uses the first distance and the second distance to move upward from the road surface. The distance of the object far away from the road surface may be estimated. According to the said structure, the estimated distance from the said road surface of the object which left | separated upwards from the said road surface can be recognized.

実施形態の車両周辺監視方法は、情報取得部が、車両に設けられ当該車両の周辺を撮像する撮像部から出力された撮像データと、前記車両に設けられ前記撮像部の撮像領域に波を発射して当該波の反射波を検出する測距部から出力された検出結果と、を取得するステップと、判定部が、前記撮像データと前記検出結果とを用いて、前記撮像領域内に路面から上方に離れた物体があるかを判定するステップと、を含む。したがって、当該車両周辺監視方法によれば、一例として、路面から上方に離れた物体の有無を把握することができる。   In the vehicle periphery monitoring method according to the embodiment, the information acquisition unit emits a wave to the imaging data provided from the imaging unit provided in the vehicle and imaging the periphery of the vehicle, and the imaging region provided in the vehicle. Then, a step of obtaining a detection result output from the distance measuring unit that detects a reflected wave of the wave, and a determination unit using the imaging data and the detection result from the road surface in the imaging region Determining whether there is an object separated upward. Therefore, according to the vehicle periphery monitoring method, as an example, the presence / absence of an object separated upward from the road surface can be grasped.

実施形態のプログラムは、車両に設けられ当該車両の周辺を撮像する撮像部から出力された撮像データと、前記車両に設けられ前記撮像部の撮像領域に波を発射して当該波の反射波を検出する測距部から出力された検出結果と、を取得するステップと、前記撮像データと前記検出結果とを用いて、前記撮像領域内に路面から上方に離れた物体があるかを判定するステップと、を、コンピュータに実行させるためのプログラムである。したがって、当該プログラムによれば、当該車両周辺監視方法によれば、一例として、路面から上方に離れた物体の有無を把握することができる。   The program according to the embodiment includes imaging data output from an imaging unit provided in a vehicle and imaging the periphery of the vehicle, and a reflected wave of the wave emitted from an imaging region of the imaging unit provided in the vehicle. A step of obtaining a detection result output from a distance measuring unit to be detected, and a step of determining whether or not there is an object located above the road surface in the imaging region using the imaging data and the detection result Is a program for causing a computer to execute. Therefore, according to the program, according to the vehicle periphery monitoring method, as an example, it is possible to grasp the presence or absence of an object separated upward from the road surface.

図1は、実施形態にかかる車両の一例を当該車両の一部を切り欠いて示す斜視図である。FIG. 1 is a perspective view showing an example of a vehicle according to the embodiment with a part of the vehicle cut away. 図2は、実施形態にかかる車両の一例を示す平面図である。FIG. 2 is a plan view illustrating an example of the vehicle according to the embodiment. 図3は、実施形態にかかる車両の構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a configuration of the vehicle according to the embodiment. 図4は、実施形態にかかる車両の機能構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of a functional configuration of the vehicle according to the embodiment. 図5は、実施形態にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the embodiment. 図6は、実施形態にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 6 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the embodiment. 図7は、実施形態にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the embodiment. 図8は、実施形態にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the embodiment. 図9は、実施形態にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the embodiment. 図10は、実施形態にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the embodiment. 図11は、実施形態にかかる車両と他の車両とを模式的に示す側面図である。FIG. 11 is a side view schematically showing the vehicle according to the embodiment and other vehicles. 図12は、実施形態にかかる車両のCPUが実行する処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of processing executed by the CPU of the vehicle according to the embodiment. 図13は、実施形態の第1の変形例にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 13 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the first modification of the embodiment. 図14は、実施形態の第1の変形例にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 14 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the first modified example of the embodiment. 図15は、実施形態の第2の変形例にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 15 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the second modification example of the embodiment. 図16は、実施形態の第3の変形例にかかる車両の表示装置に表示された画像の一例を示す図である。FIG. 16 is a diagram illustrating an example of an image displayed on the display device of the vehicle according to the third modification example of the embodiment.

本実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。   In the present embodiment, the vehicle 1 may be, for example, an automobile (an internal combustion engine automobile) using an internal combustion engine (engine, not shown) as a drive source, or an electric motor (motor, not shown) as a drive source. The vehicle may be a vehicle (electric vehicle, fuel cell vehicle, etc.) or a vehicle (hybrid vehicle) using both of them as drive sources. The vehicle 1 can be mounted with various transmissions, and various devices (systems, components, etc.) necessary for driving the internal combustion engine and the electric motor. In addition, the method, number, layout, and the like of the device related to driving of the wheels 3 in the vehicle 1 can be variously set.

図1に示されるように、車体2は、乗員(図示されず)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)から突出したステアリングホイールであり、加速操作部5は、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、センターコンソールから突出したシフトレバーであるが、これらには限定されない。   As shown in FIG. 1, the vehicle body 2 constitutes a passenger compartment 2a in which an occupant (not shown) rides. In the passenger compartment 2a, a steering section 4, an acceleration operation section 5, a braking operation section 6, a shift operation section 7 and the like are provided in a state facing the driver's seat 2b as a passenger. In the present embodiment, as an example, the steering unit 4 is a steering wheel protruding from a dashboard (instrument panel), the acceleration operation unit 5 is an accelerator pedal positioned under the driver's feet, and a braking operation unit Reference numeral 6 denotes a brake pedal positioned under the driver's feet, and the shift operation unit 7 is a shift lever protruding from the center console, but is not limited thereto.

また、車室2a内には、表示装置8(表示出力部)や、音声出力装置9(音声出力部)が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、一例として、スピーカである。また、本実施形態では、一例として、表示装置8は、透明な操作入力部10(例えば、タッチパネル等)で覆われている。乗員等は、操作入力部10を介して表示装置8の表示画面に表示される映像(画像)を視認することができる。また、乗員等は、表示装置8の表示画面に表示される映像(画像)に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力(指示入力)を実行することができる。また、本実施形態では、一例として、表示装置8や、音声出力装置9、操作入力部10等は、ダッシュボードの車幅方向(左右方向)の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の操作入力部(図示されず)を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に音声出力装置(図示されず)を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。また、本実施形態では、一例として、モニタ装置11は、ナビゲーションシステムやオーディオシステムと兼用されているが、駐車支援装置用のモニタ装置を、これらシステムとは別に設けてもよい。また、音声出力装置9の他に、ブザー24(図3参照)等の音声出力部から、警報音等が出力されるように構成することができる。   Further, a display device 8 (display output unit) and a sound output device 9 (sound output unit) are provided in the passenger compartment 2a. The display device 8 is, for example, an LCD (liquid crystal display) or an OELD (organic electroluminescent display). The audio output device 9 is a speaker as an example. In the present embodiment, as an example, the display device 8 is covered with a transparent operation input unit 10 (for example, a touch panel). An occupant or the like can visually recognize a video (image) displayed on the display screen of the display device 8 via the operation input unit 10. A passenger or the like operates an operation input (instruction) by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to an image (image) displayed on the display screen of the display device 8. Input). In the present embodiment, as an example, the display device 8, the audio output device 9, the operation input unit 10, and the like are provided in the monitor device 11 that is located in the center of the dashboard in the vehicle width direction (left-right direction). ing. The monitor device 11 can include an operation input unit (not shown) such as a switch, a dial, a joystick, and a push button. In addition, an audio output device (not shown) can be provided at another position in the passenger compartment 2a different from the monitor device 11, and audio is output from the audio output device 9 of the monitor device 11 and other audio output devices. Can be output. In the present embodiment, as an example, the monitor device 11 is also used as a navigation system or an audio system. However, a monitor device for a parking assistance device may be provided separately from these systems. Further, in addition to the audio output device 9, an alarm sound or the like can be output from an audio output unit such as the buzzer 24 (see FIG. 3).

また、図1,2に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。具体的には、図3に示されるように、車両1は、前輪3Fを操舵する前輪操舵システム12と、後輪3Rを操舵する後輪操舵システム13とを有している。これら前輪操舵システム12および後輪操舵システム13は、駐車支援ECU14(electronic control unit)等によって電気的に制御されて、それぞれのアクチュエータ12a,13aを動作させる。前輪操舵システム12ならびに後輪操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。前輪操舵システム12ならびに後輪操舵システム13は、アクチュエータ12a,13aによって操舵部4にトルク(アシストトルク)を付加して操舵力を補ったり、対応する車輪3(前輪3Fまたは後輪3R)を操舵(自動操舵)したりする。アクチュエータ12a,13aは、一つの車輪3を操舵してもよいし、複数の車輪3を操舵してもよい。また、本実施形態では、一例として、二つの前輪3Fは、互いに同相で略平行に転舵され、二つの後輪3Rは、互いに同相で略平行に転舵される。なお、駆動輪は種々に設定可能である。   As shown in FIGS. 1 and 2, in the present embodiment, as an example, the vehicle 1 is a four-wheeled vehicle (four-wheeled vehicle), and includes two left and right front wheels 3F and two left and right rear wheels 3R. Have. Furthermore, in the present embodiment, these four wheels 3 are configured so that any of them can be steered (turnable). Specifically, as shown in FIG. 3, the vehicle 1 includes a front wheel steering system 12 that steers the front wheels 3F and a rear wheel steering system 13 that steers the rear wheels 3R. The front wheel steering system 12 and the rear wheel steering system 13 are electrically controlled by a parking assist ECU 14 (electronic control unit) or the like to operate the actuators 12a and 13a. The front wheel steering system 12 and the rear wheel steering system 13 are, for example, an electric power steering system, an SBW (steer by wire) system, or the like. The front wheel steering system 12 and the rear wheel steering system 13 add torque (assist torque) to the steering unit 4 by the actuators 12a and 13a to supplement the steering force, or steer the corresponding wheel 3 (front wheel 3F or rear wheel 3R). (Automatic steering). The actuators 12a and 13a may steer one wheel 3 or may steer a plurality of wheels 3. In the present embodiment, as an example, the two front wheels 3F are steered in the same phase and substantially parallel, and the two rear wheels 3R are steered in the same phase and substantially parallel. The drive wheels can be set in various ways.

また、本実施形態では、一例として、前輪3Fのみが操舵される二輪操舵モード(第一の操舵モード)と、前輪3Fおよび後輪3Rが操舵される四輪操舵モード(第二の操舵モード)とが設定されている。操舵モードは、乗員による操作入力部10の操作や、車室2a内に設けられた操舵モード切替操作部15(例えば、スイッチ等、図3参照)の操作等によって、切り替えられる。また、本実施形態では、一例として、駐車支援に関しては、四輪操舵モードでは、前輪3Fおよび後輪3Rは、逆相で転舵される。なお、前輪3Fは、操舵部4の操作により、機械的に転舵されることができる。   In the present embodiment, as an example, a two-wheel steering mode (first steering mode) in which only the front wheels 3F are steered and a four-wheel steering mode (second steering mode) in which the front wheels 3F and the rear wheels 3R are steered are exemplified. And are set. The steering mode is switched by an operation of the operation input unit 10 by a passenger, an operation of a steering mode switching operation unit 15 (for example, a switch or the like, see FIG. 3) provided in the passenger compartment 2a, and the like. In the present embodiment, as an example, with respect to parking assistance, in the four-wheel steering mode, the front wheels 3F and the rear wheels 3R are steered in opposite phases. The front wheel 3F can be mechanically steered by the operation of the steering unit 4.

また、本実施形態では、一例として、図2に示されるように、車両1(車体2)には、複数(本実施形態では、一例として四つ)の撮像部16(16a〜16d)が設けられている。撮像部16は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部16は、一例として、単眼カメラである。撮像部16は、パッシブ方式の距離センサの一例である。撮像部16は、所定のフレームレートで画像データ(動画データ、フレームデータ)を出力することができる。撮像部16は、それぞれ、広角レンズを有し、水平方向には140°〜190°の範囲(視野角)を撮影することができる。また、撮像部16の光軸は下方(斜め下方)に向けて設定されている。よって、撮像部16は、路面を含む車体2(車両1)の周辺を撮影することができる。本実施形態では、一例として、撮像部16aは、車体2の前側(車両前後方向の前方側)の端部2c(平面視での端部)に位置され、フロントバンパー等に設けられている。撮像部16bは、車体2の左側(車幅方向の左側)の端部2dに位置され、左側のドアミラー2g(突出部)に設けられている。撮像部16cは、車体2の後側(車両前後方向の後方側)の端部2eに位置され、リヤトランクのドア2hの下方の壁部に設けられている。撮像部16dは、車体2の右側(車幅方向の右側)の端部2fに位置され、右側のドアミラー2g(突出部)に設けられている。駐車支援ECU14は、複数の撮像部16で得られた画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1(車体2)を上方から見た仮想的な俯瞰画像(平面画像)を生成したりすることができる。また、駐車支援ECU14は、撮像部16dの画像から、車両1の周辺に位置され移動する車両1と干渉する可能性がある物体(障害物)を検出(抽出)することができる。よって、撮像部16は、物体検出部の一例である。   In the present embodiment, as an example, as shown in FIG. 2, the vehicle 1 (the vehicle body 2) is provided with a plurality of (in the present embodiment, four as an example) imaging units 16 (16 a to 16 d). It has been. The imaging unit 16 is a digital camera including an imaging element such as a CCD (charge coupled device) or a CIS (CMOS image sensor). The imaging unit 16 is a monocular camera as an example. The imaging unit 16 is an example of a passive distance sensor. The imaging unit 16 can output image data (moving image data, frame data) at a predetermined frame rate. Each of the imaging units 16 includes a wide-angle lens, and can capture a range (viewing angle) of 140 ° to 190 ° in the horizontal direction. Further, the optical axis of the imaging unit 16 is set downward (obliquely downward). Therefore, the imaging unit 16 can photograph the periphery of the vehicle body 2 (vehicle 1) including the road surface. In the present embodiment, as an example, the imaging unit 16a is located at the end 2c (the end in a plan view) on the front side (the front side in the vehicle front-rear direction) of the vehicle body 2, and is provided on a front bumper or the like. The imaging unit 16b is positioned at the left end 2d (left side in the vehicle width direction) of the vehicle body 2, and is provided on the left door mirror 2g (projecting portion). The imaging unit 16c is located at an end 2e on the rear side (rear side in the vehicle front-rear direction) of the vehicle body 2, and is provided on a wall portion below the door 2h of the rear trunk. The imaging unit 16d is positioned on the right end (figure width direction) end 2f of the vehicle body 2 and is provided on the right door mirror 2g (projection). The parking assist ECU 14 performs arithmetic processing and image processing based on the image data obtained by the plurality of imaging units 16 to generate an image with a wider viewing angle, or viewed the vehicle 1 (vehicle body 2) from above. A virtual overhead view image (planar image) can be generated. In addition, the parking assist ECU 14 can detect (extract) an object (obstacle) that may interfere with the moving vehicle 1 located around the vehicle 1 from the image of the imaging unit 16d. Therefore, the imaging unit 16 is an example of an object detection unit.

また、本実施形態では、一例として、図1,2に示されるように、車両1(車体2)には、複数(本実施形態では、一例として四つ)の測距部17(17a〜17d、探知部)が設けられている。測距部17は、例えば、波として超音波を発射(放射)してその反射波を捉える(検出する)ソナー(ソナーセンサ、超音波探知器、アクティブ方式の距離センサ)である。駐車支援ECU14は、測距部17の検出結果により、車両1(車体2)の後方に位置された物体(障害物)の有無や距離を測定することができる。すなわち、測距部17は、物体検出部の一例である。   In the present embodiment, as an example, as shown in FIGS. 1 and 2, the vehicle 1 (the vehicle body 2) includes a plurality of (in the present embodiment, four as an example) distance measuring units 17 (17 a to 17 d). , A detection unit) is provided. The distance measuring unit 17 is, for example, a sonar (sonar sensor, ultrasonic detector, active distance sensor) that emits (radiates) ultrasonic waves as waves and captures (detects) the reflected waves. The parking assist ECU 14 can measure the presence / absence and distance of an object (obstacle) located behind the vehicle 1 (vehicle body 2) based on the detection result of the distance measuring unit 17. That is, the distance measurement unit 17 is an example of an object detection unit.

また、本実施形態では、一例として、図3に示されるように、駐車支援システム100では、駐車支援ECU14や、モニタ装置11、前輪操舵システム12、後輪操舵システム13、操舵モード切替操作部15、測距部17等の他、ブレーキシステム18、舵角センサ19(角度センサ)、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、車内ネットワーク23(電気通信回線)を介して電気的に接続されている。車内ネットワーク23は、一例としては、CAN(controller area network)として構成されている。駐車支援ECU14は、車内ネットワーク23を通じて制御信号を送ることで、前輪操舵システム12や、後輪操舵システム13、ブレーキシステム18等を制御することができる。また、駐車支援ECU14は、車内ネットワーク23を介して、トルクセンサ12b、舵角センサ13b(後輪3R用)、測距部17、ブレーキセンサ18b、舵角センサ19(前輪3F用)、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果、ならびに、操作入力部10や、操舵モード切替操作部15等の指示信号(制御信号、切替信号、操作信号、入力信号、データ)を受け取ることができる。   In the present embodiment, as an example, as shown in FIG. 3, in the parking assistance system 100, the parking assistance ECU 14, the monitor device 11, the front wheel steering system 12, the rear wheel steering system 13, the steering mode switching operation unit 15. In addition to the distance measuring unit 17 and the like, the brake system 18, the steering angle sensor 19 (angle sensor), the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22 and the like are electrically connected via the in-vehicle network 23 (electric communication line). It is connected to the. The in-vehicle network 23 is configured as a CAN (controller area network) as an example. The parking assist ECU 14 can control the front wheel steering system 12, the rear wheel steering system 13, the brake system 18 and the like by sending a control signal through the in-vehicle network 23. The parking assist ECU 14 also has a torque sensor 12b, a rudder angle sensor 13b (for the rear wheel 3R), a distance measuring unit 17, a brake sensor 18b, a rudder angle sensor 19 (for the front wheel 3F), an accelerator sensor via the in-vehicle network 23. 20, the detection results of the shift sensor 21, the wheel speed sensor 22, and the like, and the instruction signals (control signal, switching signal, operation signal, input signal, data) of the operation input unit 10 and the steering mode switching operation unit 15 are received. be able to.

駐車支援ECU14は、一例として、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8で表示される画像に関連した画像処理や、車両1の移動経路の演算、物体との干渉の有無の判断等の各種の演算処理を実行することができる。CPU14aは、ROM14b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、駐車支援ECU14での演算処理のうち、主として、撮像部16で得られた画像データを用いた画像処理や、表示装置8で表示される画像データの画像処理(一例としては合成等)等を実行する。また、音声制御部14eは、駐車支援ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、駐車支援ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されることができる。また、駐車支援ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、駐車支援ECU14とは別に設けられてもよい。駐車支援ECU14は、一例として、撮像部16、測距部17とともに、車両周辺監視装置101を構成している。   As an example, the parking assist ECU 14 includes a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (solid state drive, flash memory), and the like. have. For example, the CPU 14a can execute various kinds of calculation processing such as image processing related to an image displayed on the display device 8, calculation of a moving route of the vehicle 1, and determination of presence / absence of interference with an object. The CPU 14a can read a program stored (installed) in a nonvolatile storage device such as the ROM 14b and execute arithmetic processing according to the program. The RAM 14c temporarily stores various types of data used in computations by the CPU 14a. In addition, the display control unit 14d mainly performs image processing using image data obtained by the imaging unit 16 and image processing of image data displayed on the display device 8 (one example). And so on). In addition, the voice control unit 14 e mainly performs processing of voice data output from the voice output device 9 among the calculation processes in the parking assistance ECU 14. Further, the SSD 14f is a rewritable nonvolatile storage unit, and can store data even when the parking assist ECU 14 is powered off. The CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. Further, the parking assist ECU 14 may have a configuration in which another logical operation processor such as a DSP (digital signal processor) or a logic circuit is used instead of the CPU 14a. Further, an HDD (hard disk drive) may be provided in place of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the parking assist ECU 14. As an example, the parking assist ECU 14 constitutes the vehicle periphery monitoring device 101 together with the imaging unit 16 and the distance measuring unit 17.

ブレーキシステム18は、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3(車両1)に制動力を与える。   The brake system 18 is an ABS (anti-lock brake system) that suppresses the locking of the brake, a skid prevention device (ESC: electronic stability control) that suppresses the skidding of the vehicle 1 during cornering, and increases the braking force (brake assist). An electric brake system, BBW (brake by wire), etc. The brake system 18 gives a braking force to the wheel 3 (vehicle 1) via the actuator 18a.

舵角センサ19は、操舵部4(本実施形態では、一例としてステアリングホイール)の操舵量(回動角度)を検出するセンサであり、一例としては、ホール素子などを用いて構成される。また、舵角センサ13bは、後輪3Rの操舵量(回動角度)を検出するセンサであり、一例としては、ホール素子などを用いて構成される。駐車支援ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19,13bから取得して各種制御を実行する。なお、トルクセンサ12bは、運転者が操舵部4に与えるトルクを検出する。   The rudder angle sensor 19 is a sensor that detects a steering amount (rotation angle) of the steering unit 4 (in this embodiment, a steering wheel as an example), and is configured by using a Hall element or the like as an example. The rudder angle sensor 13b is a sensor that detects the steering amount (rotation angle) of the rear wheel 3R, and is configured using a Hall element as an example. The parking assistance ECU 14 acquires the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 during automatic steering, and the like from the steering angle sensors 19 and 13b and executes various controls. The torque sensor 12b detects torque that the driver gives to the steering unit 4.

車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサであり、一例としては、ホール素子などを用いて構成される。駐車支援ECU14は、車輪速センサ22から取得したデータに基づいて車両1の移動量などを演算し、各種制御を実行する。車輪速センサ22は、ブレーキシステム18に設けられている場合もある。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。車輪速センサ22がブレーキシステム18に設けられている場合には、駐車支援ECU14は、ブレーキシステム18を介してデータを取得する。ブレーキセンサ18bは、ブレーキペダルの操作量を検出するセンサであり、駐車支援ECU14は、ブレーキシステム18を介して情報を取得する。駐車支援ECU14は、例えば、自動操舵中に制動操作部6が操作されたような場合に、自動操舵には適さない状況にあるとして自動操舵を中断したり中止したりすることができる。   The wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time, and is configured using a Hall element as an example. The parking assist ECU 14 calculates the amount of movement of the vehicle 1 based on the data acquired from the wheel speed sensor 22 and executes various controls. The wheel speed sensor 22 may be provided in the brake system 18. The brake system 18 can execute various controls by detecting brake lock, idle rotation of the wheels 3, signs of skidding, and the like from the difference in rotation between the left and right wheels 3. When the wheel speed sensor 22 is provided in the brake system 18, the parking assistance ECU 14 acquires data via the brake system 18. The brake sensor 18 b is a sensor that detects the amount of operation of the brake pedal, and the parking assist ECU 14 acquires information via the brake system 18. For example, when the braking operation unit 6 is operated during automatic steering, the parking assist ECU 14 can interrupt or cancel the automatic steering because it is not suitable for automatic steering.

シフトセンサ21は、一例としては、変速操作部7の可動部(レバーや、アーム、ボタン)の位置を検出するセンサ(スイッチ)であり、変位センサなどを用いて構成される。例えば、駐車支援ECU14は、可動部がリバースにセットされた場合に支援制御を開始したり、リバースから前進に変更された場合に支援制御を終了させたりすることができる。   As an example, the shift sensor 21 is a sensor (switch) that detects the position of a movable part (a lever, an arm, or a button) of the speed change operation unit 7, and is configured using a displacement sensor or the like. For example, the parking assist ECU 14 can start the assist control when the movable part is set to reverse, or can terminate the assist control when changed from reverse to forward.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、あくまで一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are merely examples, and can be set (changed) in various ways.

次に、CPU14aが実行する車両後方監視処理(車両後方監視方法)を説明する。車両後方監視処理(車両後方監視方法)は、車両周辺監視処理(車両周辺監視方法)の一例である。車両後方監視処理は、一例として、変速操作部7の可動部がリバースにセットされた場合に開始される。車両後方監視処理では、CPU14aは、プログラムに従って動作することにより、図4に示されるように、情報取得部51、経路案内部52、判定部53、および報知制御部54として機能する。   Next, a vehicle rear monitoring process (vehicle rear monitoring method) executed by the CPU 14a will be described. The vehicle rear monitoring process (vehicle rear monitoring method) is an example of a vehicle periphery monitoring process (vehicle periphery monitoring method). As an example, the vehicle rear monitoring process is started when the movable portion of the speed change operation unit 7 is set to reverse. In the vehicle rear monitoring process, the CPU 14a functions as an information acquisition unit 51, a route guide unit 52, a determination unit 53, and a notification control unit 54 as shown in FIG.

情報取得部51は、車両1の各部から情報を取得する。一例として、情報取得部51は、撮像部16cから出力された撮像データと、測距部17(17a〜17d)から出力された検出結果と、を取得(受信)する。ここで、撮像部16cは、車両1に設けられ当該車両1の周辺を撮像する撮像部の一例である。また、測距部17は、車両1に設けられ撮像部16cの撮像領域に波(本実施形態では超音波)を発射して当該波の反射波を検出(受信、捕捉)する測距部の一例である。なお、測距部としては、波として電波を発射して反射波を検出するものであってもよい。測距部17の検出結果は、一例として、測距部17が超音波を発射してから反射波を捉えるまでの時間等である。また、情報取得部51は、舵角センサ13b,19の検出結果を取得(受信)する。   The information acquisition unit 51 acquires information from each unit of the vehicle 1. As an example, the information acquisition unit 51 acquires (receives) the imaging data output from the imaging unit 16c and the detection results output from the distance measurement unit 17 (17a to 17d). Here, the imaging unit 16 c is an example of an imaging unit that is provided in the vehicle 1 and images the periphery of the vehicle 1. The distance measuring unit 17 is a distance measuring unit that is provided in the vehicle 1 and that detects (receives and captures) a reflected wave of the wave by emitting a wave (ultrasonic wave in the present embodiment) to the imaging region of the imaging unit 16c. It is an example. Note that the distance measurement unit may detect a reflected wave by emitting a radio wave as a wave. The detection result of the distance measuring unit 17 is, for example, a time until the reflected wave is captured after the distance measuring unit 17 emits an ultrasonic wave. The information acquisition unit 51 acquires (receives) the detection results of the steering angle sensors 13b and 19.

図5,6,7に、撮像部16cから出力された撮像データに基づいて表示装置8の表示画面に表示された画像(撮像部16cが撮像した映像)の例が示されている。図5に示された画像(映像)には、車体2の後側の端部2e、路面201(面、地面、基準面)、白線202、車止め203、および壁204(物体)などが表示されている。図6に示された画像には、車体2の後側の端部2e、路面201、白線202、および他の車両205の前端部205a(物体)などが表示されている。他の車両205の前端部205aには、バンパー205bが含まれる。図7に示された画像には、車体2の後側の端部2e、路面201、ガードレール206、および標識208(板)等が表示されている。ガードレール206は、帯状の板部206aと板部206aを支持した支柱206bとを有する。標識208は、一例として傾斜した支柱207に支持されている。   5, 6, and 7 show examples of images (videos captured by the imaging unit 16 c) displayed on the display screen of the display device 8 based on the imaging data output from the imaging unit 16 c. The image (video) shown in FIG. 5 displays the rear end 2e of the vehicle body 2, the road surface 201 (surface, ground, reference surface), white line 202, car stop 203, wall 204 (object), and the like. ing. In the image shown in FIG. 6, a rear end 2 e of the vehicle body 2, a road surface 201, a white line 202, a front end 205 a (object) of another vehicle 205, and the like are displayed. A bumper 205 b is included in the front end portion 205 a of the other vehicle 205. In the image shown in FIG. 7, a rear end 2e of the vehicle body 2, a road surface 201, a guard rail 206, a sign 208 (plate), and the like are displayed. The guard rail 206 includes a strip-shaped plate portion 206a and a support column 206b that supports the plate portion 206a. As an example, the sign 208 is supported by an inclined column 207.

経路案内部52は、情報取得部51が取得した舵角センサ13b,19の検出結果を用いて、車両1の予想軌跡を演算する。経路案内部52は、撮像部16cによって撮像されて表示装置8に映し出された画像に、演算した車両1の予想軌跡を重ねて(合成して)表示する。ここで、図8,9,10には、図5,6,7の画像に対して予想軌跡301が重ねて表示された画像が示されている。また、図8,9,10の画像には、距離目安線302が表示されている。距離目安線302は、経路案内部52が表示装置8に表示させたものである。距離目安線302は、車体2の後側の端部2eからの距離の目安を示す。   The route guide unit 52 calculates the expected trajectory of the vehicle 1 using the detection results of the steering angle sensors 13b and 19 acquired by the information acquisition unit 51. The route guide unit 52 superimposes (combines) the calculated predicted trajectory of the vehicle 1 on the image captured by the image capturing unit 16c and displayed on the display device 8. Here, FIGS. 8, 9, and 10 show images in which the expected trajectory 301 is superimposed on the images of FIGS. In addition, a distance guide line 302 is displayed in the images of FIGS. The distance guide line 302 is displayed on the display device 8 by the route guide unit 52. A distance guide line 302 indicates a guide of the distance from the rear end 2e of the vehicle body 2.

判定部53は、一例として、撮像部16cの撮像データと、測距部17の検出結果とを用いて、車両1の後方(周辺、進行方向)に、障害物などの物体(物、障害物、構造物)、があるかを判定(検出)する。本実施形態では、判定部53は、撮像部16cの撮像データと、測距部17の検出結果とを用いて、撮像部16cの撮像領域内に、路面から上方に離れた物体があるかを判定する。判定部53は、一例として、測距部17の検出可能範囲内に、路面から上方に離れた物体があるかを判定する。また、判定部53は、撮像部16cの撮像領域内に、路面に接地された物体があるかを判定する。判定部53は、一例として、測距部17の検出可能範囲内に、路面に接地された物体があるかを判定する。   As an example, the determination unit 53 uses an imaging data of the imaging unit 16c and a detection result of the distance measuring unit 17 to provide an object (object, obstacle) behind the vehicle 1 (periphery, traveling direction). , Structure) is determined (detected). In the present embodiment, the determination unit 53 uses the imaging data of the imaging unit 16c and the detection result of the distance measuring unit 17 to determine whether there is an object away from the road surface in the imaging region of the imaging unit 16c. judge. For example, the determination unit 53 determines whether or not there is an object away from the road surface within the detectable range of the distance measurement unit 17. The determination unit 53 determines whether there is an object grounded on the road surface in the imaging region of the imaging unit 16c. For example, the determination unit 53 determines whether there is an object grounded on the road surface within the detectable range of the distance measurement unit 17.

判定部53は、測距部17の検出結果を用いて第一の距離(距離)を取得する。第一の距離は、測距部17の検出結果を用いて算出した判定対象の物体の車両1からの距離である。第一の距離は、一例として、測距部17の検出結果に含まれる検出時間と、音速とを用いて算出される。また、判定部53は、撮像部16cの撮像データから判定対象の物体を検出(抽出)し、当該判定対象の物体の車両1からの距離である第二の距離を撮像部16cの撮像データを用いて取得(算出)する。判定部53は、第一の距離と第二の距離とに差がある場合、路面から上方に離れた物体があると判定する。   The determination unit 53 acquires the first distance (distance) using the detection result of the distance measurement unit 17. The first distance is the distance from the vehicle 1 of the object to be determined calculated using the detection result of the distance measuring unit 17. For example, the first distance is calculated using the detection time included in the detection result of the distance measuring unit 17 and the sound speed. Further, the determination unit 53 detects (extracts) the object to be determined from the image data of the image capturing unit 16c, and determines the second distance that is the distance from the vehicle 1 of the object to be determined as the image data of the image capturing unit 16c. Use to obtain (calculate). If there is a difference between the first distance and the second distance, the determination unit 53 determines that there is an object that is away from the road surface.

第二の距離の算出方法について説明する。第二の距離は、画像上での車両1(車体2)の端部2eから画像中の路面上のある位置(座標)までの距離(画素数)と、その距離に対応する実際の距離(実距離)との関係を示す対応距離情報を用いて算出することができる。この際、画像データ中の物体の特徴点(一例として輪郭)を抽出(検出)する。物体の特徴点は、一例として、各画素の輝度差などから抽出できる。そして、物体の特徴点(輪郭)の下端と接する位置の路面の位置(座標)を特定する。次に、特定した路面の位置と車両1(車体2)の端部2eとの画像上での距離を算出し、算出した距離と対応距離情報とから第二の距離を求める。   A method for calculating the second distance will be described. The second distance is a distance (number of pixels) from an end 2e of the vehicle 1 (vehicle body 2) on the image to a certain position (coordinates) on the road surface in the image, and an actual distance corresponding to the distance (number of pixels). It can be calculated using the corresponding distance information indicating the relationship with the actual distance. At this time, feature points (contours as an example) of the object in the image data are extracted (detected). For example, the feature points of the object can be extracted from the luminance difference of each pixel. Then, the position (coordinates) of the road surface at the position in contact with the lower end of the feature point (contour) of the object is specified. Next, a distance on the image between the position of the specified road surface and the end 2e of the vehicle 1 (vehicle body 2) is calculated, and a second distance is obtained from the calculated distance and the corresponding distance information.

上記の第二の距離の算出方法では、路面に接地された物体(一例として、図5で示された壁204)については、物体の下端部が路面に接地しているので、比較的高い精度で第二の距離を求めることができ、第二の距離と第一の距離とが略一致する。一方、路面から離れた物体(例えば、図6で示された他の車両205の前端部205aや図7で示されたガードレール206の板部206a)については、第二の距離の精度が低くなる。原因は、画像上で路面から離れた物体の下端部に接している路面の部分は、実際には、物体の下端部よりも車両1の端部2eから離れた部分であるためである。例えば、図11に示されるように撮像部16cで車両後方を撮像すると、他の車両205の前端部205aの下端部205bには、当該下端部205bよりも後方の位置P1の路面201が接続しているように撮像される。このため、上記の第二の距離の算出方法で、路面から離れた前端部205a(物体)の第二の距離を算出すると、前端部205a(物体)の下端部205bよりも後方の位置P1での距離が算出されてしまう。この算出した距離は、実際の距離よりも長い距離であり、実際の距離に対して比較的大きな誤差が発生する。本実施形態では、この誤差に注目して、物体が地面に接地しているか否かを判定する。つまり、第二の距離と第一の距離とが略一致してれば、物体は路面に接地していると判定し、第二の距離と第一の距離とが異なれば、物体は路面から離れていると判定する。この際、本実施形態では、一例として、判定部53は、第一の距離と第二の距離との差が閾値以上の場合、路面から上方に離れた物体があると判定する。閾値は、零よりも大きな値である。以上の方法では、判定部53は、第二の距離を、判定対象の物体の特徴点が路面上に位置すると仮定して、取得している。   In the second distance calculation method described above, the object grounded on the road surface (for example, the wall 204 shown in FIG. 5) has a relatively high accuracy because the lower end of the object is grounded on the road surface. Thus, the second distance can be obtained, and the second distance and the first distance substantially coincide with each other. On the other hand, the accuracy of the second distance is low with respect to an object away from the road surface (for example, the front end portion 205a of the other vehicle 205 shown in FIG. 6 or the plate portion 206a of the guard rail 206 shown in FIG. 7). . This is because the portion of the road surface that is in contact with the lower end portion of the object that is separated from the road surface on the image is actually the portion that is further away from the end portion 2e of the vehicle 1 than the lower end portion of the object. For example, as shown in FIG. 11, when the rear of the vehicle is imaged by the imaging unit 16c, the road surface 201 at the position P1 behind the lower end 205b is connected to the lower end 205b of the front end 205a of the other vehicle 205. The image is taken as it is. For this reason, when the second distance of the front end 205a (object) away from the road surface is calculated by the second distance calculation method, the position P1 is behind the lower end 205b of the front end 205a (object). Is calculated. This calculated distance is longer than the actual distance, and a relatively large error occurs with respect to the actual distance. In this embodiment, paying attention to this error, it is determined whether or not the object is in contact with the ground. That is, if the second distance and the first distance substantially match, it is determined that the object is in contact with the road surface. If the second distance and the first distance are different, the object is separated from the road surface. Determine that you are away. At this time, in the present embodiment, as an example, the determination unit 53 determines that there is an object that is separated upward from the road surface when the difference between the first distance and the second distance is equal to or greater than the threshold value. The threshold value is a value larger than zero. In the above method, the determination unit 53 acquires the second distance on the assumption that the feature point of the object to be determined is located on the road surface.

また、判定部53は、路面から上方に離れた物体があると判定した場合、第一の距離と第二の距離とを用いて、路面から上方に離れた物体の路面からの距離を推定(算出)する。この際、本実施形態では、一例として、投影(透視投影)法を用いる。   If the determination unit 53 determines that there is an object away from the road surface, the determination unit 53 estimates the distance from the road surface of the object away from the road surface using the first distance and the second distance ( calculate. At this time, in this embodiment, a projection (perspective projection) method is used as an example.

路面から上方に離れた物体の路面からの距離を算出する方法を、図11を参照して説明する。撮像部16c(車両1)の側方から見て、撮像部16c(のレンズ)から他の車両205の前端部205a(物体)の下端部205cを通り、路面201に至る直線L1と、当該直線L1を路面201に投影した直線L2(長さX1の直線)と、直線L1の撮像部16c側の端部と直線L2の撮像部16c側の端部とを結ぶ直線L3とで、直角三角形M1を生成する。直線L1と路面201との交点の位置P1は、車両1の後側の端部2eから第1の距離だけ離れた位置に相当する。そして、測距部17の計測結果に基づく物体の位置P2(車両1の端部2eから後方に第2の距離だけ離れた位置)に、路面201に対する垂直線L4を生成する。垂直線L4は、直線L1と交差する。これにより、直線L1,L2と、垂直線L4とによって直角三角形M2が生成される。これらの直角三角形M1,M2は相似形状である。そして、直線L2の長さX1は第二の距離であるとして、直線L3の高さを求める。また、直線L3と垂直線L4との間の長さX2は第一の距離であるとする。これらの直線L3の高さと、長さX1,X2と、直角三角形M1,M2は相似形状であるとの条件を用いて、直線L4のうち直線L1と直線L2との間の部分L4aの高さ(長さ)を求めることができる。この部分L4aの高さを、路面から上方に離れた物体(前端部205a)の路面201からの距離とする。図11中の線L5で示す領域は、測距部17の検出可能範囲を模式的に示している。   A method of calculating the distance from the road surface of an object that is away from the road surface will be described with reference to FIG. When viewed from the side of the imaging unit 16c (vehicle 1), a straight line L1 that passes from the imaging unit 16c (lens) through the lower end 205c of the front end 205a (object) of another vehicle 205 to the road surface 201, and the straight line A straight line L2 (a straight line having a length X1) obtained by projecting L1 onto the road surface 201 and a straight line L3 connecting an end of the straight line L1 on the imaging unit 16c side and an end of the straight line L2 on the imaging unit 16c side are a right triangle M1. Is generated. The intersection point P1 between the straight line L1 and the road surface 201 corresponds to a position away from the rear end 2e of the vehicle 1 by a first distance. Then, a vertical line L4 with respect to the road surface 201 is generated at the position P2 of the object based on the measurement result of the distance measuring unit 17 (a position away from the end 2e of the vehicle 1 by a second distance backward). The vertical line L4 intersects with the straight line L1. As a result, a right triangle M2 is generated by the straight lines L1, L2 and the vertical line L4. These right triangles M1 and M2 have similar shapes. Then, assuming that the length X1 of the straight line L2 is the second distance, the height of the straight line L3 is obtained. Further, it is assumed that the length X2 between the straight line L3 and the vertical line L4 is the first distance. Using the conditions that the height of these straight lines L3, the lengths X1 and X2, and the right triangles M1 and M2 are similar, the height of the portion L4a between the straight lines L1 and L2 in the straight lines L4. (Length) can be obtained. The height of the portion L4a is the distance from the road surface 201 of the object (front end portion 205a) that is spaced upward from the road surface. A region indicated by a line L5 in FIG. 11 schematically shows a detectable range of the distance measuring unit 17.

報知制御部54は、判定部53が車両1の後方(周辺、進行方向)に、障害物などの物体があると判定(検出)した場合、車両1の後方に、障害物などの物体がある旨を、表示装置8に報知させる。詳細には、報知制御部54は、判定部53が車両1の路面から上方に離れた物体があると判定した場合、車両1の後方(周辺、進行方向)に、路面から上方に離れた物体がある旨を、車両1に設けられた表示装置8に報知させる。また、報知制御部54は、判定部53が路面に接地された物体があると判定した場合、車両1の後方(周辺、進行方向)に、路面から上方に離れた物体がある旨を、車両1に設けられた表示装置8に報知させる。つまり、報知制御部54は、判定部53が路面に接地された物体があると判定した場合と、判定部が前記路面から上方に離れた物体があると判定した場合とで、異なる報知を表示装置8にさせる。表示装置8は、報知部の一例である。   When the determination unit 53 determines (detects) an object such as an obstacle behind the vehicle 1 (periphery, traveling direction), the notification control unit 54 has an object such as an obstacle behind the vehicle 1. The display device 8 is notified of this. Specifically, when the determination unit 53 determines that there is an object that is separated upward from the road surface of the vehicle 1, the notification control unit 54 is an object that is separated upward from the road surface behind the vehicle 1 (periphery, traveling direction). The display device 8 provided in the vehicle 1 is notified that there is. Further, when the determination unit 53 determines that there is an object grounded on the road surface, the notification control unit 54 indicates that there is an object away from the road surface behind the vehicle 1 (periphery, traveling direction). 1 is notified to the display device 8 provided in 1. That is, the notification control unit 54 displays different notifications when the determination unit 53 determines that there is an object that is grounded on the road surface and when the determination unit determines that there is an object that is away from the road surface. Let the device 8 do. The display device 8 is an example of a notification unit.

報知制御部54は、詳細には、判定部53が路面に接地された物体があると判定した場合、図8に示されるように、表示装置8に、撮像部16cの撮像データを用いた画像中の、路面に接地された物体(図8では、壁204)に、パネル表示303(強調表示)を重ねて表示させる。パネル表示303は、一例として、矩形状であり、有色である。パネル表示303の色は、一例として、予想軌跡301および距離目安線302とは異なる色である。また、パネル表示303は、透過性を有しており、パネル表示303が重ねられた物体(壁204)の部分が視認可能となっている。パネル表示303は、2枚(複数)が一組にされて、二組が左右方向に間隔をあけて配置さている。一組中の2枚のパネル表示303は、相互の一部同士が重なるとともに相互の他の部分が重ならないように、相互にずれて配置されている。2枚のパネル表示303の重なり部の色は、一枚のパネル表示303の色よりも濃くなっている。   Specifically, when the determination unit 53 determines that there is an object grounded on the road surface, the notification control unit 54 uses the image data of the imaging unit 16c on the display device 8 as illustrated in FIG. A panel display 303 (highlighted display) is superimposed and displayed on an object (the wall 204 in FIG. 8) that is grounded on the road surface. As an example, the panel display 303 has a rectangular shape and is colored. As an example, the color of the panel display 303 is different from the predicted trajectory 301 and the distance guide line 302. Moreover, the panel display 303 has transparency, and the part of the object (wall 204) on which the panel display 303 is superimposed is visible. The panel display 303 is a set of two (plural) sheets, and the two sets are arranged at intervals in the left-right direction. The two panel displays 303 in one set are arranged so as to be shifted from each other so that a part of each other overlaps and another part does not overlap each other. The color of the overlapping portion of the two panel displays 303 is darker than the color of the single panel display 303.

一方、報知制御部54は、判定部53が路面から上方に離れた物体があると判定した場合、図9,10に示されるように、表示装置8に、撮像部16cの前記撮像データを用いた画像中の、路面から上方に離れた物体に、パネル表示303(強調表示)を重ねて表示させるとともに、路面から上方に離れた物体がある旨を示す警報304(警告、表示)を画像中に表示させる。警報304は、非接地物用の情報の一例である。路面から上方に離れた物体は、図9では、他の車両205の前端部205aであり、図10では、ガードレール206の板部206aである。パネル表示303は、図8で説明したものと同じものである。警報304は、一例として記号を含む。記号は、一例として、感嘆符等である。警報304は、一例として、記号を三角形表示内に配置して構成されている。警報304は、一例として、パネル表示303の各組に一つずつ配置されている。警報304は、一例として、物体(他の車両205の前端部205aやガードレール206の板部206a)と重ねて表示されている。本実施形態では、警報304を伴わないパネル表示303は、判定部53が路面に接地された物体がある旨を示している。警報304を伴わないパネル表示303は、接地物用の情報の一例である。   On the other hand, when the determination unit 53 determines that there is an object separated upward from the road surface, the notification control unit 54 uses the imaging data of the imaging unit 16c on the display device 8 as shown in FIGS. A panel display 303 (highlighted display) is superimposed on an object away from the road surface in the displayed image, and an alarm 304 (warning, display) indicating that there is an object away from the road surface is displayed in the image. To display. The alarm 304 is an example of information for a non-grounded object. 9 is the front end portion 205a of another vehicle 205 in FIG. 9, and the plate portion 206a of the guard rail 206 in FIG. The panel display 303 is the same as that described in FIG. The alarm 304 includes a symbol as an example. The symbol is, for example, an exclamation mark or the like. As an example, the alarm 304 is configured by arranging symbols in a triangular display. For example, one alarm 304 is arranged in each set of the panel display 303. For example, the alarm 304 is displayed so as to overlap with an object (a front end portion 205a of another vehicle 205 or a plate portion 206a of a guard rail 206). In the present embodiment, the panel display 303 without the alarm 304 indicates that there is an object whose determination unit 53 is grounded on the road surface. The panel display 303 without the alarm 304 is an example of information for grounded objects.

次に、車両後方監視処理の流れを図12に示されたフローチャートを参照して説明する。まずは、情報取得部51が、測距部17の検出結果と撮像部16cの撮像データとを含む車両1の各部からの情報を取得する(ステップS1)。   Next, the flow of the vehicle rear monitoring process will be described with reference to the flowchart shown in FIG. First, the information acquisition part 51 acquires the information from each part of the vehicle 1 containing the detection result of the ranging part 17, and the imaging data of the imaging part 16c (step S1).

次に、判定部53が、ステップS1で取得された測距部17の検出結果から、判定対象の物体の車両1(車体2)からの距離である第一の距離を算出し(ステップS2)、ステップS1で取得された撮像部16cの撮像データから判定対象の物体の車両1(車体2)からの距離である第二の距離を算出する(ステップS3)。次に、判定部53が、判定対象の物体が路面に接地しているか否かを判定する(ステップS4)。   Next, the determination unit 53 calculates a first distance that is the distance from the vehicle 1 (vehicle body 2) of the object to be determined from the detection result of the distance measuring unit 17 acquired in step S1 (step S2). The second distance, which is the distance from the vehicle 1 (vehicle body 2) of the object to be determined, is calculated from the imaging data of the imaging unit 16c acquired in step S1 (step S3). Next, the determination unit 53 determines whether or not the object to be determined is in contact with the road surface (step S4).

判定部53が物体が路面に接地していると判定した場合(ステップS4のYes)、報知制御部54が、接地物用の情報(警報304を伴わないパネル表示303)を表示装置8に表示させる(ステップS5)。一方、判定部53が物体が路面から離れており当該物体が接地していないと判定した場合(ステップS4のNo)、報知制御部54が、非接地物用の情報(警報304)を表示装置8に表示させる(ステップS6)。以上の処理は、規定の周期で繰り返し行われる。   When the determination unit 53 determines that the object is in contact with the road surface (Yes in step S4), the notification control unit 54 displays information for the grounded object (panel display 303 without the alarm 304) on the display device 8. (Step S5). On the other hand, when the determination unit 53 determines that the object is away from the road surface and the object is not in contact with the ground (No in step S4), the notification control unit 54 displays the information (alarm 304) for the non-grounded object on the display device. 8 is displayed (step S6). The above processing is repeated at a specified cycle.

以上説明したとおり、本実施形態では、判定部53が、撮像部16cから出力された撮像データと、測距部17の検出結果とを用いて、撮像部16cの撮像領域内に路面から上方に離れた物体があるかを判定する。したがって、本実施形態によれば、路面から上方に離れた物体の有無を把握することができる。   As described above, in the present embodiment, the determination unit 53 uses the imaging data output from the imaging unit 16c and the detection result of the distance measuring unit 17 to move upward in the imaging area of the imaging unit 16c from the road surface. Determine if there is a distant object. Therefore, according to the present embodiment, it is possible to grasp the presence / absence of an object separated upward from the road surface.

また、本実施形態では、判定部53が路面から上方に離れた物体があると判定した場合、報知制御部54が、路面から上方に離れた物体がある旨を、車両1に設けられた表示装置8(報知部)に報知させる。したがって、本実施形態によれば、路面から上方に離れた物体がある旨を、運転者に知らせることができる。よって、運転者の運転の支援を行うことができる。なお、報知部としては、表示装置8に限るものではない。例えば、報知部は、音声出力装置9やブザー24等の音声出力部であってもよい。この場合には、音声(音)によって、路面から上方に離れた物体がある旨を、報知する。   Further, in the present embodiment, when the determination unit 53 determines that there is an object separated upward from the road surface, the notification control unit 54 indicates that there is an object separated upward from the road surface. The device 8 (notification unit) is informed. Therefore, according to the present embodiment, it is possible to notify the driver that there is an object separated upward from the road surface. Therefore, the driving assistance of the driver can be performed. Note that the notification unit is not limited to the display device 8. For example, the notification unit may be an audio output unit such as the audio output device 9 or the buzzer 24. In this case, the fact that there is an object away from the road surface is notified by voice (sound).

また、本実施形態では、報知制御部54は、判定部53が路面に接地された物体があると判定した場合と、判定部53が路面から上方に離れた物体があると判定した場合とで、異なる報知を表示装置8にさせる。したがって、運転者が、それらの報知を良好に区別して認識することができる。   In the present embodiment, the notification control unit 54 includes a case where the determination unit 53 determines that there is an object grounded on the road surface, and a case where the determination unit 53 determines that there is an object separated from the road surface. Then, the display device 8 is caused to make a different notification. Therefore, the driver can distinguish and recognize these notifications well.

次に、本実施形態の変形例を説明する。なお、以下の複数の変形例は、上記実施形態と同様の構成要素が含まれている。よって、以下では、それら同様の構成要素には共通の符号を付与するとともに、重複する説明を省略する。   Next, a modification of this embodiment will be described. In addition, the following several modified examples include the component similar to the said embodiment. Therefore, in the following, common reference numerals are given to those similar components, and redundant description is omitted.

図13,14に示された第1の変形例では、判定部53が路面から上方に離れた物体があると判定した場合、報知制御部54が、表示装置8に、撮像データを用いた画像中の路面から上方に離れた物体(図13では、他の車両205の前端部205a、図14では、ガードレール206の板部206a)に、パネル表示303(図8参照)とは異なるパネル表示303Aを重ねて表示させる点が上記実施形態に対して異なる。パネル表示303は、第一のパネル表示の一例であり、パネル表示303Aは、第二のパネル表示の一例である。パネル表示303Aは、一例として、パネル表示303に対して色が異なる。パネル表示303Aの配置は、パネル表示303と同様である。本変形例では、パネル表示303Aは、路面から上方に離れた物体がある旨を示している。   In the first modification shown in FIGS. 13 and 14, when the determination unit 53 determines that there is an object away from the road surface, the notification control unit 54 uses the image data on the display device 8. A panel display 303A different from the panel display 303 (see FIG. 8) is displayed on an object that is distant from the inside road surface (in FIG. 13, the front end portion 205a of another vehicle 205, and in FIG. 14, the plate portion 206a of the guard rail 206). Is different from the above-described embodiment in that they are displayed in an overlapping manner. The panel display 303 is an example of a first panel display, and the panel display 303A is an example of a second panel display. As an example, the panel display 303A has a different color from the panel display 303. The arrangement of the panel display 303A is the same as that of the panel display 303. In the present modification, the panel display 303A indicates that there is an object separated upward from the road surface.

図15に示された第2の変形例では、判定部53が路面から上方に離れた物体があると判定した場合、報知制御部54は、パネル表示303,303Bと、警報304と、を表示させる。パネル表示303は、本変形例では、上下方向に長手方向を有する矩形状となっている。パネル表示303Bは、パネル表示303の下端部から、画像中の車体2の後側の端部2eに向けて延出している。パネル表示303Bは、一例として、矩形状であり、路面201上に重ねて表示されている。また、パネル表示303,303Bの縁部(端部)には、強調線305(線、強調部)が表示されている。強調線305によって、運転者がパネル表示303,303Bを視認し易くなっている。また、本変形例では、囲繞線306(枠)が表示されている。囲繞線306は、ガードレール206の上方に位置した標識208を囲っている。また、本変形例では、一つの距離目安線302(一例として、3つのうちの真ん中の距離目安線302)に対して、距離(一例として、1.0m)が表示されている。   In the second modification shown in FIG. 15, when the determination unit 53 determines that there is an object away from the road surface, the notification control unit 54 displays panel displays 303 and 303B and an alarm 304. Let In this modification, the panel display 303 has a rectangular shape having a longitudinal direction in the vertical direction. The panel display 303B extends from the lower end of the panel display 303 toward the rear end 2e of the vehicle body 2 in the image. The panel display 303B has a rectangular shape as an example, and is displayed on the road surface 201 in an overlapping manner. Further, an emphasis line 305 (line, emphasis part) is displayed on the edge (end part) of the panel displays 303 and 303B. The highlight line 305 makes it easier for the driver to visually recognize the panel displays 303 and 303B. In this modification, a go line 306 (frame) is displayed. A surrounding line 306 surrounds a sign 208 positioned above the guardrail 206. In this modification, a distance (for example, 1.0 m) is displayed for one distance guide line 302 (for example, the middle distance guide line 302 of the three).

図16に示された第3の変形例では、判定部53が路面から上方に離れた物体があると判定した場合、報知制御部54は、一枚のパネル表示303と警報304とを表示させる。パネル表示303は、本変形例では、ガードレール206の板部206aに沿う長手方向を有する矩形状となっている。また、本変形例では、第2の変形例と同様に、一つの距離目安線302(一例として、3つのうちの真ん中の距離目安線302)に対して、距離(一例として、1.0m)が表示されている。   In the third modified example shown in FIG. 16, when the determination unit 53 determines that there is an object away from the road surface, the notification control unit 54 displays one panel display 303 and an alarm 304. . In this modification, the panel display 303 has a rectangular shape having a longitudinal direction along the plate portion 206a of the guard rail 206. In the present modification, as in the second modification, a distance (as an example, 1.0 m) with respect to one distance guide line 302 (as an example, the middle distance guide line 302 among the three). Is displayed.

以上の各変形例でも上記実施形態と同様の効果を奏することができる。   Even in each of the above-described modifications, the same effects as those of the above embodiment can be obtained.

なお、本発明は、上記実施形態および変形例に限ることなく本発明の要旨を逸脱しない範囲で他の実施形態および変形例を各種採用することができる。   Note that the present invention is not limited to the above-described embodiments and modifications, and various other embodiments and modifications can be adopted without departing from the gist of the present invention.

1…車両、8…表示装置(報知部)、9…音声出力装置(報知部)、16c…撮像部、17…測距部、24…ブザー(報知部)、51…情報取得部、53…判定部、54…報知制御部、101…車両周辺監視装置、201…路面、204…壁(物体)、205a…他の車両の前端部(物体)、206a…ガードレールの板部(物体)、303…パネル表示(第一のパネル表示)、303A…パネル表示(第二のパネル表示)、304…警報。 DESCRIPTION OF SYMBOLS 1 ... Vehicle, 8 ... Display apparatus (notification part), 9 ... Audio | voice output apparatus (notification part), 16c ... Imaging part, 17 ... Distance measuring part, 24 ... Buzzer (notification part), 51 ... Information acquisition part, 53 ... Determining section 54 ... Notification control section 101 101 Vehicle periphery monitoring device 201 Road surface 204 Wall (object) 205a Front end of other vehicle (object) 206a Guardrail plate section (object) 303 Panel display (first panel display), 303A ... Panel display (second panel display), 304 ... Alarm.

Claims (11)

車両に設けられ当該車両の周辺を撮像する撮像部から出力された撮像データと、前記車両に設けられ前記撮像部の撮像領域に波を発射して当該波の反射波を検出する測距部から出力された検出結果と、を取得する情報取得部と、
前記撮像データと前記検出結果とを用いて、前記撮像領域内に路面から上方に離れた物体があるかを判定する判定部と、
を備えた車両周辺監視装置。
From imaging data output from an imaging unit that is provided in a vehicle and images the periphery of the vehicle, and a ranging unit that is provided in the vehicle and detects a reflected wave of the wave by emitting a wave to an imaging region of the imaging unit An information acquisition unit for acquiring the output detection result;
Using the imaging data and the detection result, a determination unit that determines whether there is an object separated upward from a road surface in the imaging area;
A vehicle periphery monitoring device.
前記判定部が前記路面から上方に離れた物体があると判定した場合、前記路面から上方に離れた物体がある旨を、前記車両に設けられた報知部に報知させる報知制御部を備えた請求項1に記載の車両周辺監視装置。   And a notification control unit configured to notify a notification unit provided in the vehicle that there is an object separated upward from the road surface when the determination unit determines that there is an object separated upward from the road surface. Item 4. The vehicle periphery monitoring device according to Item 1. 前記判定部は、前記撮像領域内に路面に接地された物体があるかを判定し、
前記報知制御部は、前記判定部が前記路面に接地された物体があると判定した場合と、前記判定部が前記路面から上方に離れた物体があると判定した場合とで、異なる報知を前記報知部にさせる請求項2に記載の車両周辺監視装置。
The determination unit determines whether there is an object grounded on a road surface in the imaging region,
The notification control unit notifies different notifications when the determination unit determines that there is an object grounded on the road surface and when the determination unit determines that there is an object separated upward from the road surface. The vehicle periphery monitoring device according to claim 2, wherein the vehicle periphery monitoring device is caused to be a notification unit.
前記報知部は、表示装置であり、
前記報知制御部は、前記判定部が前記路面に接地された物体があると判定した場合、前記表示装置に、前記撮像データを用いた画像中の前記路面に接地された物体にパネル表示を重ねて表示させ、前記判定部が前記路面から上方に離れた物体があると判定した場合、前記表示装置に、前記撮像データを用いた画像中の前記路面から上方に離れた物体に前記パネル表示を重ねて表示させるとともに、前記路面から上方に離れた物体がある旨を示す警報を前記画像中に表示させる請求項3に記載の車両周辺監視装置。
The notification unit is a display device,
When the determination unit determines that there is an object grounded on the road surface, the notification control unit superimposes a panel display on the object grounded on the road surface in the image using the imaging data. When the determination unit determines that there is an object separated upward from the road surface, the display device displays the panel display on the object distant from the road surface in the image using the imaging data. The vehicle periphery monitoring device according to claim 3, wherein the vehicle periphery monitoring device displays the alarm in the image while indicating that there is an object separated upward from the road surface.
前記報知部は、表示装置であり、
前記報知制御部は、前記判定部が前記路面に接地された物体があると判定した場合、前記表示装置に、前記撮像データを用いた画像中の前記路面に接地された物体に第一のパネル表示を重ねて表示させ、前記判定部が前記路面から上方に離れた物体があると判定した場合、前記表示装置に、前記撮像データを用いた画像中の前記路面から上方に離れた物体に前記第一のパネル表示とは異なる第二のパネル表示を重ねて表示させる請求項3に記載の車両周辺監視装置。
The notification unit is a display device,
When the determination unit determines that there is an object grounded on the road surface, the notification control unit displays a first panel on the object grounded on the road surface in the image using the imaging data. When the display is overlapped and the determination unit determines that there is an object that is separated upward from the road surface, the display device displays the object that is separated upward from the road surface in the image using the imaging data. The vehicle periphery monitoring apparatus according to claim 3, wherein a second panel display different from the first panel display is displayed in an overlapping manner.
前記判定部は、前記検出結果を用いて第一の距離を取得し、前記撮像データから判定対象の物体を検出し当該判定対象の物体の前記車両からの第二の距離を前記撮像データを用いて取得し、前記第一の距離と前記第二の距離とに差がある場合、前記路面から上方に離れた物体があると判定する請求項1ないし5のいずれか一項に記載の車両周辺監視装置。   The determination unit acquires a first distance using the detection result, detects an object to be determined from the imaging data, and uses a second distance from the vehicle of the object to be determined using the imaging data. 6. The vehicle periphery according to claim 1, wherein when there is a difference between the first distance and the second distance, it is determined that there is an object separated upward from the road surface. Monitoring device. 前記判定部は、前記第二の距離を、前記判定対象の物体の特徴点が前記路面上に位置すると仮定して取得する請求項6に記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 6, wherein the determination unit acquires the second distance on the assumption that a feature point of the determination target object is located on the road surface. 前記判定部は、前記第一の距離と前記第二の距離との差が閾値以上の場合、前記路面から上方に離れた物体があると判定する請求項6または7に記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 6 or 7, wherein the determination unit determines that there is an object separated upward from the road surface when a difference between the first distance and the second distance is a threshold value or more. . 前記判定部は、前記路面から上方に離れた物体があると判定した場合、前記第一の距離と前記第二の距離とを用いて、前記路面から上方に離れた物体の前記路面からの距離を推定する請求項6ないし8のいずれか一項に記載の車両周辺監視装置。   When the determination unit determines that there is an object separated upward from the road surface, the distance from the road surface of the object separated upward from the road surface using the first distance and the second distance. The vehicle periphery monitoring device according to any one of claims 6 to 8, wherein 情報取得部が、車両に設けられ当該車両の周辺を撮像する撮像部から出力された撮像データと、前記車両に設けられ前記撮像部の撮像領域に波を発射して当該波の反射波を検出する測距部から出力された検出結果と、を取得するステップと、
判定部が、前記撮像データと前記検出結果とを用いて、前記撮像領域内に路面から上方に離れた物体があるかを判定するステップと、
を含む車両周辺監視方法。
An information acquisition unit detects the reflected data of the wave by emitting the wave to the imaging area of the imaging unit provided in the vehicle and the imaging data output from the imaging unit provided in the vehicle and imaging the periphery of the vehicle A detection result output from the distance measuring unit to obtain,
A step of determining, by using the imaging data and the detection result, whether or not there is an object separated upward from a road surface in the imaging area;
A vehicle periphery monitoring method including:
車両に設けられ当該車両の周辺を撮像する撮像部から出力された撮像データと、前記車両に設けられ前記撮像部の撮像領域に波を発射して当該波の反射波を検出する測距部から出力された検出結果と、を取得するステップと、
前記撮像データと前記検出結果とを用いて、前記撮像領域内に路面から上方に離れた物体があるかを判定するステップと、
を、コンピュータに実行させるためのプログラム。
From imaging data output from an imaging unit that is provided in a vehicle and images the periphery of the vehicle, and a ranging unit that is provided in the vehicle and detects a reflected wave of the wave by emitting a wave to an imaging region of the imaging unit Obtaining an output detection result; and
Using the imaging data and the detection result to determine whether or not there is an object away from the road surface in the imaging area;
A program that causes a computer to execute.
JP2012138997A 2012-06-20 2012-06-20 Vehicle periphery monitoring device, vehicle periphery monitoring method and program Pending JP2014000921A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012138997A JP2014000921A (en) 2012-06-20 2012-06-20 Vehicle periphery monitoring device, vehicle periphery monitoring method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012138997A JP2014000921A (en) 2012-06-20 2012-06-20 Vehicle periphery monitoring device, vehicle periphery monitoring method and program

Publications (1)

Publication Number Publication Date
JP2014000921A true JP2014000921A (en) 2014-01-09

Family

ID=50034519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012138997A Pending JP2014000921A (en) 2012-06-20 2012-06-20 Vehicle periphery monitoring device, vehicle periphery monitoring method and program

Country Status (1)

Country Link
JP (1) JP2014000921A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108290781A (en) * 2015-11-20 2018-07-17 康宁股份有限公司 The method of the rich lithium salts bath of regeneration
CN109643439A (en) * 2016-09-30 2019-04-16 爱信精机株式会社 Periphery monitoring apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274114A (en) * 2003-03-05 2004-09-30 Nissan Motor Co Ltd Image display apparatus and image display method
JP2005045602A (en) * 2003-07-23 2005-02-17 Matsushita Electric Works Ltd Field of view monitor system for vehicle
JP2009188635A (en) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd Vehicle peripheral image processor and vehicle peripheral condition presenting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274114A (en) * 2003-03-05 2004-09-30 Nissan Motor Co Ltd Image display apparatus and image display method
JP2005045602A (en) * 2003-07-23 2005-02-17 Matsushita Electric Works Ltd Field of view monitor system for vehicle
JP2009188635A (en) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd Vehicle peripheral image processor and vehicle peripheral condition presenting method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108290781A (en) * 2015-11-20 2018-07-17 康宁股份有限公司 The method of the rich lithium salts bath of regeneration
US11161781B2 (en) 2015-11-20 2021-11-02 Corning Incorporated Methods for regenerating lithium-enriched salt baths
CN108290781B (en) * 2015-11-20 2022-02-22 康宁股份有限公司 Method for regenerating a lithium-rich salt bath
CN109643439A (en) * 2016-09-30 2019-04-16 爱信精机株式会社 Periphery monitoring apparatus
CN109643439B (en) * 2016-09-30 2023-08-08 株式会社爱信 Peripheral monitoring device

Similar Documents

Publication Publication Date Title
EP3124360B1 (en) Parking assistance device
US9751562B2 (en) Park exit assist system
JP6015314B2 (en) Device for calculating parking target position, method and program for calculating parking target position
JP6096156B2 (en) Parking assistance device
JP6067634B2 (en) Parking assistance device and route determination method
JP6094266B2 (en) Parking assistance device, parking assistance method and program
JP6062406B2 (en) Parking assistance device and parking assistance method
JP6275006B2 (en) Parking assistance device
WO2016039411A1 (en) Vehicle position detection apparatus
JP2016060222A (en) Delivery support device, and delivery support metho
JP2016084094A (en) Parking assist apparatus
JP2016060240A (en) Parking support device
JP5991112B2 (en) Parking assistance device, control method, and program
JP2017030549A (en) Parking support device
JP6500435B2 (en) Parking assistance device
JP2017033277A (en) Parking support apparatus
JP2016060217A (en) Drive assisting device
JP2018036444A (en) Display control device
JP2018180909A (en) Obstacle detection notification device, method, and program
JP2014004930A (en) Parking support device, parking support method, and parking support program
JP2014004933A (en) Parking support device, control method, and program
WO2018220915A1 (en) Periphery monitoring device
JP2014004931A (en) Parking support device, parking support method, and parking support program
JP2014004932A (en) Parking support device, parking support method, and program
JP2014000921A (en) Vehicle periphery monitoring device, vehicle periphery monitoring method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161004