JP6287704B2 - Driving assistance device - Google Patents

Driving assistance device Download PDF

Info

Publication number
JP6287704B2
JP6287704B2 JP2014180405A JP2014180405A JP6287704B2 JP 6287704 B2 JP6287704 B2 JP 6287704B2 JP 2014180405 A JP2014180405 A JP 2014180405A JP 2014180405 A JP2014180405 A JP 2014180405A JP 6287704 B2 JP6287704 B2 JP 6287704B2
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
distance
image
shortest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014180405A
Other languages
Japanese (ja)
Other versions
JP2016052867A (en
Inventor
恭平 尾崎
恭平 尾崎
丙辰 王
丙辰 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014180405A priority Critical patent/JP6287704B2/en
Priority to PCT/JP2015/004134 priority patent/WO2016035272A1/en
Publication of JP2016052867A publication Critical patent/JP2016052867A/en
Application granted granted Critical
Publication of JP6287704B2 publication Critical patent/JP6287704B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両周辺の状況を撮像してその撮像した画像を鳥瞰変換した鳥瞰画像を表示させる運転支援装置に関するものである。   The present invention relates to a driving support device that captures a situation around a vehicle and displays a bird's-eye image obtained by performing bird's-eye conversion on the captured image.

従来、カメラを用いて車両周辺の状況を撮像し、撮像した車両周辺の画像を鳥瞰変換した鳥瞰画像に自車位置を示す画像を重畳して表示装置に表示させる技術が知られている。しかしながら、画像の鳥瞰変換を行うと、本来地面に立っている障害物が、変換時に生じる歪みのために倒れたように表示されることになり、自車と障害物との距離がユーザにとってわかりにくくなる問題が生じる。   2. Description of the Related Art Conventionally, a technique is known in which a situation around a vehicle is picked up using a camera, and an image indicating the position of the vehicle is superimposed on a bird's-eye image obtained by bird's-eye conversion of the image around the picked-up vehicle. However, when performing bird's-eye conversion of an image, an obstacle originally standing on the ground will be displayed as if it has collapsed due to distortion that occurs during conversion, and the distance between the vehicle and the obstacle can be understood by the user. The problem becomes difficult.

そこで、この問題を解決する手段として、例えば、特許文献1には、距離測定センサから送信した超音波の反射波を受信するまでの伝搬時間から算出した自車から障害物までの距離をもとに、障害物の外縁の位置を検出し、障害物の外縁の位置を示すマーカを鳥瞰画像に重畳表示する技術が開示されている。   Therefore, as means for solving this problem, for example, Patent Document 1 discloses a distance from the own vehicle to an obstacle calculated from a propagation time until an ultrasonic reflected wave transmitted from a distance measuring sensor is received. In addition, a technique is disclosed in which the position of the outer edge of the obstacle is detected and a marker indicating the position of the outer edge of the obstacle is superimposed and displayed on the bird's-eye view image.

特許第4039321号公報Japanese Patent No. 4039321

車両は、バンパやサイドミラーといった特定の部位が突き出た形状となっている。また、障害物の中には、上部が水平方向に突き出していたり、下部が水平方向に突き出していたりするなど、高さ位置によって水平方向に広がる形状が大きく異なるものがある。よって、車両と障害物とのそれぞれ水平方向に突き出した部位の高さ位置や突き出した量によって、車両と障害物とが実際に接近可能な距離は異なる。   The vehicle has a shape in which a specific part such as a bumper or a side mirror protrudes. In addition, some obstacles have a shape that greatly varies in the horizontal direction depending on the height position, such as an upper portion protruding in the horizontal direction and a lower portion protruding in the horizontal direction. Therefore, the distance in which the vehicle and the obstacle can actually approach differs depending on the height position of the part protruding in the horizontal direction between the vehicle and the obstacle and the protruding amount.

これに対して、特許文献1に開示の技術では、単に障害物の外縁の位置を検出するだけであり、自車及び障害物の高さ位置ごとの水平方向に広がる形状を考慮していないので、自車と障害物との間で実際に確保できる距離を正確に特定できない。よって、実際には車両との間に距離を確保できるにもかかわらず、距離の確保が困難であるような位置に障害物の外縁の位置を示すマーカ(以下、単にマーカ)を表示してしまったり、実際には車両との間に距離を確保できない位置にマーカを表示してしまったりするおそれがある。   On the other hand, the technique disclosed in Patent Document 1 merely detects the position of the outer edge of the obstacle, and does not consider the shape spreading in the horizontal direction for each height position of the vehicle and the obstacle. The distance that can be actually secured between the vehicle and the obstacle cannot be accurately specified. Therefore, a marker indicating the position of the outer edge of the obstacle (hereinafter simply referred to as a marker) is displayed at a position where it is difficult to ensure the distance even though the distance to the vehicle can be actually secured. There is a possibility that the marker may be displayed at a position where the distance to the vehicle cannot be secured in practice.

本発明は、上記従来の問題点に鑑みなされたものであって、その目的は、自車と障害物との間で実際に確保できる距離をより正確に特定して、鳥瞰画像上ではわかりづらい自車と障害物とのより正確な距離をわかりやすくする運転支援装置を提供することにある。   The present invention has been made in view of the above-described conventional problems, and its purpose is to more accurately identify the distance that can be actually secured between the own vehicle and the obstacle and is difficult to understand on the bird's-eye view image. An object of the present invention is to provide a driving support device that makes it easier to understand a more accurate distance between the vehicle and the obstacle.

本発明の運転支援装置は、車両で用いられ、自車の周辺を撮像する撮像装置(5)で撮像された画像を鳥瞰変換する画像処理部(13)と、画像処理部で鳥瞰変換した鳥瞰画像に自車位置を示す自車画像を重畳させて表示装置(7)に表示させる表示処理部(19)とを備える運転支援装置であって、自車の高さ位置別の水平方向に広がる形状を少なくとも特定できる情報である自車形状情報を記憶している自車形状記憶部(17)と、自車の所定位置から、自車周辺の障害物における高さ方向及び水平方向に複数並んだ各計測点までの計測点距離をそれぞれ検出する測距センサ(6)で検出した計測点距離を取得する計測点距離取得部(15)と、計測点距離取得部で取得した計測点距離と所定位置に対する計測点の方向とをもとに、障害物の高さ位置別の水平方向に広がる形状を特定する障害物形状特定部(16)と、自車形状記憶部に記憶している自車形状情報から特定できる自車の高さ位置別の水平方向に広がる形状と、障害物形状特定部で特定した障害物の高さ位置別の水平方向に広がる形状とをもとに、自車と障害物との同じ高さ位置にある部位間の距離が最も短くなる最短部位間距離を特定する最短部位間距離特定部(18)とを備え、表示処理部は、鳥瞰画像において、自車画像に対して障害物が位置する方向の、最短部位間距離特定部で特定した最短部位間距離に応じた位置に、障害物の位置を示すマーカを重畳して表示させることを特徴としている。   The driving support device of the present invention is used in a vehicle, and an image processing unit (13) that performs bird's-eye conversion on an image captured by an imaging device (5) that captures the periphery of the host vehicle, and a bird's-eye view that has been converted to bird's-eye by the image processing unit. A driving support device including a display processing unit (19) that superimposes a vehicle image indicating a vehicle position on an image and displays the vehicle image on a display device (7), and spreads in a horizontal direction according to a height position of the vehicle. A host vehicle shape storage unit (17) that stores host vehicle shape information, which is information that can at least identify the shape, and a plurality of obstacles arranged in the height direction and the horizontal direction of obstacles around the host vehicle from a predetermined position of the host vehicle. The measurement point distance acquisition unit (15) that acquires the measurement point distance detected by the distance measuring sensor (6) that detects the measurement point distance to each measurement point, and the measurement point distance acquired by the measurement point distance acquisition unit, Based on the direction of the measurement point with respect to the predetermined position, An obstacle shape specifying unit (16) for specifying a shape spreading in the horizontal direction for each height position, and a horizontal for each vehicle height position that can be specified from the vehicle shape information stored in the vehicle shape storage unit The distance between the parts at the same height position of the vehicle and the obstacle based on the shape spreading in the direction and the shape spreading in the horizontal direction according to the height position of the obstacle specified by the obstacle shape specifying part A shortest inter-site distance specifying unit (18) that specifies the shortest inter-site distance that shortens the distance between the shortest parts in the direction in which the obstacle is located with respect to the vehicle image in the bird's-eye view image. It is characterized in that a marker indicating the position of the obstacle is superimposed and displayed at a position corresponding to the shortest distance between the parts specified by the distance specifying unit.

これによれば、自車形状記憶部に記憶している自車形状情報から特定できる自車の高さ位置別の水平方向に広がる形状と、障害物形状特定部で特定した障害物の高さ位置別の水平方向に広がる形状とをもとに、自車と障害物との同じ高さ位置にある部位間の距離が最も短くなる最短部位間距離を特定する。ここで、障害物の高さ位置別の水平方向に広がる形状は、自車周辺の障害物における高さ方向及び水平方向に複数並んだ各計測点までの計測点距離と自車の所定位置に対する計測点の方向とをもとに特定したものであるので、自車の高さ位置別の水平方向に広がる形状と、障害物の高さ位置別の水平方向に広がる形状とを、実際の相対位置関係に沿って比較することが可能であり、自車と障害物との間で実際に確保できる距離をより正確に特定することが可能になる。   According to this, the shape spreading in the horizontal direction according to the height position of the own vehicle that can be specified from the own vehicle shape information stored in the own vehicle shape storage unit, and the height of the obstacle specified by the obstacle shape specifying unit Based on the shape that spreads in the horizontal direction for each position, the shortest distance between the parts where the distance between the parts at the same height position of the vehicle and the obstacle is the shortest is specified. Here, the shape spreading in the horizontal direction according to the height position of the obstacle corresponds to the measurement point distance to the measurement points arranged in the height direction and the horizontal direction in the obstacle around the own vehicle and the predetermined position of the own vehicle. Since it is specified based on the direction of the measurement point, the shape that spreads horizontally according to the height position of the vehicle and the shape that spreads horizontally according to the height position of the obstacle It is possible to make a comparison along the positional relationship, and it is possible to more accurately specify the distance that can be actually secured between the vehicle and the obstacle.

また、表示処理部は、鳥瞰画像において、自車画像に対して障害物が位置する方向の、最短部位間距離に応じた位置に、障害物の位置を示すマーカを重畳して表示させるので、自車と障害物との間で実際に確保できる距離をより正確にユーザに認識させることが可能になる。よって、鳥瞰画像上ではわかりづらい自車と障害物とのより正確な距離がわかりやすくなる。   In addition, since the display processing unit causes the marker indicating the position of the obstacle to be superimposed and displayed at the position corresponding to the distance between the shortest parts in the direction in which the obstacle is located with respect to the own vehicle image in the bird's-eye view image, It becomes possible to make the user recognize the distance that can be actually secured between the own vehicle and the obstacle more accurately. Therefore, it becomes easier to understand the more accurate distance between the vehicle and the obstacle that is difficult to understand on the bird's-eye view image.

運転支援システム100の概略的な構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a driving support system 100. FIG. 最短部位間距離について説明を行うための図である。It is a figure for demonstrating the shortest part distance. 運転支援ECU1での鳥瞰画像表示関連処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the bird's-eye view image display related process in driving assistance ECU1. 実施形態1でのマーカの表示位置について説明を行うための図である。FIG. 5 is a diagram for explaining a marker display position in the first embodiment. 実施形態1でのマーカの表示例を示す図である。6 is a diagram illustrating a display example of a marker in the first embodiment. FIG. 従来技術でのマーカの表示位置について説明を行うための図である。It is a figure for demonstrating the display position of the marker in a prior art. 従来技術でのマーカの表示例を示す図である。It is a figure which shows the example of a display of the marker by a prior art. 実施形態1でのマーカの表示位置について説明を行うための図である。FIG. 5 is a diagram for explaining a marker display position in the first embodiment. 実施形態1でのマーカの表示例を示す図である。6 is a diagram illustrating a display example of a marker in the first embodiment. FIG. 実施形態1でのマーカの表示例を示す図である。6 is a diagram illustrating a display example of a marker in the first embodiment. FIG. 実施形態1でのマーカの表示例を示す図である。6 is a diagram illustrating a display example of a marker in the first embodiment. FIG. 変形例1でのマーカの表示例を示す図である。It is a figure which shows the example of a display of the marker in the modification 1.

以下、本発明の実施形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
<運転支援システム100の概略構成>
図1は、本発明が適用された運転支援システム100の概略的な構成の一例を示す図である。運転支援システム100は車両に搭載されるものであり、図1に示すように運転支援ECU1、シフトポジションセンサ2、舵角センサ3、車速センサ4、カメラ5、レーザレーダユニット6、及びディスプレイ7を含んでいる。運転支援システム100を搭載している車両を以降では自車と呼ぶ。
(Embodiment 1)
<Schematic configuration of driving support system 100>
FIG. 1 is a diagram illustrating an example of a schematic configuration of a driving support system 100 to which the present invention is applied. The driving support system 100 is mounted on a vehicle, and includes a driving support ECU 1, a shift position sensor 2, a rudder angle sensor 3, a vehicle speed sensor 4, a camera 5, a laser radar unit 6, and a display 7 as shown in FIG. Contains. Hereinafter, a vehicle equipped with the driving support system 100 is referred to as a host vehicle.

シフトポジションセンサ2は、自車のシフトポジションを検出する。舵角センサ3は、自車の操舵角を検出する。車速センサは、自車の速度を検出する。   The shift position sensor 2 detects the shift position of the own vehicle. The steering angle sensor 3 detects the steering angle of the host vehicle. The vehicle speed sensor detects the speed of the host vehicle.

カメラ5は、自車に設置されて自車周辺を逐次撮像する。このカメラ5が請求項の撮像装置に相当する。本実施形態では、カメラ5としては、自車前方所定角範囲を撮像する前方カメラと、自車後方所定角範囲を撮像する後方カメラと、自車左側方所定角範囲を撮像する左側方カメラと、自車右側方所定角範囲を撮像する右側方カメラとを用いる場合を例に挙げて説明を行う。カメラ5は、前方カメラ、後方カメラ、左側方カメラ、及び右側方カメラによって自車の全周囲を撮像範囲としている。   The camera 5 is installed in the own vehicle and sequentially captures the periphery of the own vehicle. This camera 5 corresponds to the imaging device of the claims. In the present embodiment, the camera 5 includes a front camera that captures a predetermined angle range in front of the host vehicle, a rear camera that captures a predetermined range of angles behind the host vehicle, and a left-side camera that captures a predetermined angle range on the left side of the host vehicle. The case where a right side camera that captures a predetermined angle range on the right side of the vehicle is used as an example will be described. The camera 5 uses the front camera, the rear camera, the left side camera, and the right side camera as an imaging range around the entire vehicle.

レーザレーダユニット6は、レーザレーダ6a及び制御IC6bを備える。レーザレーダユニット6が請求項の測距センサに相当する。レーザレーダ6aは、発光部や受光部などからなる。発光部は、パルス状のレーザ光を、スキャナ及び発光レンズを介して放射するレーザダイオードを備えている。レーザダイオードは、レーザダイオード駆動回路を介して制御IC6bに接続され、制御IC6bからの駆動信号によりレーザ光を放射する。また、スキャナには反射体としてのポリゴンミラーが、モータによって回転駆動可能に設けられている。制御IC6bからの駆動信号がモータ駆動回路に入力されると、モータ駆動回路がそのモータを駆動することにより、ポリゴンミラーを回転させる。このモータの回転位置は、モータ回転位置センサによって検出され、制御IC6bに出力される。   The laser radar unit 6 includes a laser radar 6a and a control IC 6b. The laser radar unit 6 corresponds to a distance measuring sensor. The laser radar 6a includes a light emitting unit, a light receiving unit, and the like. The light emitting unit includes a laser diode that emits pulsed laser light via a scanner and a light emitting lens. The laser diode is connected to the control IC 6b via a laser diode drive circuit, and emits laser light by a drive signal from the control IC 6b. The scanner is provided with a polygon mirror as a reflector so that it can be driven to rotate by a motor. When the drive signal from the control IC 6b is input to the motor drive circuit, the motor drive circuit drives the motor to rotate the polygon mirror. The rotational position of the motor is detected by a motor rotational position sensor and output to the control IC 6b.

ポリゴンミラーは、回転軸回りの側面に6個の反射面が形成されている。また、ポリゴンミラーにおける各反射面はそれぞれ異なる面倒れ角を有するように形成されている。このため、ポリゴンミラーを所定速度で回転させつつ、レーザダイオードからレーザ光を間欠的に放射させることにより、水平方向及び高さ方向それぞれの所定角度の範囲にレーザ光を掃引照射(つまり、スキャン)することが可能になる。   The polygon mirror has six reflecting surfaces formed on the side surfaces around the rotation axis. In addition, each reflecting surface in the polygon mirror is formed to have a different surface tilt angle. For this reason, the laser light is intermittently emitted from the laser diode while rotating the polygon mirror at a predetermined speed, so that the laser light is swept in a predetermined angle range in the horizontal direction and the height direction (that is, scanning). It becomes possible to do.

受光部は、物体に反射されたレーザ光(つまり、反射光)を受光する受光レンズを有し、この受光レンズは、受光した反射光を受光素子に与える。受光素子は、反射光の強度に対応する電圧を出力する。この受光素子の出力電圧は、増幅器にて増幅された後にコンパレータに出力される。コンパレータは増幅器の出力電圧を基準電圧と比較し、出力電圧が基準電圧より大きくなったとき、所定の受光信号を時間計測回路へ出力する。   The light receiving unit includes a light receiving lens that receives laser light (that is, reflected light) reflected by the object, and this light receiving lens gives the received reflected light to the light receiving element. The light receiving element outputs a voltage corresponding to the intensity of the reflected light. The output voltage of the light receiving element is amplified by an amplifier and then output to a comparator. The comparator compares the output voltage of the amplifier with the reference voltage, and outputs a predetermined light reception signal to the time measuring circuit when the output voltage becomes larger than the reference voltage.

時間計測回路には、制御IC6bからレーザダイオード駆動回路へ出力される駆動信号も入力されている。この時間計測回路は、駆動信号を出力してから受光信号が発生するまでの時間、すなわちレーザ光を出射した時刻と反射光を受光した時刻との時間差を2進デジタル信号に符号化する。そして、この2進デジタル信号が、計測時間データとして制御IC6bに入力される。   A drive signal output from the control IC 6b to the laser diode drive circuit is also input to the time measurement circuit. This time measuring circuit encodes the time from when the drive signal is output until the light receiving signal is generated, that is, the time difference between the time when the laser light is emitted and the time when the reflected light is received into a binary digital signal. The binary digital signal is input to the control IC 6b as measurement time data.

本実施形態では、例えば発光部は、レーザ光を実際に照射する角度範囲(以下、照射エリア)において、0.08degのビームステップ角でレーザ光を照射する。この場合、照射エリア内の水平方向及び高さ方向の全てを0.08degのビームステップ角で照射する1周期を1スキャンとする。   In the present embodiment, for example, the light emitting unit irradiates the laser beam with a beam step angle of 0.08 deg in an angle range (hereinafter referred to as an irradiation area) where the laser beam is actually irradiated. In this case, one cycle in which all of the horizontal direction and the height direction in the irradiation area are irradiated with a beam step angle of 0.08 deg is defined as one scan.

発光部が、実際にレーザ光を照射する際には、上述した照射エリア内を2次元的にレーザ光がスキャンするように、制御IC6bから発光部に駆動信号が出力される。このような2次元的なスキャンにより、反射光を受光した場合には、その反射光が得られたレーザ光の照射角度θが一義的に定まる。   When the light emitting unit actually irradiates the laser beam, a drive signal is output from the control IC 6b to the light emitting unit so that the laser beam is scanned two-dimensionally within the irradiation area described above. When the reflected light is received by such a two-dimensional scan, the irradiation angle θ of the laser beam from which the reflected light is obtained is uniquely determined.

制御IC6bは、時間計測回路からレーザ光の出射時刻と反射光の受光時刻との時間差が入力されるごとに、その時間差に基づいてレーザレーダ6aから物体上の反射点までの距離dを逐次算出する。これにより、自車周辺に障害物が存在する場合には、自車のレーザレーダ6aの設置位置から、障害物における高さ方向及び水平方向に複数並んだ各反射点までの距離をそれぞれ検出することになる。よって、物体上の反射点が請求項の計測点に相当し、距離dが請求項の計測点距離に相当する。   Each time the time difference between the laser light emission time and the reflected light reception time is input from the time measurement circuit, the control IC 6b sequentially calculates the distance d from the laser radar 6a to the reflection point on the object based on the time difference. To do. Thereby, when an obstacle exists around the own vehicle, the distance from the installation position of the laser radar 6a of the own vehicle to each of the reflection points arranged in the height direction and the horizontal direction on the obstacle is detected. It will be. Therefore, the reflection point on the object corresponds to the measurement point in the claims, and the distance d corresponds to the measurement point distance in the claims.

そして、制御IC6bは、距離dと、反射光が得られたレーザ光の照射角度θとの極座標系のデータを、測定結果として運転支援ECU1に送る。一例として、制御IC6bは、照射エリア内を1スキャンして得られた測定結果を、1スキャン分の測定結果として運転支援ECU1に送る。   Then, the control IC 6b sends polar coordinate system data of the distance d and the irradiation angle θ of the laser beam from which the reflected light is obtained to the driving support ECU 1 as a measurement result. As an example, the control IC 6b sends a measurement result obtained by performing one scan in the irradiation area to the driving support ECU 1 as a measurement result for one scan.

本実施形態では、レーザレーダユニット6は、自車前部、自車左側部、自車後部、自車右側部に設置されて、各々が自車前方所定角範囲、自車左側方所定角範囲、自車後方所定角範囲、自車右側方所定角範囲の障害物を検出する場合を例に挙げて説明を行う。   In this embodiment, the laser radar unit 6 is installed in the front part of the own vehicle, the left part of the own vehicle, the rear part of the own vehicle, and the right side part of the own vehicle. The case where an obstacle within a predetermined angular range behind the host vehicle and a predetermined angular range on the right side of the host vehicle is detected will be described as an example.

ディスプレイ7は、運転支援ECU1から出力される画像を表示する。このディスプレイ7が請求項の表示装置に相当する。例えばディスプレイ7は、フルカラー表示が可能なものであり、液晶ディスプレイ等を用いて構成することができる。   The display 7 displays an image output from the driving support ECU 1. This display 7 corresponds to the display device of the claims. For example, the display 7 is capable of full color display and can be configured using a liquid crystal display or the like.

運転支援ECU1は、主にマイクロコンピュータとして構成され、いずれも周知のCPU、ROMやRAM等のメモリ、I/O、及びこれらを接続するバスによって構成される。運転支援ECU1は、シフトポジションセンサ2、舵角センサ3、車速センサ4、カメラ5、レーザレーダユニット6から入力された各種情報に基づき、各種処理を実行する。この運転支援ECU1が、請求項の運転支援装置に相当する。   The driving assistance ECU 1 is mainly configured as a microcomputer, and each includes a known CPU, a memory such as a ROM and a RAM, an I / O, and a bus connecting them. The driving assistance ECU 1 executes various processes based on various information input from the shift position sensor 2, the steering angle sensor 3, the vehicle speed sensor 4, the camera 5, and the laser radar unit 6. This driving support ECU 1 corresponds to the driving support device of the claims.

なお、運転支援ECU1が実行する機能の一部又は全部を、一つ或いは複数のIC等によりハードウェア的に構成してもよい。また、運転支援ECU1は必ずしも一つのECUからなる構成に限らず、複数のECUからなる構成としてもよい。   Note that some or all of the functions executed by the driving support ECU 1 may be configured in hardware by one or a plurality of ICs. Further, the driving support ECU 1 is not necessarily limited to a configuration including one ECU, and may be configured to include a plurality of ECUs.

<運転支援ECU1の詳細構成>
図1に示すように、運転支援ECU1は、車両移動情報取得部11、画像記憶部12、画像処理部13、過去画像補間処理部14、測定結果取得部15、障害物形状特定部16、自車形状記憶部17、最短部位間距離特定部18、及び表示処理部19を備えている。
<Detailed Configuration of Driving Assist ECU 1>
As shown in FIG. 1, the driving assistance ECU 1 includes a vehicle movement information acquisition unit 11, an image storage unit 12, an image processing unit 13, a past image interpolation processing unit 14, a measurement result acquisition unit 15, an obstacle shape specifying unit 16, A vehicle shape storage unit 17, a shortest part distance specifying unit 18, and a display processing unit 19 are provided.

車両移動情報取得部11は、シフトポジションセンサ2で検出した自車のシフトポジションや、舵角センサ3で検出した自車の操舵角や、車速センサ4で検出した自車の車速といった、自車の移動の状態を特定できる車両移動情報を取得する。   The vehicle movement information acquisition unit 11 includes the own vehicle shift position detected by the shift position sensor 2, the own vehicle steering angle detected by the steering angle sensor 3, and the own vehicle speed detected by the vehicle speed sensor 4. Vehicle movement information that can identify the state of movement of the vehicle is acquired.

本実施形態では、一例として、車両移動情報取得部11で取得する車両移動情報のうちの自車の車速が所定値以下である場合にカメラ5及びレーザレーダユニット6が作動する一方、自車の車速が所定値以下でない場合にカメラ5及びレーザレーダユニット6が作動しない構成とする。ここで言うところの所定値とは、駐車時に自車を減速させる程度の車速であって、任意に設定可能な値である。   In the present embodiment, as an example, the camera 5 and the laser radar unit 6 operate when the vehicle speed of the vehicle in the vehicle movement information acquired by the vehicle movement information acquisition unit 11 is equal to or lower than a predetermined value. The camera 5 and the laser radar unit 6 are configured not to operate when the vehicle speed is not less than the predetermined value. The predetermined value mentioned here is a vehicle speed at which the host vehicle is decelerated during parking, and is a value that can be arbitrarily set.

画像記憶部12は、カメラ5から入力される、カメラ5で撮像した自車周辺の撮像画像を記憶する。本実施形態の例では、前方カメラ、後方カメラ、左側方カメラ、及び右側方カメラで撮像した直近の撮像画像が画像記憶部12に記憶される。画像記憶部12には、前方カメラ、後方カメラ、左側方カメラ、及び右側方カメラの直近の撮像画像を記憶しておくだけでなく、後述の画像処理部13で得られる鳥瞰画像を例えば過去数回分記憶しておく。画像記憶部12に記憶しておく過去数回分の鳥瞰画像を以降では履歴画像と呼ぶ。   The image storage unit 12 stores a captured image around the host vehicle that is input from the camera 5 and captured by the camera 5. In the example of the present embodiment, the latest captured image captured by the front camera, the rear camera, the left side camera, and the right side camera is stored in the image storage unit 12. The image storage unit 12 not only stores the latest captured images of the front camera, the rear camera, the left side camera, and the right side camera, but also stores, for example, past number of bird's-eye images obtained by the image processing unit 13 described later. Remember the batch. The past several bird's-eye images stored in the image storage unit 12 are hereinafter referred to as history images.

画像処理部13は、前方カメラ、後方カメラ、左側方カメラ、及び右側方カメラの各撮像画像を、周知の座標変換式を用いることにより、路地上面を鉛直方向に見下ろした鳥瞰画像へと変換する鳥瞰変換を行って鳥瞰画像を得る。なお、画像処理部13において、撮像画像にレンズ歪み補正などの必要な画像処理を施してから、鳥瞰変換を行う構成としてもよい。   The image processing unit 13 converts each captured image of the front camera, the rear camera, the left camera, and the right camera into a bird's-eye image in which the upper surface of the alley is looked down in a vertical direction by using a known coordinate conversion formula. A bird's-eye view image is obtained by performing bird's-eye conversion. Note that the image processing unit 13 may perform a bird's eye conversion after performing necessary image processing such as lens distortion correction on the captured image.

そして、画像処理部13は、前方カメラ、後方カメラ、左側方カメラ、及び右側方カメラの各撮像画像を鳥瞰変換して得られた鳥瞰画像を、周知の変換式を用いることによって回転移動及び平行移動させ、一つの座標平面上に配置(つまり、一枚の画像とみなせるように鳥瞰画像を配置)し、各鳥瞰画像を合成した合成画像を生成する。   Then, the image processing unit 13 rotates and parallels the bird's-eye view image obtained by performing bird's-eye conversion on the captured images of the front camera, the rear camera, the left side camera, and the right side camera by using a known conversion formula. It is moved, arranged on one coordinate plane (that is, a bird's-eye view image is arranged so that it can be regarded as one image), and a combined image is generated by combining the bird's-eye images.

また、画像処理部13は、上記合成画像を生成する場合に、運転支援ECU1の不揮発性メモリに記憶しておいた自車の画像(例えば自車を表すCGの画像など)を読み出して、自車位置に該当する箇所に配置し、各鳥瞰画像とともに合成する。そして、画像処理部13は、合成した合成画像の描画データを表示処理部19に送る。   Further, when generating the composite image, the image processing unit 13 reads an image of the own vehicle (for example, a CG image representing the own vehicle) stored in the nonvolatile memory of the driving support ECU 1 and reads the own image. It is arranged at the location corresponding to the car position and synthesized with each bird's-eye view image. Then, the image processing unit 13 sends drawing data of the combined image that has been combined to the display processing unit 19.

合成画像中での自車位置は、以下のようにして特定すればよい。まず、自車に対するカメラ5の設置位置及び撮像方向が決まれば、撮像画像中での位置とカメラ5の設置位置との対応関係を特定することができる。よって、本実施形態では、自車に対するカメラ5の設置位置及び撮像方向から合成画像中での位置に対するカメラ5の位置を特定する。そして、自車に対するカメラ5の設置位置から、カメラ5の設置位置に対する自車の位置が特定できるので、特定した合成画像中での位置に対するカメラ5の位置から、合成画像における自車の位置を特定する。   What is necessary is just to specify the own vehicle position in a synthesized image as follows. First, if the installation position and imaging direction of the camera 5 with respect to the own vehicle are determined, the correspondence between the position in the captured image and the installation position of the camera 5 can be specified. Therefore, in this embodiment, the position of the camera 5 with respect to the position in the composite image is specified from the installation position and the imaging direction of the camera 5 with respect to the own vehicle. And since the position of the own vehicle with respect to the installation position of the camera 5 can be specified from the installation position of the camera 5 with respect to the own vehicle, the position of the own vehicle in the composite image is determined from the position of the camera 5 with respect to the position in the specified composite image. Identify.

過去画像補間処理部14は、前方カメラ、後方カメラ、左側方カメラ、右側方カメラなどで自車の周囲を撮像できない状況になった場合には、画像記憶部12から前述の履歴画像を読み出して、画像処理部13での自車の全周囲の鳥瞰画像の合成を可能にする。   The past image interpolation processing unit 14 reads the above-described history image from the image storage unit 12 when the front camera, the rear camera, the left side camera, the right side camera, or the like cannot capture the surroundings of the own vehicle. The image processing unit 13 can synthesize bird's-eye images around the entire vehicle.

過去画像補間処理部14は、車両移動情報取得部11で取得した車両移動情報から特定できる自車の移動の状態に応じて、自車位置に対する履歴画像の配置位置を決定し、決定した配置位置及び履歴画像を画像処理部13に送る。一例として、自車の操舵角及び車速から特定した自車の走行軌跡をもとに、現在の自車位置に対する履歴画像の配置位置を推定することで自車位置に対する履歴画像の配置位置を決定する。   The past image interpolation processing unit 14 determines the arrangement position of the history image with respect to the own vehicle position according to the movement state of the own vehicle that can be specified from the vehicle movement information acquired by the vehicle movement information acquisition unit 11, and the determined arrangement position The history image is sent to the image processing unit 13. As an example, the history image layout position relative to the host vehicle position is determined by estimating the history image layout position relative to the current host vehicle position based on the travel locus of the host vehicle determined from the steering angle and vehicle speed of the host vehicle. To do.

画像処理部13では、過去画像補間処理部14で決定したこの配置位置に従い、過去画像補間処理部14から送られてくる履歴画像を配置して鳥瞰画像を合成することで合成画像を生成する。   The image processing unit 13 generates a composite image by arranging the history images sent from the past image interpolation processing unit 14 and synthesizing the bird's-eye view image according to the arrangement position determined by the past image interpolation processing unit 14.

測定結果取得部15は、レーザレーダユニット6での1スキャン分の測定結果を取得する。この測定結果取得部15が請求項の計測点距離取得部に相当する。レーザレーダユニット6での測定結果は、前述したように、レーザレーダ6aから障害物上の反射点までの距離dと反射光が得られたレーザ光の照射角度θとの極座標系のデータである。このレーザレーダ6aの設置位置が請求項の自車の所定位置に相当する。   The measurement result acquisition unit 15 acquires a measurement result for one scan by the laser radar unit 6. The measurement result acquisition unit 15 corresponds to a measurement point distance acquisition unit in the claims. As described above, the measurement result of the laser radar unit 6 is polar coordinate data of the distance d from the laser radar 6a to the reflection point on the obstacle and the irradiation angle θ of the laser beam from which the reflected light is obtained. . The installation position of the laser radar 6a corresponds to a predetermined position of the own vehicle.

障害物形状特定部16は、測定結果取得部15で取得したレーザレーダユニット6での1スキャン分の測定結果、すなわち、距離dと照射角度θとの極座標系のデータをもとに、障害物の3次元形状(以下、障害物形状)を特定する。この照射角度θが請求項の計測点の方向に相当する。
一例としては、以下のようにして障害物形状を特定する。
The obstacle shape specifying unit 16 is based on the measurement result for one scan by the laser radar unit 6 acquired by the measurement result acquisition unit 15, that is, based on the polar coordinate system data of the distance d and the irradiation angle θ. The three-dimensional shape (hereinafter referred to as an obstacle shape) is specified. This irradiation angle θ corresponds to the direction of the measurement point in the claims.
As an example, the obstacle shape is specified as follows.

まず、障害物形状特定部16は、自車の中心位置に対するレーザレーダ6aの相対位置をもとに、レーザレーダ6aの自車への設置位置を原点とする極座標(d、θ)を、自車の中心位置を原点(0、0、0)とする3次元の直交座標系の座標に変換する。自車の中心位置に対するレーザレーダ6aの相対位置は、運転支援ECU1の不揮発性メモリに記憶されているものを用いる構成とすればよい。障害物形状特定部16は、レーザレーダユニット6での1スキャン分の極座標(d、θ)を3次元の直交座標系の座標に変換した座標の集合を、障害物形状として特定する。   First, the obstacle shape specifying unit 16 determines polar coordinates (d, θ) based on the relative position of the laser radar 6a with respect to the center position of the own vehicle and having the installation position of the laser radar 6a on the own vehicle as an origin. The coordinates are converted into coordinates in a three-dimensional orthogonal coordinate system with the center position of the car as the origin (0, 0, 0). What is necessary is just to use the structure memorize | stored in the non-volatile memory of driving assistance ECU1 as the relative position of the laser radar 6a with respect to the center position of the own vehicle. The obstacle shape specifying unit 16 specifies a set of coordinates obtained by converting polar coordinates (d, θ) for one scan in the laser radar unit 6 into coordinates of a three-dimensional orthogonal coordinate system as an obstacle shape.

レーザレーダユニット6でのスキャンは、高さ方向について0.08degのビームステップ角で行われるので、実際には、障害物形状として、障害物の高さ位置別の水平方向に広がる形状を特定することになる。   Since scanning with the laser radar unit 6 is performed at a beam step angle of 0.08 deg in the height direction, in practice, a shape that spreads in the horizontal direction for each height position of the obstacle is specified as the obstacle shape. It will be.

自車形状記憶部17は、サイドミラーやバンパなどの突出した部分も含む比較的詳細な自車の輪郭を示す自車形状を記憶している。自車形状は、例えば自車中心を原点とした3次元の直交座標系における自車の輪郭を示す座標点の集合で表すものとする。この自車の輪郭を示す座標点の集合の情報が請求項の自車形状情報に相当する。   The host vehicle shape storage unit 17 stores a host vehicle shape indicating a relatively detailed contour of the host vehicle including protruding portions such as side mirrors and bumpers. The vehicle shape is represented by a set of coordinate points indicating the contour of the vehicle in a three-dimensional orthogonal coordinate system with the vehicle center as the origin, for example. Information on a set of coordinate points indicating the contour of the vehicle corresponds to the vehicle shape information in the claims.

最短部位間距離特定部18は、自車形状記憶部17に記憶している自車形状と、障害物形状特定部16で特定した障害物形状とをもとに、自車と障害物との同じ高さ位置にある部位間のうち、お互いの間の距離が最も短くなる部位間の距離(以下、最短部位間距離)を特定する。言い換えると、自車形状記憶部17に記憶している自車の高さ位置別の水平方向に広がる形状と、障害物形状特定部16で特定した障害物の高さ位置別の水平方向に広がる形状とをもとに、最短部位間距離を特定する。   The shortest part-to-part distance specifying unit 18 determines whether the vehicle and the obstacle are based on the vehicle shape stored in the vehicle shape storage unit 17 and the obstacle shape specified by the obstacle shape specifying unit 16. Among the parts at the same height position, the distance between the parts where the distance between them is the shortest (hereinafter, the shortest part distance) is specified. In other words, the shape spreading in the horizontal direction according to the height position of the own vehicle stored in the vehicle shape storage unit 17 and the horizontal direction depending on the height position of the obstacle specified by the obstacle shape specifying unit 16. The distance between the shortest parts is specified based on the shape.

一例としては、自車の中心位置を原点(0、0、0)とする3次元の直交座標系において、高さ別に、自車形状としての各座標点と障害物形状としての各座標点との距離を算出し、算出された距離のうちの最短の距離を最短部位間距離と特定すればよい。   As an example, in a three-dimensional orthogonal coordinate system in which the center position of the vehicle is the origin (0, 0, 0), each coordinate point as the vehicle shape and each coordinate point as the obstacle shape are classified by height. And the shortest distance among the calculated distances may be specified as the shortest inter-site distance.

ここで、図2を用いて最短部位間距離について説明を行う。図2のHVが自車、Obが自車後方の障害物、Aが最短部位間距離、Bが自車と障害物とのそれぞれからお互いに向けて最も突き出している部位同士の距離を示している。障害物Obは、下部に比べ上部が自車側に突き出した形状をしている。最短部位間距離Aは、自車と障害物とのそれぞれからお互いに向けて最も突き出している部位同士の高さがずれている場合には、距離Bよりも大きい値となる、自車と障害物とで実際に接触する可能性のある部位同士の距離である。   Here, the distance between the shortest parts will be described with reference to FIG. In FIG. 2, HV is the own vehicle, Ob is the obstacle behind the own vehicle, A is the distance between the shortest parts, and B is the distance between the parts that protrude most from the own car and the obstacle. Yes. Obstacle Ob has a shape in which the upper part protrudes toward the own vehicle compared to the lower part. The distance A between the shortest parts is larger than the distance B when the heights of the parts that protrude the most from the vehicle and the obstacle are shifted from each other. This is the distance between parts that may actually come into contact with an object.

表示処理部19は、画像処理部13で生成した合成画像をディスプレイ7に表示させる。また、必要に応じて、合成画像の最短部位間距離特定部18で特定した最短部位間距離に応じた位置にマーカを重畳させてディスプレイ7に表示させる。このマーカは、自車が障害物に接近可能な境界を示すものである。表示処理部19での合成画像にマーカを重畳させて表示させる処理の詳細については後述する。   The display processing unit 19 displays the composite image generated by the image processing unit 13 on the display 7. If necessary, a marker is superimposed on the position corresponding to the distance between the shortest parts specified by the shortest part distance specifying unit 18 of the composite image and displayed on the display 7. This marker indicates a boundary where the vehicle can approach the obstacle. Details of processing for displaying the marker superimposed on the composite image in the display processing unit 19 will be described later.

他にも、表示処理部19は、車両移動情報取得部11で取得した車両移動情報をもとに、合成画像に自車の予想軌跡線などといったガイドを重畳させてディスプレイ7に表示させてもよい。一例として、シフトポジションが後退位置である場合には自車の後方に予想軌跡線を表示させたり、シフトポジションが前進位置である場合には自車の前方に予想軌跡線を表示させたりすればよい。予想軌跡線については、自車の操舵角と車速とから予想すればよい。   In addition, based on the vehicle movement information acquired by the vehicle movement information acquisition unit 11, the display processing unit 19 may superimpose a guide such as an expected trajectory line of the own vehicle on the composite image and display it on the display 7. Good. For example, if the shift position is the reverse position, an expected trajectory line is displayed behind the host vehicle, or if the shift position is the forward position, the expected trajectory line is displayed in front of the host vehicle. Good. The predicted trajectory line may be predicted from the steering angle of the host vehicle and the vehicle speed.

<鳥瞰画像表示関連処理>
ここで、運転支援ECU1での鳥瞰画像表示関連処理について図3のフローチャートを用いて説明を行う。鳥瞰画像表示関連処理は、自車周辺の撮像画像を鳥瞰変換した鳥瞰画像をディスプレイ7に表示させる処理に関連する処理である。図3のフローチャートは、一例として、自車のイグニッション電源がオンになったときに開始される。
<Bird view image display related processing>
Here, the bird's-eye image display related processing in the driving support ECU 1 will be described with reference to the flowchart of FIG. The bird's-eye image display related process is a process related to a process of displaying on the display 7 a bird's-eye view image obtained by bird's-eye conversion of a captured image around the host vehicle. As an example, the flowchart of FIG. 3 is started when the ignition power of the host vehicle is turned on.

まず、ステップS1では、車両移動情報取得部11が車両移動情報を取得する。具体的には、車速センサ4で検出した自車の車速を取得する。ステップS2では、S1で取得した自車の車速が所定値以下であった場合(S2でYES)には、ステップS3に移る。一方、自車の車速が所定値以下でなかった場合(S2でNO)には、ステップS9に移る。ステップS3では、画像処理部13が、カメラ5で撮像した自車周辺の撮像画像を鳥瞰変換した鳥瞰画像と自車画像とを合成した合成画像を生成する。   First, in step S1, the vehicle movement information acquisition unit 11 acquires vehicle movement information. Specifically, the vehicle speed detected by the vehicle speed sensor 4 is acquired. In step S2, if the vehicle speed acquired in S1 is equal to or lower than the predetermined value (YES in S2), the process proceeds to step S3. On the other hand, when the vehicle speed of the own vehicle is not less than the predetermined value (NO in S2), the process proceeds to step S9. In step S <b> 3, the image processing unit 13 generates a composite image obtained by combining a bird's-eye image obtained by bird's-eye conversion of a captured image around the host vehicle captured by the camera 5 and the host vehicle image.

ステップS4では、表示処理部19が、測定結果取得部15で取得したレーザレーダユニット6での1スキャン分の測定結果をもとに、自車から所定距離内に障害物があるか否かを判定する。ここで言うところの所定距離は、任意に設定可能な距離であって、例えば数m程度とすればよい。   In step S4, the display processing unit 19 determines whether there is an obstacle within a predetermined distance from the own vehicle based on the measurement result for one scan by the laser radar unit 6 acquired by the measurement result acquisition unit 15. judge. The predetermined distance here is a distance that can be arbitrarily set, and may be about several meters, for example.

一例としては、1スキャン分のレーザレーダ6aから障害物上の反射点までの距離dのうちに、所定距離以下のものが存在する場合は、自車から所定距離内に障害物があると判定し、所定距離以下のものが存在しない場合は、自車から所定距離内に障害物がないと判定する。そして、自車から所定距離内に障害物があると判定した場合(S4でYES)には、ステップS5に移る。一方、自車から所定距離内に障害物がないと判定した場合(S4でNO)には、ステップS8に移る。   As an example, if there is a distance d or less from the laser radar 6a for one scan to the reflection point on the obstacle, it is determined that there is an obstacle within the predetermined distance from the own vehicle. If there is no object below the predetermined distance, it is determined that there is no obstacle within the predetermined distance from the own vehicle. When it is determined that there is an obstacle within a predetermined distance from the own vehicle (YES in S4), the process proceeds to step S5. On the other hand, when it is determined that there is no obstacle within a predetermined distance from the own vehicle (NO in S4), the process proceeds to step S8.

ステップS5では、障害物形状特定部16が、測定結果取得部15で取得したレーザレーダユニット6での1スキャン分の測定結果をもとに、障害物形状を特定する。ステップS6では、S5で特定した障害物形状と、自車形状記憶部17に記憶している自車形状とをもとに、最短部位間距離特定部18が前述の最短部位間距離を特定する。   In step S <b> 5, the obstacle shape identification unit 16 identifies the obstacle shape based on the measurement result for one scan by the laser radar unit 6 acquired by the measurement result acquisition unit 15. In step S6, the shortest part distance specifying unit 18 specifies the shortest part distance described above based on the obstacle shape specified in S5 and the vehicle shape stored in the vehicle shape storage unit 17. .

ステップS7では、表示処理部19が、S3で生成した合成画像のS6で特定した最短部位間距離に応じた位置に、マーカを重畳させてディスプレイ7に表示させる。一例として、合成画像における、自車の部位のうちの障害物が位置する方向に最も突き出た部位(以下、突出部位)から障害物が位置する方向に最短部位間距離だけ離れた位置に、マーカを重畳させてディスプレイ7に表示させる。例えばマーカは、障害物側に向いた自車の面に沿った方向に伸びる直線で示せばよい。自車の面は、例えば、前面、左側面、後面、右側面の4種のいずれかとすればよい。   In step S7, the display processing unit 19 causes the display 7 to display a marker superimposed on the position corresponding to the shortest inter-site distance specified in S6 of the composite image generated in S3. As an example, in the composite image, the marker is located at a position away from the portion that protrudes most in the direction in which the obstacle is located (hereinafter referred to as a protruding portion) by the shortest distance between the portions in the direction in which the obstacle is located. Are superimposed and displayed on the display 7. For example, the marker may be indicated by a straight line extending in a direction along the surface of the own vehicle facing the obstacle. For example, the surface of the host vehicle may be any of the four types of front, left, rear, and right sides.

突出部位は、自車形状記憶部17に記憶している自車形状と、障害物形状特定部16で特定した障害物形状とをもとに特定すればよい。例えば、自車形状としての各座標点と障害物形状としての各座標点とについて、高さ位置が全て同じと仮定した上で、自車形状と障害物形状との座標間の距離が最短となる座標同士を特定する。そして、特定した座標同士のうちの、自車側の座標を突出部位と特定すればよい。また、特定した座標同士のうちの自車側の座標から、特定した座標同士のうちの障害物側の座標に向かう方向を、障害物が位置する方向とすればよい。   What is necessary is just to identify a protrusion site | part based on the own vehicle shape memorize | stored in the own vehicle shape memory | storage part 17, and the obstruction shape specified by the obstruction shape specific | specification part 16. FIG. For example, assuming that the height position is the same for each coordinate point as the vehicle shape and each coordinate point as the obstacle shape, the distance between the coordinates of the vehicle shape and the obstacle shape is the shortest. The coordinates which become are specified. And the coordinate of the own vehicle side among the identified coordinates should just be specified as a protrusion part. Moreover, what is necessary is just to let the direction which goes to the coordinate of the obstruction side of the specified coordinates from the coordinate of the own vehicle side among the specified coordinates to be the direction in which the obstacle is located.

ここで、図4及び図5を用いて、マーカの表示例についての説明を行う。まず、図4を用いてマーカの表示位置についての説明を行う。図4のHVが自車、Obが自車後方の障害物、Prが突出部位、Aが最短部位間距離、MPがマーカの位置を示している。障害物Obは、下部に比べ上部が自車側に突き出した形状をしている。マーカの位置は、突出部位Prから障害物Obが位置する方向に最短部位間距離Aだけ離れた位置MPに相当する合成画像上の位置となる。   Here, a marker display example will be described with reference to FIGS. 4 and 5. First, the display position of the marker will be described with reference to FIG. In FIG. 4, HV represents the own vehicle, Ob represents an obstacle behind the own vehicle, Pr represents the protruding portion, A represents the shortest distance between the portions, and MP represents the marker position. Obstacle Ob has a shape in which the upper part protrudes toward the own vehicle compared to the lower part. The position of the marker is a position on the composite image corresponding to the position MP that is separated from the protruding part Pr by the shortest part distance A in the direction in which the obstacle Ob is located.

続いて、図5を用いて合成画像に重畳されるマーカの表示例について説明を行う。図5のPiが合成画像、HVPが合成画像中の自車画像、ObPが合成画像中の自車後方の障害物の画像、PrPが突出部位の画像、Aが最短部位間距離、Maがマーカを示している。マーカMaは、突出部位Prから障害物Obが位置する方向に最短部位間距離Aだけ離れた位置に表示されるので、実際に自車が接近可能な境界にあたる位置に表示される。   Subsequently, a display example of the marker superimposed on the composite image will be described with reference to FIG. Pi in FIG. 5 is a composite image, HVP is an image of the vehicle in the composite image, ObP is an image of an obstacle behind the vehicle in the composite image, PrP is an image of a protruding part, A is a distance between the shortest parts, and Ma is a marker. Is shown. Since the marker Ma is displayed at a position away from the protruding part Pr by the distance A between the shortest parts in the direction in which the obstacle Ob is located, the marker Ma is displayed at a position corresponding to the boundary where the own vehicle can actually approach.

ステップS8では、表示処理部19が、S3で生成した合成画像をディスプレイ7に表示させる。S8では、S7とは異なり、合成画像にマーカを重畳させないことになる。   In step S8, the display processing unit 19 causes the display 7 to display the composite image generated in S3. In S8, unlike S7, the marker is not superimposed on the composite image.

ステップS9では、鳥瞰画像表示関連処理の終了タイミングである場合(S9でYES)には、鳥瞰画像表示関連処理を終了する。また、鳥瞰画像表示関連処理の終了タイミングでない場合(S9でNO)には、S1に戻って処理を繰り返す。鳥瞰画像表示関連処理の終了タイミングとしては、自車のイグニッション電源がオフになったときなどがある。   In step S9, when it is the end timing of the bird's-eye image display related processing (YES in S9), the bird's-eye image display related processing is ended. If it is not the end timing of the bird's-eye image display related process (NO in S9), the process returns to S1 and the process is repeated. The end timing of the bird's-eye image display related processing includes when the ignition power of the own vehicle is turned off.

<実施形態1のまとめ>
実施形態1の構成によれば、自車と障害物との同じ高さ位置にある部位間の距離が最も短くなる最短部位間距離を特定するので、自車と障害物との間で実際に確保できる距離をより正確に特定することが可能になる。また、実施形態1の構成によれば、鳥瞰画像と自車画像とを合成した合成画像において、自車の部位のうちの障害物が位置する方向に最も突き出た部位から障害物が位置する方向に最短部位間距離だけ離れた位置にマーカを重畳して表示させる。よって、自車と障害物との間で実際に確保できる距離をより正確にユーザに認識させることが可能になる。その結果、鳥瞰画像上ではわかりづらい自車と障害物とのより正確な距離がわかりやすくなる。
<Summary of Embodiment 1>
According to the configuration of the first embodiment, since the distance between the shortest parts where the distance between the parts at the same height position of the own vehicle and the obstacle is the shortest is specified, the distance between the own vehicle and the obstacle is actually It becomes possible to specify the distance that can be secured more accurately. Further, according to the configuration of the first embodiment, in the combined image obtained by combining the bird's-eye view image and the own vehicle image, the direction in which the obstacle is located from the portion of the own vehicle that protrudes most in the direction in which the obstacle is located. A marker is superimposed and displayed at a position separated by a distance between the shortest parts. Therefore, it is possible to make the user recognize the distance that can be actually secured between the vehicle and the obstacle more accurately. As a result, it becomes easier to understand the more accurate distance between the vehicle and the obstacle that is difficult to understand on the bird's-eye view image.

ここで、本発明における作用効果について、具体的に図4〜図7を用いて説明を行う。まず、図6及び図7を用いて、特許文献1に開示されているような従来技術について述べる。   Here, the effect in this invention is demonstrated concretely using FIGS. 4-7. First, the prior art disclosed in Patent Document 1 will be described with reference to FIGS. 6 and 7.

従来技術では、障害物Obの自車HV側に最も突出した外縁にあたる位置MPに相当する合成画像上の位置にマーカMaを表示させる(図6及び図7参照)。しかしながら、障害物Obの外縁よりもさらに障害物Ob側に自車が接近可能な場合、図7に示すように、マーカMaが示す位置は、自車と障害物との間で実際に確保できる距離(つまり、最短部位間距離)よりも短い距離しか確保できないことを表す表示となってしまう。   In the prior art, the marker Ma is displayed at a position on the composite image corresponding to the position MP corresponding to the outer edge of the obstacle Ob that protrudes most toward the vehicle HV side (see FIGS. 6 and 7). However, when the own vehicle can approach the obstacle Ob side further than the outer edge of the obstacle Ob, the position indicated by the marker Ma can be actually secured between the own vehicle and the obstacle as shown in FIG. The display indicates that only a distance shorter than the distance (that is, the shortest distance between the parts) can be secured.

これに対して、実施形態1の構成によれば、図4及び図5に示すように、自車と障害物との間で実際に確保できる距離をより正確に示すマーカを表示させることができ、自車と障害物との間で実際に確保できる距離をより正確にユーザに認識させることが可能になる。   On the other hand, according to the configuration of the first embodiment, as shown in FIGS. 4 and 5, it is possible to display a marker that more accurately indicates the distance that can be actually secured between the vehicle and the obstacle. The distance that can be actually secured between the vehicle and the obstacle can be recognized more accurately by the user.

なお、図4及び図5では、下部に比べ上部が自車側に突き出した形状をしている障害物を対象とした場合の例について説明を行ったが、例えば図8に示す傾斜のように、上部に比べて下部が自車側に突き出した形状をしている障害物を対象とした場合にも適用できる。図8に示した場合でも、マーカの位置は、突出部位Prから障害物Obが位置する方向に最短部位間距離Aだけ離れた位置MPに相当する合成画像上の位置となる。そして、図9に示すように、マーカMaは、突出部位Prから障害物Obが位置する方向に最短部位間距離Aだけ離れた位置に表示されるので、実際に自車が接近可能な境界にあたる位置に表示される。本実施形態では、図9に示すように、マーカMaの位置が合成画像上の障害物の位置に重なる場合には、障害物に重ねてマーカMaを表示させる。   In FIGS. 4 and 5, an example in which an obstacle having a shape in which the upper part protrudes toward the own vehicle compared to the lower part has been described. For example, as shown in FIG. The present invention can also be applied to an obstacle having a shape in which the lower part protrudes toward the own vehicle as compared with the upper part. Even in the case illustrated in FIG. 8, the position of the marker is a position on the composite image corresponding to the position MP that is separated from the protruding part Pr by the shortest part distance A in the direction in which the obstacle Ob is located. As shown in FIG. 9, the marker Ma is displayed at a position away from the protruding part Pr by the distance A between the shortest parts in the direction in which the obstacle Ob is located. Displayed in position. In this embodiment, as shown in FIG. 9, when the position of the marker Ma overlaps the position of the obstacle on the composite image, the marker Ma is displayed over the obstacle.

他にも、図10及び図11に示すように、自車が縦列駐車を行う場合にも適用することができる。なお、図10、11の記号は図5の記号と同様の対象を示している。また、図10、11のSiPは、自車HVのサイドミラーの画像を示している。   In addition, as shown in FIG.10 and FIG.11, it can apply also when the own vehicle performs parallel parking. 10 and 11 indicate the same objects as those in FIG. Moreover, SiP of FIG. 10, 11 has shown the image of the side mirror of the own vehicle HV.

例えば、縦列駐車において、障害物Obとの間で実際に確保できる距離が最も短い自車HVの部位が自車HVの側面である場合は、自車HVの側面から障害物Obが位置する方向に最短部位間距離Aだけ離れた位置にマーカMaが表示される(図10参照)。一方、自車が移動して、障害物Obとの間で実際に確保できる距離が最も短い自車HVの部位が自車HVのサイドミラーとなった場合は、自車HVのサイドミラーから障害物Obが位置する方向に最短部位間距離Aだけ離れた位置にマーカMaが表示されることになる(図11参照)。このように、自車が縦列駐車を行う場合にも、実際に自車が接近可能な境界にあたる位置にマーカMaが表示される。   For example, in parallel parking, when the part of the own vehicle HV that is the shortest distance that can be actually secured with the obstacle Ob is the side surface of the own vehicle HV, the direction in which the obstacle Ob is located from the side surface of the own vehicle HV A marker Ma is displayed at a position separated by a distance A between the shortest parts (see FIG. 10). On the other hand, when the own vehicle HV moves and the part of the own vehicle HV whose distance that can be actually secured with the obstacle Ob is the shortest side mirror of the own vehicle HV, the obstacle from the side mirror of the own vehicle HV The marker Ma is displayed at a position separated by the distance A between the shortest parts in the direction in which the object Ob is located (see FIG. 11). Thus, even when the host vehicle performs parallel parking, the marker Ma is displayed at a position corresponding to the boundary where the host vehicle can actually approach.

また、実施形態1の構成によれば、鳥瞰画像の合成画像を表示させる場合に常にS5及びS6の処理を行うのでなく、S4で自車から所定距離内に障害物がないと判定した場合には、S5及びS6の処理を行わないことになる。よって、鳥瞰画像の合成画像を表示させる場合にも、必要に応じてS5及びS6の処理を行うことになり、運転支援ECU1の処理負荷を軽減することが可能になる。   Further, according to the configuration of the first embodiment, when displaying a composite image of the bird's-eye view image, the processing of S5 and S6 is not always performed, but when it is determined in S4 that there is no obstacle within a predetermined distance from the own vehicle. Will not perform the processing of S5 and S6. Therefore, also when displaying the synthesized image of the bird's-eye view image, the processes of S5 and S6 are performed as necessary, and the processing load on the driving support ECU 1 can be reduced.

(変形例1)
実施形態1では、突出部位から障害物が位置する方向に最短部位間距離離れた位置にマーカを表示させる構成を示したが、必ずしもこれに限らない。例えば、突出部位から最短部位間距離離れた位置よりも自車位置側に所定距離ずれた位置にマーカを表示させる構成(以下、変形例1)としてもよい。ここで言うところの所定距離とは、任意に設定可能な値であって、例えばレーザレーダユニット6での距離の測定誤差程度の値とすればよい。
(Modification 1)
In Embodiment 1, although the structure which displays a marker in the position which left | separated the shortest part distance in the direction where an obstacle is located from the protrusion part was shown, it does not necessarily restrict to this. For example, it is good also as a structure (henceforth modification 1) which displays a marker in the position which shifted | deviated predetermined distance to the own vehicle position side rather than the position which distanced the shortest part distance from the protrusion part. The predetermined distance mentioned here is a value that can be arbitrarily set, for example, a value that is about the measurement error of the distance in the laser radar unit 6.

ここで、図12を用いて、変形例1におけるマーカの表示例についての説明を行う。なお、図12の記号は図5の記号と同様の対象を示している。また、図12のXは、突出部位Prから最短部位間距離Aだけ離れた位置MPよりも自車HV位置側にずれた所定距離を示している。図12に示すように、変形例1では、マーカMaの表示される位置は、突出部位Prから障害物Obが位置する方向に最短部位間距離Aだけ離れた位置MPよりも自車HV位置側に所定距離Xずれた位置となる。   Here, a marker display example in Modification 1 will be described with reference to FIG. In addition, the symbol of FIG. 12 has shown the object similar to the symbol of FIG. Further, X in FIG. 12 indicates a predetermined distance that is shifted to the own vehicle HV position side from the position MP that is separated from the protruding part Pr by the distance A between the shortest parts. As shown in FIG. 12, in the first modification, the position at which the marker Ma is displayed is on the HV position side of the vehicle HV from the position MP that is away from the protruding part Pr by the distance A between the shortest parts in the direction in which the obstacle Ob is located. The position is shifted by a predetermined distance X.

(変形例2)
実施形態1では、自車周辺の障害物における高さ方向及び水平方向に複数並んだ各計測点までの計測点距離をそれぞれ検出する測距センサとして、レーザレーダ6aを用いる構成を示したが、必ずしもこれに限らない。測距センサとして、例えばミリ波レーダや超音波センサなどを用いる構成としてもよいし、ステレオカメラや単眼のカメラ等のカメラを用いる構成としてもよい。
(Modification 2)
In the first embodiment, the configuration in which the laser radar 6a is used as a distance measuring sensor for detecting the measurement point distances to the plurality of measurement points arranged in the height direction and the horizontal direction in the obstacle around the own vehicle has been described. It is not necessarily limited to this. For example, a millimeter wave radar or an ultrasonic sensor may be used as the distance measuring sensor, or a camera such as a stereo camera or a monocular camera may be used.

(変形例3)
実施形態1では、マーカを、障害物側に向いた自車の面に沿った方向に伸びる直線で示す構成を示したが、必ずしもこれに限らない。例えば、自車側に面した障害物の外縁に沿った方向に伸びる直線で示す構成としてもよいし、点や曲線など他の形状を用いて示す構成としてもよい。
(Modification 3)
In Embodiment 1, although the structure which shows a marker with the straight line extended in the direction along the surface of the own vehicle which faced the obstruction side was shown, it does not necessarily restrict to this. For example, a configuration indicated by a straight line extending in a direction along the outer edge of the obstacle facing the own vehicle may be used, or a configuration indicated by using other shapes such as points and curves.

なお、本発明は、上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the technical means disclosed in different embodiments can be appropriately combined. Such embodiments are also included in the technical scope of the present invention.

1 運転支援ECU(運転支援装置)、5 カメラ(撮像装置)、6 レーザレーダユニット(測距センサ)、7 ディスプレイ(表示装置)、13 画像処理部、15 測定結果取得部(計測点距離取得部)、16 障害物形状特定部、17 自車形状記憶部、18 最短部位間距離特定部、19 表示処理部 1 driving assistance ECU (driving assistance device), 5 camera (imaging device), 6 laser radar unit (ranging sensor), 7 display (display device), 13 image processing unit, 15 measurement result obtaining unit (measurement point distance obtaining unit) ), 16 obstacle shape specifying part, 17 own vehicle shape storage part, 18 shortest part distance specifying part, 19 display processing part

Claims (4)

車両で用いられ、
自車の周辺を撮像する撮像装置(5)で撮像された画像を鳥瞰変換する画像処理部(13)と、
前記画像処理部で鳥瞰変換した鳥瞰画像に自車位置を示す自車画像を重畳させて表示装置(7)に表示させる表示処理部(19)とを備える運転支援装置であって、
自車の高さ位置別の水平方向に広がる形状を少なくとも特定できる情報である自車形状情報を記憶している自車形状記憶部(17)と、
自車の所定位置から、自車周辺の障害物における高さ方向及び水平方向に複数並んだ各計測点までの計測点距離をそれぞれ検出する測距センサ(6)で検出した前記計測点距離を取得する計測点距離取得部(15)と、
前記計測点距離取得部で取得した前記計測点距離と前記所定位置に対する前記計測点の方向とをもとに、前記障害物の高さ位置別の水平方向に広がる形状を特定する障害物形状特定部(16)と、
前記自車形状記憶部に記憶している自車形状情報から特定できる自車の高さ位置別の水平方向に広がる形状と、前記障害物形状特定部で特定した前記障害物の高さ位置別の水平方向に広がる形状とをもとに、自車と前記障害物との同じ高さ位置にある部位間の距離が最も短くなる最短部位間距離を特定する最短部位間距離特定部(18)とを備え、
前記表示処理部は、前記鳥瞰画像において、前記自車画像に対して前記障害物が位置する方向の、前記最短部位間距離特定部で特定した前記最短部位間距離に応じた位置にマーカを重畳して表示させることを特徴とする運転支援装置。
Used in vehicles,
An image processing unit (13) that performs bird's-eye conversion on an image captured by an imaging device (5) that captures the periphery of the vehicle;
A driving support device comprising: a display processing unit (19) that superimposes a host vehicle image indicating a vehicle position on a bird's eye image converted by a bird's eye view in the image processing unit and causes the display device (7) to display the superimposed image.
A host vehicle shape storage unit (17) that stores host vehicle shape information that is information that can at least identify a shape that spreads in the horizontal direction according to the height position of the host vehicle;
The measurement point distance detected by the distance measuring sensor (6) for detecting the measurement point distances from a predetermined position of the own vehicle to a plurality of measurement points arranged in the height direction and the horizontal direction in obstacles around the own vehicle. A measurement point distance acquisition unit (15) to acquire;
Obstacle shape specification that specifies a shape that spreads in the horizontal direction according to the height position of the obstacle based on the measurement point distance acquired by the measurement point distance acquisition unit and the direction of the measurement point with respect to the predetermined position Part (16),
The shape spreading in the horizontal direction for each height position of the own vehicle that can be specified from the own vehicle shape information stored in the own vehicle shape storage unit, and the height position of the obstacle specified by the obstacle shape specifying unit The shortest part distance specifying unit (18) for specifying the shortest part distance in which the distance between the parts at the same height position of the own vehicle and the obstacle is the shortest based on the shape extending in the horizontal direction And
The display processing unit superimposes a marker on the bird's-eye view image at a position corresponding to the shortest inter-site distance specified by the shortest inter-site distance specifying unit in a direction in which the obstacle is located with respect to the host vehicle image. A driving support device characterized by being displayed.
請求項1において、
前記表示処理部は、前記鳥瞰画像において、自車にとっての前記障害物が位置する方向に最も突き出た部位から前記障害物が位置する方向に前記最短部位間距離だけ離れた位置に、マーカを表示させることで、前記自車画像に対して前記障害物が位置する方向の、前記最短部位間距離特定部で特定した前記最短部位間距離に応じた位置にマーカを重畳して表示させることを特徴とする運転支援装置。
In claim 1,
In the bird's-eye view image, the display processing unit displays a marker at a position that is the distance between the shortest part in the direction in which the obstacle is located from the part that protrudes most in the direction in which the obstacle is located for the vehicle. By doing so, a marker is superimposed and displayed at a position corresponding to the distance between the shortest parts specified by the shortest part distance specifying unit in the direction in which the obstacle is located with respect to the vehicle image. A driving support device.
請求項1において、
前記表示処理部は、前記鳥瞰画像において、自車にとっての前記障害物が位置する方向に最も突き出た部位から前記障害物が位置する方向に前記最短部位間距離だけ離れた位置よりも自車位置側に所定距離ずれた位置に、マーカを表示させることで、前記自車画像に対して前記障害物が位置する方向の、前記最短部位間距離特定部で特定した前記最短部位間距離に応じた位置にマーカを重畳して表示させることを特徴とする運転支援装置。
In claim 1,
In the bird's-eye view image, the display processing unit is located in the own vehicle position from a position farthest in the direction in which the obstacle is located for the own vehicle in a direction in which the obstacle is located by a distance between the shortest parts. By displaying a marker at a position shifted by a predetermined distance on the side, according to the shortest inter-site distance specified by the shortest inter-site distance specifying unit in the direction in which the obstacle is located with respect to the vehicle image A driving assistance apparatus, characterized in that a marker is displayed superimposed on a position.
請求項1〜3のいずれか1項において、
前記表示処理部は、前記マーカの前記鳥瞰画像上での表示位置が前記鳥瞰画像上の前記障害物に重なる場合に、前記障害物に重ねて前記マーカを表示させることを特徴とする運転支援装置。
In any one of Claims 1-3,
When the display position of the marker on the bird's-eye image overlaps the obstacle on the bird's-eye image, the display processing unit displays the marker so as to overlap the obstacle. .
JP2014180405A 2014-09-04 2014-09-04 Driving assistance device Active JP6287704B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014180405A JP6287704B2 (en) 2014-09-04 2014-09-04 Driving assistance device
PCT/JP2015/004134 WO2016035272A1 (en) 2014-09-04 2015-08-19 Driving assist device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014180405A JP6287704B2 (en) 2014-09-04 2014-09-04 Driving assistance device

Publications (2)

Publication Number Publication Date
JP2016052867A JP2016052867A (en) 2016-04-14
JP6287704B2 true JP6287704B2 (en) 2018-03-07

Family

ID=55439361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014180405A Active JP6287704B2 (en) 2014-09-04 2014-09-04 Driving assistance device

Country Status (2)

Country Link
JP (1) JP6287704B2 (en)
WO (1) WO2016035272A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6595401B2 (en) * 2016-04-26 2019-10-23 株式会社Soken Display control device
JP6501805B2 (en) * 2017-01-04 2019-04-17 株式会社デンソーテン Image processing apparatus and image processing method
JPWO2018146997A1 (en) * 2017-02-07 2019-11-14 日本電気株式会社 Three-dimensional object detection device
CN109624854A (en) * 2018-12-03 2019-04-16 浙江明航智能科技有限公司 A kind of 360 ° of panoramas auxiliary visible system suitable for special vehicle
JP7183800B2 (en) * 2019-01-10 2022-12-06 トヨタ自動車株式会社 Driving support device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4315117B2 (en) * 2004-04-02 2009-08-19 株式会社デンソー Vehicle perimeter monitoring system
JP4730819B2 (en) * 2005-08-05 2011-07-20 アルパイン株式会社 Peripheral status display device and peripheral status display method
JP5057936B2 (en) * 2007-11-09 2012-10-24 アルパイン株式会社 Bird's-eye image generation apparatus and method
JP2012065225A (en) * 2010-09-17 2012-03-29 Panasonic Corp In-vehicle image processing apparatus, periphery monitoring apparatus, and vehicle

Also Published As

Publication number Publication date
WO2016035272A1 (en) 2016-03-10
JP2016052867A (en) 2016-04-14

Similar Documents

Publication Publication Date Title
JP6287704B2 (en) Driving assistance device
JP6019959B2 (en) Object detection device, object detection program, and vehicle
US10935643B2 (en) Sensor calibration method and sensor calibration apparatus
US9151626B1 (en) Vehicle position estimation system
US9863775B2 (en) Vehicle localization system
JP6825569B2 (en) Signal processor, signal processing method, and program
JP6291781B2 (en) Perimeter monitoring device and perimeter monitoring system
US8559674B2 (en) Moving state estimating device
JP2020003236A (en) Distance measurement device, moving body, distance measurement method, and distance measurement system
JP2008026997A (en) Pedestrian recognition device and pedestrian recognition method
CN108061898B (en) Scanning lidar for automated vehicles
JP6471522B2 (en) Camera parameter adjustment device
JP5098563B2 (en) Object detection device
JP7176406B2 (en) image processing method, image processing device, in-vehicle device, moving object, system
JP2013164385A (en) Radar system
US11535243B2 (en) Remote parking system
KR20150051388A (en) Stereo Camera Rectification System
JP4720446B2 (en) Vehicle detection device and vehicle display device using the same
JP6501805B2 (en) Image processing apparatus and image processing method
EP3139346A1 (en) Vision system for a motor vehicle and method of controlling a vision system
JP2016213708A (en) Vehicle display device
JP2018024374A (en) Vehicular projection unit
JP7119444B2 (en) ranging system, ranging method, in-vehicle device, vehicle
JP7047291B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
KR101853652B1 (en) Around view genegation method and apparatus performing the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R151 Written notification of patent or utility model registration

Ref document number: 6287704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250