JP2005216255A - Driving support system - Google Patents

Driving support system Download PDF

Info

Publication number
JP2005216255A
JP2005216255A JP2004025973A JP2004025973A JP2005216255A JP 2005216255 A JP2005216255 A JP 2005216255A JP 2004025973 A JP2004025973 A JP 2004025973A JP 2004025973 A JP2004025973 A JP 2004025973A JP 2005216255 A JP2005216255 A JP 2005216255A
Authority
JP
Japan
Prior art keywords
vehicle
information
driving
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004025973A
Other languages
Japanese (ja)
Other versions
JP4081548B2 (en
Inventor
Susumu Kato
晋 加藤
Sadayuki Tsugawa
定之 津川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2004025973A priority Critical patent/JP4081548B2/en
Publication of JP2005216255A publication Critical patent/JP2005216255A/en
Application granted granted Critical
Publication of JP4081548B2 publication Critical patent/JP4081548B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Abstract

<P>PROBLEM TO BE SOLVED: To allow drivers to immediately grasp the sense of distance between a vehicle and objects around it, to quickly reflect it to the driving operations. <P>SOLUTION: The driving support system, which is a system to support drivers driving, has a photographing means 1 for photographing the surroundings of a vehicle, an image processing means 5 for correcting the distortions and converting the viewpoint for images photographed by the photographing means 1, and a distance measuring means 2 for measuring the distances between a vehicle and objects around it. In addition, the system has a course-predicting means 6 for obtaining predicted courses for a vehicle, based on the driving condition information from each sensor 3 that detects driving situations of the vehicle, and an information superimposing means 7 for superimposing, at least either the distance information acquired by the distance measurement means 2, or the predicted course information, acquired by the course prediction means 6 on an image processed by the image processing means 5. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、ドライバの運転を支援する運転支援システムに関するものである。   The present invention relates to a driving support system that supports driving of a driver.

近年、道路交通の様々な問題解決や効率化のために、ITS(Intelligent Transport Systems:高度道路交通システム)に関する研究が盛んである。その中で、交通事故や渋滞などの本質的な解決に期待されるAVCSS(Advanced Vehicle Control and Safety Systems:先進車両制御安全システム)に関する自動運転や運転支援の研究も盛んに行われている。   In recent years, research on ITS (Intelligent Transport Systems) has been actively conducted in order to solve various problems and improve the efficiency of road traffic. In this context, researches on automatic driving and driving assistance related to AVCSS (Advanced Vehicle Control and Safety Systems), which are expected to be essential solutions for traffic accidents and traffic jams, are also being actively conducted.

ところで、自動車の運転においては、ドライバが運転席から直接見ることができない死角や見ることが困難な部分が存在し、ミラーによって間接的に補うことにも限界がある。また、周囲の交通状況に対しても、見通しの悪い交差点などにおいて、ドライバにとって運転を判断する視覚情報が得にくい状況が生じ、事故誘発の原因ともなっている。   By the way, in driving a car, there are blind spots that the driver cannot see directly from the driver's seat and parts that are difficult to see, and there is a limit to indirectly supplementing with a mirror. In addition, even in the surrounding traffic situation, it is difficult for the driver to obtain visual information for determining driving at an intersection with poor visibility, and this also causes an accident.

そこで、カメラを利用し車内のモニタに車両周辺の映像を映すことによって、ドライバをサポートするシステムが、いくつか開発されている。例えば駐車時などにおける後方視界をサポートするバックモニタ、左折時や縦列時などの側方視界をサポートするサイドビューモニタ、見通しの悪い交差点における視界をサポートするブラインドコーナーモニタがある。また、車両に8台のカメラを設置し、車両上空からの仮想プランビュー画像を提供するAll Around Viewモニタシステムの研究もある(非特許文献1参照)。
紺野、高木:周辺監視システムの開発、自動車技術会春季学術講演会、20035144,No.9-03,pp.13-16(2003)
Thus, several systems have been developed that support drivers by using a camera to display images around the vehicle on a monitor inside the vehicle. For example, there are a back monitor that supports a rear view when parking or the like, a side view monitor that supports a side view such as when turning left or parallel, and a blind corner monitor that supports a view at an intersection with poor visibility. In addition, there is a study of an All Around View monitor system that provides a virtual plan view image from above the vehicle by installing eight cameras on the vehicle (see Non-Patent Document 1).
Sugano and Takagi: Development of the peripheral monitoring system, JSPS Spring Conference, 20003144, No.9-03, pp.13-16 (2003)

また、上記のバックモニタやサイドビューモニタでは、車両周囲の映像を提供するだけでなく、予測進路や車幅等の情報を合成して提供するシステムもある。   In addition, the back monitor and the side view monitor described above not only provide images around the vehicle, but also provide a system that provides information such as a predicted course and a vehicle width by combining them.

しかし、上記従来のドライバをサポートするシステムでは、車両と車両周辺物体とが画像で捕らえられていても、その距離感が分かりにくく、また視点位置が的確でなく、狭隘路、見通しの悪い交差点、駐車時などで即座に運転操作に反映できず、運転支援という面で必ずしも十分なものではなかった。   However, in the conventional system that supports the driver, even if the vehicle and the objects around the vehicle are captured in the image, the sense of distance is difficult to understand, and the viewpoint position is not accurate, narrow road, intersection with poor visibility, It could not be immediately reflected in driving operations when parking, etc., and was not always sufficient in terms of driving assistance.

この発明は上記に鑑み提案されたもので、車両と車両周辺物体との距離感が即座に把握することができ、また視点位置も的確となり、狭隘路、見通しの悪い交差点、駐車時などで直ちに運転操作に反映させることができる運転支援システムを提供することを目的とする。   The present invention has been proposed in view of the above, and it is possible to immediately grasp the distance between the vehicle and the objects around the vehicle, and the position of the viewpoint is also accurate. It aims at providing the driving assistance system which can be reflected in driving operation.

上記目的を達成するために、請求項1に記載の発明は、ドライバの運転を支援する運転支援システムにおいて、車両周辺を撮像する撮像手段と、上記撮像手段からの画像の歪補正および視点変換を行う画像処理手段と、車両と車両周辺物体との間の距離を計測する距離計測手段と、車両の運転状況を検出する各種センサからの運転状況情報および車両現在位置情報に基づいて、車両の予測進路を求める進路予測手段と、上記距離計測手段からの距離情報および進路予測手段からの予測進路情報の少なくとも一方を、画像処理手段からの画像に重畳させる情報重畳手段と、を備えることを特徴としている。   In order to achieve the above object, an invention according to claim 1 is a driving support system for supporting driving of a driver, wherein imaging means for imaging a vehicle periphery, image distortion correction and viewpoint conversion from the imaging means are performed. Vehicle prediction based on driving status information and vehicle current position information from image processing means to be performed, distance measuring means for measuring the distance between the vehicle and objects around the vehicle, and various sensors for detecting the driving status of the vehicle A route predicting unit for obtaining a route, and an information superimposing unit for superimposing at least one of the distance information from the distance measuring unit and the predicted route information from the route predicting unit on an image from the image processing unit. Yes.

また、請求項2に記載の発明は、上記した請求項1に記載の発明の構成に加えて、上記画像処理手段が行う視点変換の視点位置をドライバの操作に応じて選択する視点選択手段を備える、ことを特徴としている。   According to a second aspect of the present invention, in addition to the configuration of the first aspect of the present invention, a viewpoint selecting unit that selects a viewpoint position of viewpoint conversion performed by the image processing unit according to a driver's operation is provided. It is characterized by having.

また、請求項3に記載の発明は、上記した請求項1または2に記載の発明の構成に加えて、上記予測進路情報、および車両と車両周辺物体との間の距離情報に基づいて、ドライバに危険となる状況が発生する否かの判定を行い、危険となる状況が発生する場合は警告を発する警告手段を備える、ことを特徴としている。   In addition to the configuration of the invention described in claim 1 or 2, the invention described in claim 3 is based on the predicted course information and distance information between the vehicle and the vehicle surrounding object. It is characterized in that it comprises a warning means for determining whether or not a dangerous situation occurs and issuing a warning if a dangerous situation occurs.

また、請求項4に記載の発明は、上記した請求項1から3の何れかに記載の発明の構成に加えて、上記各種センサは、少なくとも操舵角センサと速度センサである、ことを特徴としている。   According to a fourth aspect of the present invention, in addition to the configuration of the first aspect of the present invention, the various sensors are at least a steering angle sensor and a speed sensor. Yes.

この発明では、車両周辺の画像の歪補正および視点変換を行った上で、その画像に車両と車両周辺物体との間の距離情報や予測進路情報を重畳させるので、車両と車両周辺物体との距離を即座に把握することができ、また視点位置も的確となり、狭隘路、見通しの悪い交差点、駐車時などで直ちに運転操作に反映させることができる。したがって、ドライバに対してより的確なサポートを行うことができるようになる。   In the present invention, after distortion correction and viewpoint conversion of the image around the vehicle, the distance information between the vehicle and the vehicle surrounding object and the predicted course information are superimposed on the image. The distance can be immediately grasped and the position of the viewpoint can be accurately determined, which can be immediately reflected in the driving operation at a narrow road, an intersection with poor visibility, or at the time of parking. Therefore, more accurate support can be provided to the driver.

以下にこの発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1はこの発明の運転支援システムの構成を示すブロック図である。図において、この発明の運転支援システムは、ドライバの運転を支援するシステムであり、車両周辺を撮像する撮像手段1と、その撮像手段1からの画像の歪補正および視点変換を行う画像処理手段5と、車両と車両周辺物体との間の距離を計測する距離計測手段2と、車両の運転状況を検出する各種センサ3からの運転状況情報に基づいて、車両の予測進路を求める進路予測手段6と、その距離計測手段2からの距離情報および進路予測手段6からの予測進路情報の少なくとも一方を、画像処理手段5からの画像に重畳させる情報重畳手段7と、を備えている。そして、情報重畳手段7はその画像を車両内のモニタ101に映し出し、ドライバに表示する。   FIG. 1 is a block diagram showing the configuration of the driving support system of the present invention. In the figure, a driving support system of the present invention is a system that supports driving of a driver, and includes an image pickup means 1 for picking up an image of the periphery of the vehicle, and an image processing means 5 for correcting distortion of the image from the image pickup means 1 and for viewpoint conversion. And a route measuring means 2 for measuring the distance between the vehicle and the vehicle peripheral object, and a route predicting means 6 for obtaining a predicted course of the vehicle based on driving situation information from various sensors 3 for detecting the driving situation of the vehicle. And information superimposing means 7 for superimposing at least one of the distance information from the distance measuring means 2 and the predicted course information from the course predicting means 6 on the image from the image processing means 5. Then, the information superimposing means 7 projects the image on the monitor 101 in the vehicle and displays it on the driver.

また、画像処理手段5に視点選択手段4が接続され、画像処理手段5が行う視点変換の視点位置をドライバの操作に応じて選択できるようになっている。   Further, the viewpoint selecting unit 4 is connected to the image processing unit 5 so that the viewpoint position of the viewpoint conversion performed by the image processing unit 5 can be selected according to the operation of the driver.

また、警告手段8を備え、情報重畳手段7で得られた予測進路情報、および車両と車両周辺物体との間の距離情報に基づいて、ドライバに危険となる状況が発生する否かの判定を行い、危険となる状況が発生する場合は、スピーカ102や操作指示表示部102を通して警告を発するようにしている。次に、より具体的な構成例を図2および図3を併用して説明する。   Further, a warning means 8 is provided, and it is determined whether or not a dangerous situation occurs for the driver based on the predicted course information obtained by the information superimposing means 7 and the distance information between the vehicle and the vehicle surrounding object. If a dangerous situation occurs, a warning is issued through the speaker 102 or the operation instruction display unit 102. Next, a more specific configuration example will be described with reference to FIGS.

図2はこの発明の運転支援システムの具体的な構成例を示す図、図3は測定装置の車両搭載位置を示す図である。上記の画像処理手段5、進路予測手段6、情報重畳手段7および警告手段8は、例えば本発明に係るソフトウェアに従って動作するCPU(ECU)を中心に構成され、図2の構成例では、ビジュアルナビゲーション用ECU100として図示されている。   FIG. 2 is a diagram showing a specific configuration example of the driving support system of the present invention, and FIG. 3 is a diagram showing a vehicle mounting position of the measuring device. The image processing means 5, the course prediction means 6, the information superimposing means 7 and the warning means 8 are mainly configured by a CPU (ECU) that operates in accordance with the software according to the present invention. In the configuration example of FIG. It is shown as an ECU 100 for use.

また、この図2の構成例では、撮像手段1としてCCDカメラ11が用いられる。   In the configuration example of FIG. 2, a CCD camera 11 is used as the imaging unit 1.

距離計測手段2としては、レーザレンジファインダ(LRF)21が用いられ、必要に応じて超音波センサ22が用いられる。距離計測手段2には、この他にレーザレーダ等が挙げられるが、それぞれに特徴があり、特性やコストの面を考慮して採用し、また、車両速度に応じて使い分けるようにしてもよい。   As the distance measuring means 2, a laser range finder (LRF) 21 is used, and an ultrasonic sensor 22 is used as necessary. In addition to this, the distance measuring means 2 includes a laser radar or the like, but each has its own characteristics, may be adopted in consideration of characteristics and cost, and may be used depending on the vehicle speed.

各種センサ3としては、ここでは操舵角センサ31および速度センサ32が用いられ、必要に応じて車両が回転する速度を検出するヨーセンサ33が用いられる。また、車両位置を検出するGPS34と、地図情報(マップデータ)を併用するようにしてもよい。この地図情報はハードディスク35に格納される。   Here, as the various sensors 3, a steering angle sensor 31 and a speed sensor 32 are used, and a yaw sensor 33 that detects a speed at which the vehicle rotates is used as necessary. Moreover, you may make it use GPS34 which detects a vehicle position, and map information (map data) together. This map information is stored in the hard disk 35.

上記のCCDカメラ11、LRF21、超音波センサ22、操舵角センサ31、速度センサ32、ヨーセンサ33、GPS34、およびハードディスク35は、ビジュアルナビゲーション用ECU100に接続され、インターフェイス(図示省略)を介して検出データや格納データをビジュアルナビゲーション用ECU100に出力する。ビジュアルナビゲーション用ECU100は、そのデータを基に、また視点選択手段4として接続されている画像選択スイッチ41を用いてドライバが選択した視点位置に基づいて、各種演算処理を行い、その処理結果をモニタ101、スピーカ102、操作指示表示部103に出力する。なお、ドライバは画像選択スイッチ41を用いて、ドライバの目の位置からの視点、車両の後方中央の位置から後方を見る視点、車両を上空から見る視点、車両の側方を見る視点等、任意の位置を視点として選択することができる。   The CCD camera 11, the LRF 21, the ultrasonic sensor 22, the steering angle sensor 31, the speed sensor 32, the yaw sensor 33, the GPS 34, and the hard disk 35 are connected to the visual navigation ECU 100 and detected data via an interface (not shown). Or the stored data is output to the ECU 100 for visual navigation. The visual navigation ECU 100 performs various arithmetic processes based on the data and based on the viewpoint position selected by the driver using the image selection switch 41 connected as the viewpoint selecting means 4, and monitors the processing results. 101, the speaker 102, and the operation instruction display unit 103. The driver can use the image selection switch 41 to arbitrarily select a viewpoint from the driver's eye position, a viewpoint from the rear center of the vehicle, a viewpoint from which the vehicle is viewed from above, a viewpoint from which the vehicle is viewed from the side, and the like. Can be selected as the viewpoint.

操作指示表示部103は、最適な操作をドライバに提供するための表示部であり、4つのLED103a,103b,103c,103dから構成されている。ビジュアルナビゲーション用ECU100が、車両の予測進路に対して右方向に操舵する必要があると判定した場合は、LED103aが点灯し、その点灯は、要求操舵角が小さいときはLED103aの内側が点灯し、大きくなるにつれてよりLED103aの外側まで点灯するようになっている。また左方向に操舵する必要があると判定した場合は、LED103bが点灯し、速度を上げる必要があると判定したときはLED103cが点灯し、速度を下げる必要があると判定したときはLED103dが点灯するようになっている。   The operation instruction display unit 103 is a display unit for providing an optimum operation to the driver, and includes four LEDs 103a, 103b, 103c, and 103d. When the visual navigation ECU 100 determines that it is necessary to steer in the right direction with respect to the predicted course of the vehicle, the LED 103a is lit, and when the required steering angle is small, the inside of the LED 103a is lit. As the size increases, the LED 103a lights up to the outside. Further, when it is determined that it is necessary to steer leftward, the LED 103b is lit. When it is determined that the speed needs to be increased, the LED 103c is lit. When it is determined that the speed needs to be decreased, the LED 103d is lit. It is supposed to be.

上記のCCDカメラ11には、水平画角170度の特殊レンズを使用した25万画素の1/3カラーCCDカメラが3台使用され、図3に示すように、車両110の最前部中央1箇所と側部2箇所の合計3箇所に取り付けられている。最前部中央のCCDカメラ11は、高さ約90cm、仰角約45度で設置し、側部の2台のCCDカメラ11,11は、高さ約1.1mでサイドミラーの下部に、ほぼ真下を向けて設置した。   The CCD camera 11 uses three 150,000 color CCD cameras with 250,000 pixels using a special lens with a horizontal angle of view of 170 degrees. As shown in FIG. And it is attached to a total of three places of two side parts. The front center CCD camera 11 is installed at a height of about 90 cm and an elevation angle of about 45 degrees, and the two CCD cameras 11 and 11 at the side are about 1.1 m in height and are almost directly below the side mirror. Was installed.

LRF21には、SICK製LMS221(スキャン角度:180度,分解能:0.5度,距離測定範囲:30m)を使用し、図3に示すように車両110の最前部中央に、計測平面の高さが約50cmの位置になるように設置した。   As the LRF 21, an LCK 221 made by SICK (scan angle: 180 degrees, resolution: 0.5 degrees, distance measurement range: 30 m) is used. As shown in FIG. Was placed at a position of about 50 cm.

また、車両110が走行する道路には、図3に示すように、片側に2mの間隔を置いて配置した3個のカラーコーンB1,B2,B3を、両側に配列し障害物とした。   Further, on the road on which the vehicle 110 travels, as shown in FIG. 3, three color cones B1, B2, and B3 arranged at intervals of 2 m on one side are arranged on both sides to be an obstacle.

上記構成の運転支援システムにおいて、ビジュアルナビゲーション用ECU100は本発明に係る各種演算処理、画像処理を行い、その結果をモニタ101に出力するが、その処理内容について順に説明する。   In the driving support system configured as described above, the visual navigation ECU 100 performs various arithmetic processing and image processing according to the present invention and outputs the results to the monitor 101. The processing contents will be described in order.

先ず運転席から見た車両前方の様子は図4のようであり、この写真からもわかるように、ドライバからは2m先のカラーコーンB1,B1は頭部だけ見えて設置面は見えておらず、死角となっている。また、その手前のカラーコーンB2,B2,B3,B3も当然ドライバには見えない。   First, the front of the vehicle as seen from the driver's seat is as shown in Fig. 4. As can be seen from this photograph, the color cones B1 and B1 ahead of the driver can only see the head, and the installation surface is not visible. , It is a blind spot. Also, the color cones B2, B2, B3, and B3 in front of the driver cannot be seen by the driver.

図5には、3台のCCDカメラ11で撮像した直接の画像を示している。3枚の写真の内、上は前部中央、下左は左側部、下右は右側部のCCDカメラ11による画像である。この段階の写真は超広角レンズとなるため、画像に歪が生じていることがわかる。このままの画像においても、自車両が画像に映りこんでいることから、対象に対する位置関係は、ある程度は把握可能であるが、この画像を見てドライバが瞬時の対応を行うのは、困難である。   FIG. 5 shows direct images captured by the three CCD cameras 11. Among the three photographs, the upper is an image of the front center, the lower left is the left side, and the lower right is an image by the CCD camera 11 on the right side. Since the photograph at this stage is an ultra-wide-angle lens, it can be seen that the image is distorted. Even in the image as it is, since the own vehicle is reflected in the image, the positional relationship with respect to the object can be grasped to some extent, but it is difficult for the driver to respond instantaneously by looking at this image. .

図6には、レンズによる歪を補正した画像を示している。3枚の写真の内、上は前部中央、下左は左側部、下右は右側部のCCDカメラ11による画像である。この画像では、前方画像である程度の距離感がわかり、また、左右の画像では、対象物との方向性が把握可能となっている。   FIG. 6 shows an image in which distortion caused by the lens is corrected. Among the three photographs, the upper is an image of the front center, the lower left is the left side, and the lower right is an image by the CCD camera 11 on the right side. In this image, a sense of distance can be seen in the front image, and in the left and right images, the directionality with the object can be grasped.

図7には、さらに車両上空へ視点を移動した画像を示している。3枚の写真の内、左は前部中央、中央は左側部、右は右側部のCCDカメラ11による画像である。この車両上空の視点選択はドライバが画像選択スイッチ41を用いて行う。補正した画像の領域が狭く、周囲の様子まで示していないが、距離感と方向性が良くわかる画像となっている。   FIG. 7 shows an image in which the viewpoint is further moved over the vehicle. Among the three photographs, the left is the front center, the center is the left side, and the right is the image by the CCD camera 11 on the right side. The viewpoint selection above the vehicle is performed by the driver using the image selection switch 41. Although the area of the corrected image is narrow and the surroundings are not shown, the image has a good sense of distance and directionality.

図8には、LRF21で計測した結果の距離グラフを示す。車両前方の2つのカラーコーンB1,B1の位置がP1,P1として、また車両前方横に置かれた2つのカラーコーンB2,B2の位置がP2,P2として、それぞれ精度良く計測されていることがわかる。   In FIG. 8, the distance graph of the result measured by LRF21 is shown. The positions of the two color cones B1 and B1 in front of the vehicle are measured as P1 and P1, and the positions of the two color cones B2 and B2 placed on the front side of the vehicle are measured as P2 and P2, respectively. Understand.

さらに、図9には、図6の歪補正画像に対し、図8の座標変換を行った測距データと、予測進路(図中、白線の部分)の値を重畳して示している。また、同様に、図10には、図7の上空から見た画像に対して、図8の測距データと予測進路の値を重畳して示している。どちらも対象物の位置関係を瞬時に把握することができる。視点位置はドライバの好みによって選択することができる。   Further, in FIG. 9, the distance measurement data obtained by performing the coordinate conversion of FIG. 8 and the value of the predicted course (the white line portion in the figure) are superimposed on the distortion corrected image of FIG. Similarly, in FIG. 10, the distance measurement data and the predicted course value of FIG. 8 are superimposed on the image viewed from above in FIG. In both cases, the positional relationship of the object can be grasped instantaneously. The viewpoint position can be selected according to the driver's preference.

上記の図6〜図10の画面から分かるように、ドライバに死角や視認困難な部分や、走行障害となる部分の情報が瞬時に把握可能となる。   As can be seen from the screens of FIGS. 6 to 10 described above, it is possible to instantly grasp information on the blind spot, a part that is difficult to visually recognize, and a part that becomes a driving obstacle.

ビジュアルナビゲーション用ECU100は、この予測進路と現在の操舵角、速度に基づいて、また必要に応じてヨーセンサ33、GPS34、ハードディスク35の地図情報も用いて、推奨する操舵や速度を、操作指示表示部103、やスピーカ102、モニタ101等を介してドライバに提示し、車両と障害物との接触等を回避させる。   The visual navigation ECU 100 displays the recommended steering and speed based on the predicted course, the current steering angle, and the speed, and if necessary, the map information of the yaw sensor 33, the GPS 34, and the hard disk 35. 103, the speaker 102, the monitor 101, etc., are presented to the driver to avoid contact between the vehicle and the obstacle.

また、ビジュアルナビゲーション用ECU100は、車両の移動量を予測し、車両が移動後、内輪差、外輪差などで車両周辺物体を巻き込む危険性が生じる場合に対しても,注意喚起を行うことができる。   Moreover, the visual navigation ECU 100 can predict the amount of movement of the vehicle, and can call attention even when there is a risk of involving a vehicle peripheral object due to an inner wheel difference, an outer wheel difference, or the like after the vehicle has moved. .

図11は図2の構成例における処理の流れを示す図である。図に示すように、ビジュアルナビゲーション用ECU100は、複数位置のカメラ画像に対して歪補正を行い、また視点変換(透視変換)を行う。一方、LRFからの測距データに基づいて、近傍障害物のデータの蓄積を行い、また操舵角、速度、ヨーレートの測定データに基づいて、車両の移動量算出、進路推定を行う。そして、近傍障害物のデータおよび推定した進路とに従って、その交差部分の検出を行う。続いて、その視点変換、近傍障害物のデータ、交差部分データ等に基づいて、画像の重畳合成を行い、モニタに表示する。また交差部分データに基づいて、車両が障害物と交差する旨の注意勧告、警告をスピーカを介して行う。さらに、その場合の推奨する操舵、速度を算出し、操作指示表示部やモニタを介してドライバに指示する。   FIG. 11 is a diagram showing a flow of processing in the configuration example of FIG. As shown in the figure, the visual navigation ECU 100 performs distortion correction on camera images at a plurality of positions and performs viewpoint conversion (perspective conversion). On the other hand, on the basis of distance measurement data from the LRF, data on nearby obstacles is accumulated, and on the basis of measurement data on the steering angle, speed, and yaw rate, vehicle movement amount calculation and course estimation are performed. Then, according to the nearby obstacle data and the estimated route, the intersection is detected. Subsequently, based on the viewpoint conversion, nearby obstacle data, intersection data, etc., the images are superimposed and displayed on the monitor. In addition, based on the intersection data, a warning recommendation and warning that the vehicle intersects with an obstacle is performed via a speaker. Further, the recommended steering and speed in that case are calculated, and the driver is instructed via the operation instruction display unit and the monitor.

以上述べたように、この発明では、車両周辺の画像の歪補正および視点変換を行った上で、その画像に車両と車両周辺物体との間の距離情報や予測進路情報を重畳させるので、視点位置が明確となり、車両と車両周辺物体との距離や、ドライバの死角や視認困難な部分、走行障害となる部分を即座に把握することができるようになる。したがって、狭隘路、見通しの悪い交差点、駐車時などで直ちに運転操作に反映させることができ、ドライバに対してより的確なサポートを行うことができるようになる。   As described above, in the present invention, after correcting the distortion of the image around the vehicle and converting the viewpoint, the distance information between the vehicle and the object around the vehicle and the predicted course information are superimposed on the image. The position becomes clear, and it becomes possible to immediately grasp the distance between the vehicle and the object around the vehicle, the blind spot of the driver, the part that is difficult to visually recognize, and the part that becomes a driving obstacle. Therefore, it can be immediately reflected in driving operations at narrow roads, intersections with poor visibility, parking, etc., and more accurate support can be provided to the driver.

また、その場合、推奨する操舵や速度を算出し、ドライバに指示するようにしたので、さらに的確にドライバをサポートすることができるようになる。   In that case, since the recommended steering and speed are calculated and the driver is instructed, the driver can be supported more accurately.

なお、上記の説明では、CCDカメラやLRF等の台数、設置場所等を例示したが、これらの測定装置やセンサの台数や設置場所は限定されることなく、必要に応じて任意に変更することができる。   In the above description, the number of CCD cameras, LRFs, etc., the installation location, etc. have been exemplified, but the number and installation location of these measuring devices and sensors are not limited and may be arbitrarily changed as necessary. Can do.

この発明の運転支援システムの構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance system of this invention. この発明の運転支援システムの具体的な構成例を示す図である。It is a figure which shows the specific structural example of the driving assistance system of this invention. 測定装置の車両搭載位置を示す図である。It is a figure which shows the vehicle mounting position of a measuring apparatus. 運転席から見た車両前方の様子を示す図である。It is a figure which shows the mode of the vehicle front seen from the driver's seat. 3台のCCDカメラで撮像した直接の画像を示す図である。It is a figure which shows the direct image imaged with three CCD cameras. レンズによる歪を補正した画像を示す図である。It is a figure which shows the image which correct | amended the distortion by a lens. 車両上空へ視点を移動した画像を示す図である。It is a figure which shows the image which moved the viewpoint to the vehicle sky. LRFで計測した結果の距離グラフを示す図である。It is a figure which shows the distance graph of the result measured by LRF. 図6の歪補正画像に対し、図8の座標変換を行った測距データと、予測進路の値を重畳して示す図である。It is a figure which superimposes the ranging data which performed the coordinate transformation of FIG. 8, and the value of a prediction course on the distortion correction image of FIG. 図7の上空から見た画像に対して、図8の測距データと予測進路の値を重畳して示す図である。It is a figure which superimposes the ranging data of FIG. 8, and the value of a prediction course with respect to the image seen from the sky of FIG. 図2の構成例における処理の流れを示す図である。It is a figure which shows the flow of the process in the structural example of FIG.

符号の説明Explanation of symbols

1 撮像手段
2 距離計測手段
3 各種センサ
4 視点選択手段
5 画像処理手段
6 進路予測手段
7 情報重畳手段
8 警告手段
11 CCDカメラ
21 レーザレンジファインダ(LRF)
22 超音波センサ
31 操舵角センサ
32 速度センサ
33 ヨーセンサ
35 ハードディスク
41 画像選択スイッチ
100 ビジュアルナビゲーション用ECU
101 モニタ
102 スピーカ
103 操作指示表示部
110 車両
B1,B2,B3 カラーコーン
DESCRIPTION OF SYMBOLS 1 Imaging means 2 Distance measuring means 3 Various sensors 4 Viewpoint selection means 5 Image processing means 6 Course prediction means 7 Information superimposing means 8 Warning means 11 CCD camera 21 Laser range finder (LRF)
22 Ultrasonic sensor 31 Steering angle sensor 32 Speed sensor 33 Yaw sensor 35 Hard disk 41 Image selection switch 100 Visual navigation ECU
101 Monitor 102 Speaker 103 Operation Instruction Display Unit 110 Vehicle B1, B2, B3 Color Cone

Claims (4)

ドライバの運転を支援する運転支援システムにおいて、
車両周辺を撮像する撮像手段と、
上記撮像手段からの画像の歪補正および視点変換を行う画像処理手段と、
車両と車両周辺物体との間の距離を計測する距離計測手段と、
車両の運転状況を検出する各種センサからの運転状況情報に基づいて、車両の予測進路を求める進路予測手段と、
上記距離計測手段からの距離情報および進路予測手段からの予測進路情報の少なくとも一方を、画像処理手段からの画像に重畳させる情報重畳手段と、
を備えることを特徴とする運転支援システム。
In the driving support system that supports the driving of the driver,
Imaging means for imaging the periphery of the vehicle;
Image processing means for performing distortion correction and viewpoint conversion of the image from the imaging means;
Distance measuring means for measuring a distance between the vehicle and an object around the vehicle;
A course prediction means for obtaining a predicted course of the vehicle based on driving situation information from various sensors for detecting the driving situation of the vehicle;
Information superimposing means for superimposing at least one of the distance information from the distance measuring means and the predicted course information from the course predicting means on the image from the image processing means;
A driving support system comprising:
上記画像処理手段が行う視点変換の視点位置をドライバの操作に応じて選択する視点選択手段を備える、請求項1に記載の運転支援システム。   The driving support system according to claim 1, further comprising: a viewpoint selecting unit that selects a viewpoint position of viewpoint conversion performed by the image processing unit according to a driver's operation. 上記予測進路情報、および車両と車両周辺物体との間の距離情報に基づいて、ドライバに危険となる状況が発生する否かの判定を行い、危険となる状況が発生する場合は警告を発する警告手段を備える、請求項1または2に記載の運転支援システム。   Based on the predicted course information and the distance information between the vehicle and surrounding objects, it is determined whether or not a dangerous situation occurs for the driver, and a warning is issued if a dangerous situation occurs. The driving support system according to claim 1, comprising means. 上記各種センサは、少なくとも操舵角センサと速度センサである、請求項1から3の何れかに記載の運転支援システム。
The driving support system according to claim 1, wherein the various sensors are at least a steering angle sensor and a speed sensor.
JP2004025973A 2004-02-02 2004-02-02 Driving support system Expired - Lifetime JP4081548B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004025973A JP4081548B2 (en) 2004-02-02 2004-02-02 Driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004025973A JP4081548B2 (en) 2004-02-02 2004-02-02 Driving support system

Publications (2)

Publication Number Publication Date
JP2005216255A true JP2005216255A (en) 2005-08-11
JP4081548B2 JP4081548B2 (en) 2008-04-30

Family

ID=34908190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004025973A Expired - Lifetime JP4081548B2 (en) 2004-02-02 2004-02-02 Driving support system

Country Status (1)

Country Link
JP (1) JP4081548B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012011849A (en) * 2010-06-30 2012-01-19 Fujitsu Ten Ltd Image display system
WO2012043184A1 (en) * 2010-09-28 2012-04-05 アイシン精機株式会社 Parking assistance device
US8593519B2 (en) 2007-02-06 2013-11-26 Denso Corporation Field watch apparatus
JP2014501401A (en) * 2010-12-15 2014-01-20 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and system for determining vehicle self-motion
EP3109844A1 (en) * 2015-06-23 2016-12-28 Volvo Car Corporation Object detecting arrangement
JP2018041270A (en) * 2016-09-07 2018-03-15 株式会社デンソー Travel information display system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8593519B2 (en) 2007-02-06 2013-11-26 Denso Corporation Field watch apparatus
JP2012011849A (en) * 2010-06-30 2012-01-19 Fujitsu Ten Ltd Image display system
WO2012043184A1 (en) * 2010-09-28 2012-04-05 アイシン精機株式会社 Parking assistance device
JP2014501401A (en) * 2010-12-15 2014-01-20 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and system for determining vehicle self-motion
US9789816B2 (en) 2010-12-15 2017-10-17 Robert Bosch Gmbh Method and system for determining an ego-motion of a vehicle
EP3109844A1 (en) * 2015-06-23 2016-12-28 Volvo Car Corporation Object detecting arrangement
CN106289280A (en) * 2015-06-23 2017-01-04 沃尔沃汽车公司 Object detecting device
US10025995B2 (en) 2015-06-23 2018-07-17 Volvo Car Corporation Object detecting arrangement
CN106289280B (en) * 2015-06-23 2022-03-04 沃尔沃汽车公司 Target detection device
JP2018041270A (en) * 2016-09-07 2018-03-15 株式会社デンソー Travel information display system

Also Published As

Publication number Publication date
JP4081548B2 (en) 2008-04-30

Similar Documents

Publication Publication Date Title
JP4855158B2 (en) Driving assistance device
JP4863791B2 (en) Vehicle peripheral image generation apparatus and image switching method
JP5421072B2 (en) Approaching object detection system
US8461976B2 (en) On-vehicle device and recognition support system
JP6307895B2 (en) Vehicle periphery monitoring device
WO2014027489A1 (en) Driving assistance device
JP4719590B2 (en) In-vehicle peripheral status presentation device
JP4985250B2 (en) Parking assistance device
US8477191B2 (en) On-vehicle image pickup apparatus
KR102045088B1 (en) Image displaying Method and Apparatus therefor
JP2009083764A (en) Driving assisting device, driving assisting method, and computer program
JP2012071635A5 (en)
JP2008222153A (en) Merging support device
JP2008250503A (en) Operation support device
JP2006051850A (en) Drive assisting device and drive assisting method
JP4590962B2 (en) Vehicle periphery monitoring device
JP2008279875A (en) Parking support device
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP2006054662A (en) Drive support device
JP2008059178A (en) Operation support device and program
JP4986070B2 (en) Ambient monitoring device for vehicles
JP4081548B2 (en) Driving support system
JP2013161440A (en) Vehicle surroundings monitoring device
JP2004221871A (en) Device for monitoring periphery of vehicle
JP2011182059A (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350