JP2010238147A - System, method and program for supporting driving - Google Patents
System, method and program for supporting driving Download PDFInfo
- Publication number
- JP2010238147A JP2010238147A JP2009087920A JP2009087920A JP2010238147A JP 2010238147 A JP2010238147 A JP 2010238147A JP 2009087920 A JP2009087920 A JP 2009087920A JP 2009087920 A JP2009087920 A JP 2009087920A JP 2010238147 A JP2010238147 A JP 2010238147A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- blind spot
- display screen
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、運転支援システム、運転支援方法、及び運転支援プログラム、特に車両の車体による運転者の死角に関する画像を車両に搭載された表示装置に表示する運転支援システム、運転支援方法、及び運転支援プログラムに関する。 The present invention relates to a driving support system, a driving support method, and a driving support program, and in particular, a driving support system, a driving support method, and a driving support that display an image related to a driver's blind spot by a vehicle body on a display device mounted on the vehicle. Regarding the program.
従来から、安全運転を支援する運転支援システムとして、車両の車体により運転者の死角となる死角領域を可視化するシステムが開発されている。その1つでは、特許文献1に記載されるように、車載カメラにより撮像された過去の撮像画像から死角領域が切り出され、当該切り出された死角領域の画像と、切り出された死角領域の輪郭を示す線画、つまり車体の形状を示す輪郭線とが、現在の撮像画像に重ね合わせられる。そして、重ね合わせられた画像の表示処理によって、疑似的に可視化された死角領域を含む周辺領域と、これら死角領域と周辺領域との境界線とを示す画像が表示画面に表示される。 2. Description of the Related Art Conventionally, as a driving support system that supports safe driving, a system that visualizes a blind spot area that is a driver's blind spot by a vehicle body has been developed. In one of them, as described in Patent Document 1, a blind spot area is cut out from a past captured image taken by an in-vehicle camera, and an image of the cut blind spot area and an outline of the cut blind spot area are obtained. The line image to be displayed, that is, the contour line indicating the shape of the vehicle body is superimposed on the current captured image. Then, by displaying the superimposed image, an image showing a peripheral area including a blind spot area that is visualized in a pseudo manner and a boundary line between the blind spot area and the peripheral area is displayed on the display screen.
ところで、上記運転支援システムが運転者に見せるべき画像とは、運転者が注意を払うべき画像であって、死角領域及び死角領域に隣接する隣接領域が表示されている画像である。これに対して、例えば、特許文献1に記載されるように、車載カメラの撮像領域とは、車体に対して固定され、従って死角領域を示す画像の表示画面内における位置も固定されることが一般的である。そのため、死角領域を示す画像の位置がこのように表示画面内に固定されると、死角領域に隣接する隣接領域を示す画像の位置も、同じく表示画面内に固定されることとなる。 By the way, the image that the driving support system should show the driver is an image that the driver should pay attention to, and is an image in which a blind spot area and an adjacent area adjacent to the blind spot area are displayed. On the other hand, as described in Patent Document 1, for example, the imaging region of the in-vehicle camera is fixed with respect to the vehicle body, and thus the position in the display screen of the image indicating the blind spot region may be fixed. It is common. Therefore, when the position of the image indicating the blind spot area is fixed in the display screen in this manner, the position of the image indicating the adjacent area adjacent to the blind spot area is also fixed in the display screen.
だが、運転者が注意を払うべき隣接領域とは、そもそも死角領域に対して固定される領域ではなく、むしろ、車両の走行状況に応じて、死角領域に対して変位する領域である。例えば、旋回半径の小さいコーナーで車両が右旋回をするときには、運転者が注意を払うべき隣接領域は、右側フロントピラーによる死角領域のさらに右側、つまり車体に対して右側の領域になる。その一方、旋回半径の大きいコーナーで車両が右旋回をするときには、運転者が注意を払うべき隣接領域が、右側フロントピラーによる死角領域の左側、つまり車体に対して右斜め前方の領域となる。このように、運転者が注意を払うべき隣接領域が、そもそも死角領域に対して変位する領域であるため、上述のようにして死角領域を示す画像の位置が単純に表示画面内に固定されてしまうと、運転者が注意を払うべき隣接領域を示す画像が、表示画面内にてその表示範囲を拡張できないばかりか、その固定された位置によっては表示不能になる虞もある。 However, the adjacent area that the driver should pay attention to is not an area that is fixed relative to the blind spot area in the first place, but rather is an area that is displaced relative to the blind spot area depending on the driving situation of the vehicle. For example, when the vehicle turns to the right at a corner with a small turning radius, the adjacent area that the driver should pay attention to is the area to the right of the blind spot area by the right front pillar, that is, the area to the right of the vehicle body. On the other hand, when the vehicle turns to the right at a corner with a large turning radius, the adjacent area to which the driver should pay attention is the left side of the blind spot area by the right front pillar, that is, the area diagonally to the right of the vehicle body. . As described above, the adjacent area that the driver should pay attention to is the area that is displaced with respect to the blind spot area in the first place. Therefore, the position of the image indicating the blind spot area is simply fixed in the display screen as described above. As a result, the image showing the adjacent area where the driver should pay attention may not be able to expand the display range in the display screen, and may not be displayed depending on the fixed position.
本発明は上記問題点に鑑みてなされたものであり、その目的は、運転者が注意を払うべき領域の画像、即ち、運転者に見せるべき画像を表示することができる運転支援システム、運転支援プログラム、及び運転支援方法を提供することにある。 The present invention has been made in view of the above problems, and an object thereof is a driving support system and a driving support capable of displaying an image of an area where the driver should pay attention, that is, an image to be shown to the driver. It is to provide a program and a driving support method.
上記問題点を解決するために、請求項1に記載の発明は、車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示す
る運転支援システムであって、前記車両の周辺を示す周辺画像を取得する周辺画像取得手段と、前記車両の走行予想軌跡を特定する走行予想軌跡特定手段と、前記走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定する予想通過地点特定手段と、前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定する表示位置特定手段と、前記線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定する画像範囲特定手段と、前記周辺画像から前記範囲の画像を抽出する画像抽出手段と、抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面内における前記表示位置に表示する表示手段とを備えたことを要旨とする。
In order to solve the above-described problem, the invention described in claim 1 displays an image showing a blind spot area that becomes a blind spot of a driver by a vehicle body and an adjacent area adjacent to the blind spot area on a display screen. A driving support system, a peripheral image acquisition unit that acquires a peripheral image showing a periphery of the vehicle, a predicted travel track specifying unit that specifies a predicted travel track of the vehicle, and a predetermined distance based on the predicted travel track In the display screen of the line drawing showing the outline of the vehicle body based on the predicted passing point specifying means for specifying the expected passing point where the vehicle is expected to pass after traveling, and the positional relationship between the blind spot area and the predicted passing point Display position specifying means for specifying a display position in the image, and image range specifying means for specifying a range of an image to be displayed on the display screen with respect to the peripheral image based on the display position of the line drawing An image extracting means for extracting an image of the range from the peripheral image, the extracted image of the range is displayed on the display screen as an image showing the blind spot area and the adjacent area, and the outline line drawing is displayed. The gist of the invention is that it includes display means for displaying at the display position in the display screen.
請求項2に記載の発明は、請求項1に記載の運転支援システムにおいて、前記予想通過地点特定手段が、前記車両の走行する道路の道路情報に基づいて前記所定距離を設定することを要旨とする。
The invention according to
請求項3に記載の発明は、請求項1又は2に記載の運転支援システムにおいて、前記走行予想軌跡取得手段が、予め設定されている前記車両の走行予定経路に基づいて前記走行予想軌跡を特定することを要旨とする。 According to a third aspect of the present invention, in the driving support system according to the first or second aspect, the predicted traveling locus acquisition unit identifies the predicted traveling locus based on a preset planned traveling route of the vehicle. The gist is to do.
請求項4に記載の発明は、車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示する制御手段を用いた運転支援方法であって、前記制御手段が、前記車両の周辺を示す周辺画像を取得し、前記車両の走行予想軌跡を特定して、該走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定し、前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定して、該線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定し、前記周辺画像から前記範囲の画像を抽出して、該抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面における前記表示位置に表示することを要旨とする。 The invention according to claim 4 is a driving support method using a control means for displaying on a display screen an image showing a blind spot area that becomes a driver's blind spot by a vehicle body and an adjacent area adjacent to the blind spot area. Then, the control means acquires a peripheral image showing the periphery of the vehicle, specifies a predicted travel path of the vehicle, and based on the predicted travel path, the vehicle is expected to pass after traveling a predetermined distance. An expected passing point is specified, a display position in the display screen of a line drawing showing the outline of the vehicle body is specified based on the positional relationship between the blind spot area and the predicted passing point, and based on the display position of the line drawing A range of an image to be displayed on the display screen is identified with respect to the peripheral image, an image of the range is extracted from the peripheral image, and the extracted image of the range is adjacent to the blind spot area and the adjacent area Show area And displays on the display screen as an image, is summarized in that to display the line drawing of the contour in the display position on the display screen.
請求項5に記載の発明は、車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示する制御手段を用いた運転支援プログラムであって、前記制御手段を、前記車両の周辺を示す周辺画像を取得する周辺画像取得手段と、前記車両の走行予想軌跡を特定する走行予想軌跡特定手段と、前記走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定する予想通過地点特定手段と、前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定する表示位置特定手段と、前記線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定する画像範囲特定手段と、前記周辺画像から前記範囲の画像を抽出する画像抽出手段と、抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面内における前記表示位置に表示する表示手段として機能させることを要旨とする。
The invention according to
請求項1に記載の運転支援システムによれば、走行予想軌跡に基づく予想通過地点と死角領域との位置関係に基づいて、車体の輪郭を示す線画の表示位置が特定される。そして、特定された表示位置に基づいて、表示画面に表示する画像の範囲が周辺画像から抽出される。車両の周辺を示す周辺画像は、走行する車両の車体に対して移動する画像である。こうした周辺画像の表示画面における移動方向は、車両の周辺に対する死角領域の移動方向に基づいて、推定することが可能である。つまり、周辺画像の表示画面における移動方向は、現在の車両における死角領域と、同車両が通過すると予想される地点、すなわち予
想通過地点との位置関係に基づいて、推定することが可能である。上記のように構成される運転支援システムであれば、それが備える表示位置特定手段によって、車体の輪郭を示す線画の表示位置が、こうした周辺画像の移動方向に基づいて特定されることになる。そして、表示画面に表示する周辺画像の範囲が、このようにして特定された線画の表示位置に基づいて特定されることになる。つまり、表示画面に表示される周辺画像の範囲が、表示画面における画像の移動方向に基づいて変更可能になる。このため、運転者に見せるべき画像を、今後の走行状況にあわせて表示画面内に表示することが可能になる。
According to the driving support system of the first aspect, the display position of the line drawing indicating the outline of the vehicle body is specified based on the positional relationship between the predicted passing point based on the predicted traveling locus and the blind spot area. Then, based on the specified display position, the range of the image to be displayed on the display screen is extracted from the peripheral image. The peripheral image showing the periphery of the vehicle is an image that moves relative to the vehicle body of the traveling vehicle. The moving direction of the peripheral image on the display screen can be estimated based on the moving direction of the blind spot area with respect to the periphery of the vehicle. That is, the moving direction on the display screen of the peripheral image can be estimated based on the positional relationship between the blind spot area of the current vehicle and the point where the vehicle is expected to pass, that is, the predicted passing point. If it is a driving assistance system comprised as mentioned above, the display position of the line drawing which shows the outline of a vehicle body will be specified based on the moving direction of such a peripheral image by the display position specification means with which it is provided. Then, the range of the peripheral image displayed on the display screen is specified based on the display position of the line drawing specified in this way. That is, the range of the peripheral image displayed on the display screen can be changed based on the moving direction of the image on the display screen. For this reason, it is possible to display an image to be shown to the driver in the display screen in accordance with a future driving situation.
請求項2に記載の運転支援システムによれば、車両が走行する道路の道路情報に基づいて、予想通過地点が特定される。車両の走行速度は、一般に、車両が走行する道路の道路情報に応じて大きく異なる。こうした車両の走行速度が大きくなれば、走行予想軌跡に沿って走行する際に運転者の確認すべき地点、即ち、運転者に見せるべき画像に対応する地点までの距離が増加し、反対に、車両の走行速度が小さくなれば、走行予想軌跡に沿って走行する際に運転者に見せるべき地点までの距離が減少することになる。そのため、走行予想軌跡に沿って走行する際、車両の走行速度に応じて変化する運転者に見せるべき地点までの距離から予想通過地点を特定すべきであるが、上記所定距離が一定値となれば、予想通過地点そのものの位置精度が損なわれてしまう。この点、上記のように構成される運転支援システムであれば、予想通過地点を特定するための所定距離がこうした道路情報に基づいて設定されるため、予想通過地点に関する精度が向上し、上述する効果がより確実なものとなる。 According to the driving support system of the second aspect, the expected passing point is specified based on the road information of the road on which the vehicle travels. In general, the traveling speed of a vehicle greatly varies depending on road information of a road on which the vehicle travels. If the traveling speed of such a vehicle increases, the distance to the point to be confirmed by the driver when traveling along the predicted traveling locus, that is, the point corresponding to the image to be displayed to the driver, If the traveling speed of the vehicle decreases, the distance to the point that should be shown to the driver when traveling along the predicted traveling path decreases. Therefore, when traveling along the predicted travel path, the expected passing point should be specified from the distance to the point that should be shown to the driver, which changes according to the traveling speed of the vehicle, but the predetermined distance can be a constant value. In this case, the position accuracy of the predicted passing point itself is impaired. In this regard, in the case of the driving support system configured as described above, since the predetermined distance for specifying the predicted passing point is set based on such road information, the accuracy related to the predicted passing point is improved, as described above. The effect is more certain.
請求項3に記載の運転支援システムによれば、走行予定経路に基づいて走行予想軌跡が特定されることから、走行予想軌跡に関する精度が向上し、上述する効果がより確実なものとなる。 According to the driving support system of the third aspect, since the predicted travel locus is specified based on the planned travel route, the accuracy with respect to the predicted travel track is improved, and the above-described effect is more reliable.
請求項4に記載の運転支援方法によれば、走行予想軌跡に基づく予想通過地点と死角領域との位置関係に基づいて、車体の輪郭を示す線画の表示位置が特定される。そして、特定された表示位置に基づいて、表示画面に表示する画像の範囲が周辺画像から抽出される。車両の周辺を示す周辺画像は、走行する車両の車体に対して移動する画像である。こうした周辺画像の表示画面における移動方向は、車両の周辺に対する死角領域の移動方向に基づいて、推定することが可能である。つまり、周辺画像の表示画面における移動方向は、現在の車両における死角領域と、同車両が通過すると予想される地点、すなわち予想通過地点との位置関係に基づいて、推定することが可能である。上記のような運転支援方法であれば、車体の輪郭を示す線画の表示位置が、こうした周辺画像の移動方向に基づいて特定されることになる。そして、表示画面に表示する周辺画像の範囲が、このようにして特定された線画の表示位置に基づいて特定されることになる。それゆえ、表示画面に表示される周辺画像の範囲が、表示画面における画像の移動方向に基づいて変更可能になる。このため、運転者に見せるべき画像を、今後の走行状況にあわせて表示画面内に表示することが可能になる。 According to the driving support method of the fourth aspect, the display position of the line drawing indicating the contour of the vehicle body is specified based on the positional relationship between the predicted passing point based on the predicted traveling locus and the blind spot area. Then, based on the specified display position, the range of the image to be displayed on the display screen is extracted from the peripheral image. The peripheral image showing the periphery of the vehicle is an image that moves relative to the vehicle body of the traveling vehicle. The moving direction of the peripheral image on the display screen can be estimated based on the moving direction of the blind spot area with respect to the periphery of the vehicle. That is, the moving direction on the display screen of the peripheral image can be estimated based on the positional relationship between the blind spot area of the current vehicle and the point where the vehicle is expected to pass, that is, the predicted passing point. With the driving support method as described above, the display position of the line drawing indicating the outline of the vehicle body is specified based on the moving direction of the peripheral image. Then, the range of the peripheral image displayed on the display screen is specified based on the display position of the line drawing specified in this way. Therefore, the range of the peripheral image displayed on the display screen can be changed based on the moving direction of the image on the display screen. For this reason, it is possible to display an image to be shown to the driver in the display screen in accordance with a future driving situation.
請求項5に記載の運転支援プログラムによれば、走行予想軌跡に基づく予想通過地点と死角領域との位置関係に基づいて、車体の輪郭を示す線画の表示位置が特定される。そして、特定された表示位置に基づいて、表示画面に表示する画像の範囲が周辺画像から抽出される。車両の周辺を示す周辺画像は、走行する車両の車体に対して移動する画像である。こうした周辺画像の表示画面における移動方向は、車両の周辺に対する死角領域の移動方向に基づいて、推定することが可能である。つまり、周辺画像の表示画面における移動方向は、現在の車両における死角領域と、同車両が通過すると予想される地点、すなわち予想通過地点との位置関係に基づいて、推定することが可能である。上記のような運転支援方法であれば、車体の輪郭を示す線画の表示位置が、こうした周辺画像の移動方向に基づいて特定されることになる。そして、表示画面に表示する周辺画像の範囲が、このよう
にして特定された線画の表示位置に基づいて特定されることになる。それゆえ、表示画面に表示される周辺画像の範囲が、表示画面における画像の移動方向に基づいて変更可能になる。このため、運転者に見せるべき画像を、今後の走行状況にあわせて表示画面内に表示することが可能になる。
According to the driving support program of the fifth aspect, the display position of the line drawing indicating the contour of the vehicle body is specified based on the positional relationship between the predicted passing point based on the predicted traveling locus and the blind spot area. Then, based on the specified display position, the range of the image to be displayed on the display screen is extracted from the peripheral image. The peripheral image showing the periphery of the vehicle is an image that moves relative to the vehicle body of the traveling vehicle. The moving direction of the peripheral image on the display screen can be estimated based on the moving direction of the blind spot area with respect to the periphery of the vehicle. That is, the moving direction on the display screen of the peripheral image can be estimated based on the positional relationship between the blind spot area of the current vehicle and the point where the vehicle is expected to pass, that is, the predicted passing point. With the driving support method as described above, the display position of the line drawing indicating the outline of the vehicle body is specified based on the moving direction of the peripheral image. Then, the range of the peripheral image displayed on the display screen is specified based on the display position of the line drawing specified in this way. Therefore, the range of the peripheral image displayed on the display screen can be changed based on the moving direction of the image on the display screen. For this reason, it is possible to display an image to be shown to the driver in the display screen in accordance with a future driving situation.
以下、本発明を具体化した一実施形態を図1〜図11に従って説明する。運転支援システム1は、車両に搭載されるかたちに具現化されており、図1に示されるように、制御手段を構成する運転支援ユニット2、ディスプレイ3、表示手段を構成するピラーモニター4、スピーカ5、周辺画像取得手段を構成する車載カメラ6、第1〜第3位置検出センサ8a〜8c、車速センサ30、及びジャイロ31から構成されている。
Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. A driving support system 1 is embodied in a form mounted on a vehicle. As shown in FIG. 1, a driving
運転支援ユニット2は、走行予想軌跡特定手段及び予想通過地点特定手段を構成するCPU10、RAM11、ROM12、GPS受信部13、車両側I/F部14、地理データ記憶部15、地図描画プロセッサ16、音声プロセッサ18、外部入力I/F部17、センサI/F部19、撮像データ入力部21、及び表示位置特定手段、画像範囲特定手段、及び画像抽出手段を構成する画像処理プロセッサ22から構成されている。
The driving
CPU10は、RAM11の一部を作業領域として、ROM12に格納された運転支援プログラムに従い、各処理の主制御を実行する。CPU10は、GPS衛星からGPS受信部13が受信した、衛星軌道情報及び時刻情報を取得して、電波航法により自車両の絶対位置を算出する。CPU10は、車両に設けられた車速センサ30及びジャイロ31から、車両側I/F部14を介して、車速に関するデータ及び角速度に関するデータを取得する。そして、CPU10は、車速及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて、車両の現在位置を特定する。尚、車両の現在位置を特定する方法は上記に限定されず、例えばGPS受信部13が受信した情報のみから特定してもよいし、GPS受信部13が受信した情報と上述したセンサ以外のセンサとを併用してもよい。
The
地理データ記憶部15は、ハードディスクや光ディスク等の外部記憶媒体から構成されており、目的地までの経路を探索するための経路データRDと、ディスプレイ3に地図画面3aを出力するための各地図描画データMDとを記憶している。
The geographic
経路データRDは、全国を各区域に区画したリージョン毎のデータであって、図2に示されるように、ヘッダRDa、ノードデータRDb、リンクデータRDc、リンクコスト
データRDd、座標データRDeから構成されている。ヘッダRDaは、各経路データRDを管理するためのデータである。ノードデータRDbは、交差点、道路の端点等を示す各ノードの識別データ、隣接するノードの識別データ等から構成されている。リンクデータRDcは、リンク列を構成し、接続ノードを示す各リンクレコード、通行規制を示すデータ等から構成されている。リンクコストデータRDdは、各リンクレコードに対して付与されたリンクID、リンク長、走行レーンの数、平均旅行時間等から構成されたデータ群である。座標データRDeは、各ノードの絶対座標を示すデータである。
The route data RD is data for each region that divides the whole country into areas, and as shown in FIG. 2, is composed of a header RDa, node data RDb, link data RDc, link cost data RDd, and coordinate data RDe. ing. The header RDa is data for managing each route data RD. The node data RDb includes identification data of each node indicating an intersection, a road end point, and the like, identification data of adjacent nodes, and the like. The link data RDc constitutes a link string, and includes link records indicating connection nodes, data indicating traffic restrictions, and the like. The link cost data RDd is a data group composed of a link ID assigned to each link record, a link length, the number of travel lanes, an average travel time, and the like. The coordinate data RDe is data indicating the absolute coordinates of each node.
地図描画データMDは、全国の地図を分割したエリア毎に格納されるデータであり、広域の地図から狭域の地図まで、各階層に分かれるかたちに構成されている。図3に示されるように、各地図描画データMDは、ヘッダMDa、道路データMDb、背景データMDcから構成されている。ヘッダMDaは、それが構成する地図描画データMDの階層、エリア等を示すデータであって、管理目的のデータである。背景データMDcは、道路、市街地、河川等を描画する描画データである。道路データMDbは、道路の形状・種類を示すデータであって、道路属性データMDd、リンク形状データMDe、接続データMDfから構成されている。 The map drawing data MD is data that is stored for each area obtained by dividing a map of the whole country, and is structured in such a manner that it is divided into layers from a wide area map to a narrow area map. As shown in FIG. 3, each map drawing data MD includes a header MDa, road data MDb, and background data MDc. The header MDa is data indicating the hierarchy, area, etc. of the map drawing data MD that it constitutes, and is data for management purposes. The background data MDc is drawing data for drawing roads, urban areas, rivers, and the like. The road data MDb is data indicating the shape and type of the road, and is composed of road attribute data MDd, link shape data MDe, and connection data MDf.
道路属性データMDdは、例えば、有料道路等の高規格道路、一般道路、細街路等を示す道路種別、道路方向、道路幅、車線数、中央分離帯の有無、道路種別に対応付けられた予想走行距離を示すデータである。予想走行距離とは、それが対応付けられた道路種別の道路において、車両の現在位置から前方であって、運転者に見せるべき地点までの距離を示すものであり、当該道路種別の道路上において、自車が通過すると予想される予想通過地点を特定するときに利用される距離である。例えば、高規格道路、一般道路、細街路には、それぞれ予想走行距離として、100m、30m、10mが対応付けられている。 The road attribute data MDd is, for example, a road type indicating a high-standard road such as a toll road, a general road, a narrow street, etc., road direction, road width, number of lanes, presence / absence of a median, and prediction associated with the road type It is data which shows a travel distance. The expected travel distance indicates the distance from the current position of the vehicle to the point that should be shown to the driver on the road type road with which it is associated. This is the distance used when specifying the expected passing point where the vehicle is expected to pass. For example, high-standard roads, ordinary roads, and narrow streets are associated with estimated travel distances of 100 m, 30 m, and 10 m, respectively.
接続データMDfは、各リンクと各ノードの接続状態を示すデータである。リンク形状データMDeは、座標データMDg、形状補間データMDhから構成されている。座標データMDgは、リンク及びノードの座標を示すデータである。形状補間データMDhは、リンク途中に設定され、道路のカーブ形状補間点に関するデータであって、形状補間点の座標、リンクの方位等を示すデータである。 The connection data MDf is data indicating a connection state between each link and each node. The link shape data MDe is composed of coordinate data MDg and shape interpolation data MDh. The coordinate data MDg is data indicating the coordinates of links and nodes. The shape interpolation data MDh is set in the middle of the link and is data relating to the curve shape interpolation point of the road, and is data indicating the coordinates of the shape interpolation point, the direction of the link, and the like.
CPU10は、上述した経路データRDを用い、出発地や現在位置から目的地までの走行予定経路を探索する。CPU10は、車両の現在位置が、カーブ曲率半径が所定値(例えば、200m)以下の右カーブの開始点に接近しているか否か、さらには交差点に接近しているか否かを判断する。例えば、車両の現在位置が右カーブの開始点の所定距離(例えば、300m)手前に到達したか否か、さらには車両の現在位置が交差点の所定距離手前に到達したか否かを判断する。
The
またCPU10は、上述した地図描画データMDと、探索した走行予定経路とを用い、該走行予定経路に沿って自車の中心が通過する軌跡を、走行予想軌跡として特定する。またCPU10は、自車が走行する道路の道路種別に対応付けられた予想走行距離を取得し、取得した予想走行距離と、特定した走行予想軌跡とを用い、当該走行予想軌跡上において、予想走行距離を走行した後に自車が到達すると予想される予想通過地点(運転者に見せるべき画像に対応する地点)を特定する。
Further, the
地図描画プロセッサ16は、CPU10からの制御信号を受け、車両の現在位置周辺の地図を描画するための地図描画データMDを地理データ記憶部15から読出し、地図出力用のデータを生成して、地図出力用データに基づく地図画面3aをディスプレイ3に表示させる。地図描画プロセッサ16は、車両の現在位置を示す自車位置指標3bがこの地図画面3aに重畳する態様にて地図出力用のデータを生成する。外部入力I/F部17は、
ディスプレイ3に隣接された操作スイッチ3c、タッチパネル式のディスプレイ3から、ユーザの入力操作に基づく信号を受け、入力操作に関する操作信号をCPU10に出力する。音声プロセッサ18は、CPU10からの制御信号を受け、図示しない音声ファイルを用い、例えば、目的地までの経路を案内する音声を、スピーカ5に出力させる。
The
A signal based on a user input operation is received from the
センサI/F部19は、第1〜第3位置検出センサ8a〜8cの各々から検出信号を受信する。第1〜第3位置検出センサ8a〜8cは、超音波センサから構成されており、図4に示されるように、フロントシートFに着座した運転者Dを囲うかたちに車室内に取り付けられている。第1位置検出センサ8aは、運転者Dの斜め前方左側から頭部D1までの距離を検出するべく、ルームミラー(図示略)近傍に取り付けられている。第2位置検出センサ8bは、運転者Dの斜め前方右側から頭部D1までの距離を検出するべく、ドアウィンドウW2(図5参照)の上端付近に取り付けられている。第3位置検出センサ8cは、運転者Dの左側から頭部D1までの距離を検出するべく、ルーフRの内側に取り付けられている。各位置検出センサ8a〜8cから発信された超音波は、運転者Dの頭部D1により反射される。各位置検出センサ8a〜8cは、超音波が発信されてから、その反射波を受信するまでの時間を計測し、その計測時間に基づいて、頭部D1までの相対距離を算出する。算出された各相対距離は、センサI/F部19を介してCPU10に出力される。なお、頭部D1までの相対距離は、各位置検出センサ8a〜8cからの信号に基づいて、センサI/F部19が算出する構成であってもよい。
The sensor I /
CPU10は、標準的な体型の運転者Dが運転席に着座した状態にて、同運転者Dの頭部D1が移動し得る頭部移動範囲と、第1〜第3位置検出センサ8a〜8cが検出した各相対距離とに基づき、三角測量等の公知の方法により、運転者Dの頭部D1の位置である頭部中心位置Dcを特定する。
The
撮像データ入力部21は、CPU10からの制御信号を受けて、車両に搭載された車載カメラ6を駆動する。車載カメラ6は、車両の周辺領域における被写体の光学情報を電気信号に変換して出力する装置であって、レンズ、ミラー等から構成される光学機構、CCD撮像素子、自動焦点機構等から構成されている。車載カメラ6は、図5に示されるように、その光軸を車両Cの前方に向けるかたちに、車両CのルーフRの外側に取り付けられている。また、車載カメラ6は、それの撮像領域Z1が、車両の周辺領域のうちで、車両Cの前方右側と車両Cの右側の一部とを含むように、車両右側に配置された運転席に合わせて、運転席側である右側のピラーP近傍に取り付けられている。
The imaging
そして、撮像データ入力部21は、車載カメラ6を駆動して、撮像領域Z1における被写体の光学情報を、車載カメラ6から撮像データIMとして受信する。また、撮像データ入力部21は、車載カメラ6を駆動して、車載カメラ6の設置位置、角度(パン・チルト・ロール)、及び画角を、車載カメラ6からカメラデータとして受信する。車載カメラ6が生成する撮像データIMは、撮像データ入力部21を介して画像処理プロセッサ22に送信される。
And the imaging
画像処理プロセッサ22は、撮像データ入力部21が受信する撮像データIMを用い、ピラーモニター4の表示画面4aに、車両の周辺領域を示す周辺画像を、シーンに応じた範囲で表示させる。ピラーモニター4は、図6に示されるように、車両Cの右側のピラーPの内面に搭載されて、画像処理プロセッサ22から入力される表示フレームデータに基づいて表示画面4aに画像を表示する。
The
上述するように、シーンに応じた範囲の画像を表示させる際、画像処理プロセッサ22はまず、右側のピラーPにより運転者Dの死角となる死角領域を特定する。また、画像処理プロセッサ22は、撮像データIMを構成する撮像フレームデータFLMごとに、当該
撮像フレームデータFLMに対応した死角領域線画データBDを合成する(図8参照)。そして、画像処理プロセッサ22は、死角領域線画データBDが合成された撮像フレームデータFLMに対して、車載カメラ6のカメラ視点6aを運転者Dの視点に変換する視点変換を施す。なお、死角領域線画データBDとは、合成された撮像フレームデータFLMが視点変換後に示す周辺画像にて、運転者Dの視点から見れば死角領域となる部分の輪郭、つまりピラーPの輪郭4i(図8参照)を示すことになるデータであって、撮像フレームデータFLMと同じく多数の画素データから構成される二値画像データである。
As described above, when displaying an image in a range corresponding to a scene, the
さらに、画像処理プロセッサ22は、上述した予想通過地点と死角領域との位置関係に基づいて、表示画面4aにおける上記ピラーPの輪郭4iの表示位置を特定する。また、画像処理プロセッサ22は、ピラーPの輪郭4iが上記表示位置に表示されるように、上記視点変換後の撮像フレームデータFLMから、表示画面4aに表示させるデータを切り出す。そして、画像処理プロセッサ22は、このようにして切り出されたデータをピラーモニター4に出力し、ピラーPの輪郭4iが特定された表示位置にて表示される態様、つまりシーンに応じた範囲の周辺画像が表示される態様にて、ピラーモニター4に画像を表示させる。
Furthermore, the
上述する画像処理プロセッサ22の処理の態様、つまり(a)ピラーPによる死角領域を特定し、死角領域線画データBDと撮像フレームデータFLMとの合成データに視点変換を施す、死角領域特定処理の態様と、(b)表示画面におけるピラーPの輪郭4iの表示位置を特定し、視点変換後の合成データから表示フレームデータを切り出す、表示位置特定処理の態様とについて、以下に詳述する。
Aspects of the processing of the
(a)死角領域特定処理
例えば、カーブ曲率が所定値の右カープの開始点や交差点に車両Cが接近することにより、運転支援システム1の起動条件が満たされると、画像処理プロセッサ22は、CPU10からの制御信号を受けて、ピラーPの位置及びその三次元形状を示すピラーデータPDをROM12から読み出すとともに、第1〜第3位置検出センサ8a〜8cの検出結果である運転者Dの頭部中心位置Dcを取得する。そして、画像処理プロセッサ22は、頭部中心位置Dcを投影中心として、ピラーPが投影される領域を死角領域Zdに特定する。例えば、図7に示されるように、画像処理プロセッサ22は、ピラーPの各端点P1,P2を通る線L1,L2を算出し、これらの線L1,L2にて挟まれる領域を死角領域Zdに特定する。
(A) Blind spot area specifying process For example, when the vehicle C approaches the start point or intersection of a right carp having a predetermined curve curvature, the
このようにして死角領域Zdが特定されると、画像処理プロセッサ22は、次いで、視点変換用の基準点Pcを特定する。例えば、図7に示されるように、画像処理プロセッサ22は、ピラーモニター4の表示画面4aの中心と頭部中心位置Dcとを結ぶ直線上において、頭部中心位置Dcから所定の距離だけ離間した点を、視点変換用の基準点Pcとして特定する。画像処理プロセッサ22は、基準点Pcの座標を特定すると、次いで、基準点Pcと頭部中心位置Dcとを用いて、仮想投影面VPの位置を決定する。このようにして決定される仮想投影面VPとは、車載カメラ6によって撮像された画像が仮想的に投影される平面である。例えば、画像処理プロセッサ22は、基準点Pcを含んで、かつ、頭部中心位置Dcと基準点Pcとを結ぶ中心線Laに対して垂直な平面を、仮想投影面VPとして決定する。
When the blind spot area Zd is specified in this way, the
このようにして仮想投影面VPが決定されると、画像処理プロセッサ22は、次いで、撮像データ入力部21を介してカメラデータを取得し、車載カメラ6の設置位置、角度、及び画角に基づいて、上記仮想投影面VPの位置に応じた撮像面CPを決定する。撮像面CPとは、車載カメラ6の光軸AXに対して垂直な平面であって、車載カメラ6の焦点位置が面内に設定される平面であり、仮想投影面VPよりも、車両Cに近い位置に設定され
る平面である。画像処理プロセッサ22は、撮像面CPを決定すると、車載カメラ6の焦点が撮像面CP上になる態様にて、複数の撮像フレームデータFLMから構成される撮像データIMを、撮像データ入力部21を介して、同車載カメラ6に取得させる。
When the virtual projection plane VP is determined in this way, the
また、画像処理プロセッサ22は、上記死角領域Zd、仮想投影面VP、撮像面CP、及びカメラ視点6aを用い、カメラ視点6aから仮想投影面VPに投影された投影像が死角領域Zdの輪郭、すなわちピラーPの輪郭4iとなるかたちの線画を、撮像面CP上に特定する。例えば、図7に示されるように、画像処理プロセッサ22は、仮想投影面VPにおける死角領域Zdの輪郭(例えば、左端点VP1及び右端点VP2)とカメラ視点6aとを結んだ複数の直線を特定し、これら複数の直線と撮像面CPとの交点(例えば、交点Lf3,Lf4)を特定する。そして、画像処理プロセッサ22は、撮像フレームデータFLMが撮像面CP上に示す画像と、上記撮像面CP上の交点との関係から、例えば、図8に示されるように、撮像フレームデータFLMを構成する多数の画素のうちで、上記撮像面CP上の交点に対応する画素群を示すデータを、死角領域線画データBDとして生成する。そして、画像処理プロセッサ22は、撮像データIMを構成する撮像フレームデータFLMごとに、当該撮像フレームデータFLMに対応した死角領域線画データBDを合成する。続いて、画像処理プロセッサ22は、撮像面CP上の画像を仮想投影平面上に投影した画像が表示画面4aに表示されるべく、撮像面CP上の画像を構成する各画素を、仮想投影平面上の画像を構成する各画素に変換する処理を行う。つまり、車載カメラ6のカメラ視点6aを運転者Dの視点に変換する視点変換を、上記死角領域線画データBDが合成された撮像フレームデータに対して施す。
Further, the
(b)表示位置特定処理
画像処理プロセッサ22は、上述のようにして死角領域特定処理を実行すると、次いで、CPU10により演算される予想通過地点をRAM11から読み出し、当該予想通過地点が死角領域Zdの右側であるか否かを判断する。そして、画像処理プロセッサ22は、その判断結果に基づいて、表示画面4aにおけるピラーPの輪郭4iの表示位置を特定する。つまり、画像処理プロセッサ22は、こうした予想通過地点と死角領域Zdとの位置関係に基づいて、上記視点変換後の撮像フレームデータFLMから切り出す表示フレームデータの切り出し範囲(表示画面に表示する画像の範囲)を特定する。なお、表示フレームデータの切り出し範囲は、予想通過地点と死角領域Zdとの位置関係に対応付けられるかたちにて、画像処理プロセッサ22が記憶している。
(B) Display position specifying process After executing the blind spot area specifying process as described above, the
例えば、走行予定経路が、図9における左側の太線にて示され、走行する道路の道路種別から特定された予想通過地点が、図9における左側通過地点PLであるとき、画像処理プロセッサ22は、当該予想通過地点が死角領域Zdの右側でないと判断する。そして、画像処理プロセッサ22は、この判断結果に基づいて、ピラーPの輪郭4iが表示画面4aの右側に偏倚するように、図10(b)の太線にて示されるように、撮像フレームデータFLMから、左側用の表示フレームデータDPLを切り出す。画像処理プロセッサ22は、所定の演算周期にて、こうした表示フレームデータDPLの切り出しを撮像フレームデータFLMごとに実行し、所定のフレームレートにて、当該表示フレームデータDPLを表示画面4aに出力する。
For example, when the planned travel route is indicated by a thick line on the left side in FIG. 9 and the predicted passing point specified from the road type of the road to be traveled is the left passing point PL in FIG. It is determined that the predicted passing point is not on the right side of the blind spot area Zd. Then, based on the determination result, the
この際、こうした走行予定経路を走行する車両において、運転者Dに見せるべき画像は、運転者Dが注意を払うべき画像であって、死角領域Zd、及び死角領域に隣接する隣接領域を示す画像、つまり車両Cの前方右側を示す画像である。この点、左側用の表示フレームデータDPLに基づいて表示される画像であれば、ピラーPの輪郭4i、つまり死角領域Zdが表示画面4aの右側に偏倚することになり、車両Cの前方右側の画像が表示画面4aの略全体に表示されることになる。それゆえ、左側用の表示フレームデータDPLに基づく表示処理がなされることにより、運転者Dには、当該運転者Dに見せるべきシー
ンに応じた画像が、表示画面4aにおいて広い範囲にわたり提供されることになる。
At this time, in a vehicle traveling on such a planned travel route, an image to be shown to the driver D is an image that the driver D should pay attention to, and an image showing a blind spot area Zd and an adjacent area adjacent to the blind spot area. That is, it is an image showing the front right side of the vehicle C. In this regard, if the image is displayed based on the display frame data DPL for the left side, the outline 4i of the pillar P, that is, the blind spot area Zd, is biased to the right side of the
そのうえ、通過予想地点が死角領域Zdの右側にない間は、表示画面4aに表示される画像が、表示フレームデータの切り出し範囲に拘わらず、表示画面4aの左側から右側へ移動する(図10(b)における矢印方向を参照)。ピラーPの輪郭4iが仮に表示画面4aの左側に偏倚して表示されると(図10(a)参照)、運転者Dに見せるべき隣接領域を示す画像が、表示画面4aにおける狭い範囲で移動することとなり、運転者Dに見せるべき時間も短くなってしまう。この点、上記左側用の表示フレームデータDPLに基づいて表示画面4aに表示される画像であれば、運転者Dに見せるべき隣接領域の画像が、表示画面4aにおける広い範囲で移動することになり、今後の走行状況にあわせた画像は当然のこと、それの時間的な前後における画像をも、長い時間にわたり表示されることになる。それゆえ、左側用の表示フレームデータDPLに基づく表示処理がなされることにより、運転者Dには、当該運転者Dに見せるべきシーンに応じた画像が、長い時間にわたり提供されることになる。
In addition, while the predicted passing point is not on the right side of the blind spot area Zd, the image displayed on the
一方、走行予定経路が図9における右側の太線にて示され、走行する道路の道路種別から特定された予想通過地点が、図9における右側通過地点PRであるとき、画像処理プロセッサ22は、この判断結果に基づいて、ピラーPの輪郭4iが表示画面4aの左側に偏倚するように、図10(a)の太線にて示されるように、撮像フレームデータFLMから、右側用の表示フレームデータDPRを切り出す。つまり、画像処理プロセッサ22は、撮像フレームデータFLMにおける表示フレームデータの位置を、シーンに応じて切替える。そして、画像処理プロセッサ22は、所定の演算周期にて、こうした表示フレームデータDPRの切り出しを実行し、所定のフレームレートにて、当該表示フレームデータDPRを表示画面4aに出力する。
On the other hand, when the planned travel route is indicated by a bold line on the right side in FIG. 9 and the predicted passing point identified from the road type of the road to be traveled is the right passing point PR in FIG. 9, the
この際、こうした走行予定経路を走行する車両において、運転者Dに見せるべき画像は、運転者Dが注意を払うべき画像であって、死角領域Zd、及び死角領域に隣接する隣接領域を示す画像、つまり車両Cの前方ではなく、むしろ車両Cの右側を示す画像である。つまり、車両が同じ右旋回を行う場合でさえ、運転者Dが注意を払うべき領域は、そのシーンに応じて異なる。この点、右側用の表示フレームデータDPRに基づいて表示される画像であれば、ピラーPの輪郭4i、つまり死角領域Zdが表示画面4aの左側に偏倚することになり、車両Cの右側の画像が表示画面4aの略全体に表示されることになる。それゆえ、右側用の表示フレームデータDPRに基づく表示処理がなされることにより、運転者Dには、当該運転者Dに見せるべきシーンに応じた画像が、表示画面4aにおいて広い範囲にわたり提供されることになる。
At this time, in a vehicle traveling on such a planned travel route, an image to be shown to the driver D is an image that the driver D should pay attention to, and an image showing a blind spot area Zd and an adjacent area adjacent to the blind spot area. That is, it is an image showing the right side of the vehicle C rather than the front of the vehicle C. That is, even when the vehicle makes the same right turn, the area that the driver D should pay attention to differs depending on the scene. In this regard, if the image is displayed based on the display frame data DPR for the right side, the outline 4i of the pillar P, that is, the blind spot area Zd, is biased to the left side of the
そのうえ、通過予想地点が死角領域Zdの右側にある間は、表示画面4aに表示される画像が、表示フレームデータの切り出し範囲に拘わらず、表示画面4aの右側から左側へ移動する(図10(a)における矢印方向を参照)。ピラーPの輪郭4iが仮に表示画面4aの右側に偏倚して表示されると(図10(b)参照)、運転者Dに見せるべき隣接領域を示す画像が、表示画面4aにおける狭い範囲で移動することとなり、運転者Dに見せるべき時間も短くなってしまう。この点、上記右側用の表示フレームデータDPRに基づいて表示画面4aに表示される画像であれば、運転者Dに見せるべき隣接領域の画像が、表示画面4aにおける広い範囲で移動することになり、今後の走行状況にあわせた画像は当然のこと、それの時間的な前後における画像をも、長い時間にわたり表示されることになる。それゆえ、左側用の表示フレームデータDPLに基づく表示処理がなされることにより、運転者Dには、当該運転者Dに見せるべきシーンに応じた画像が長い時間にわたり提供されることになる。
In addition, while the predicted passing point is on the right side of the blind spot area Zd, the image displayed on the
次に、上記運転支援システム1、及び運転支援プログラムを用いる運転支援方法の処理
手順について、図11及び図12に従って説明する。なお、以下に示す運転支援処理は、イグニッションモジュールがオンされた場合に、所定時間毎、例えば100m秒ごとに繰り返し実行され、また、車両の走行する走行予定経路は予め設定されているものとする。
Next, the processing procedure of the driving support method using the driving support system 1 and the driving support program will be described with reference to FIGS. 11 and 12. Note that the driving support process shown below is repeatedly executed every predetermined time, for example, every 100 milliseconds, when the ignition module is turned on, and the travel schedule route on which the vehicle travels is set in advance. .
まずCPU10の演算処理により、運転支援システムの起動条件が満たされているか否かの判定がなされる。運転支援システムの起動条件としては、例えば、カーブ曲率が200R以下の右カーブや交差点等、予め地図描画データMDに設定された起動対象地点に、車両Cが接近していることが挙げられる。
First, a determination is made as to whether or not the activation condition of the driving support system is satisfied by the arithmetic processing of the
まず、GPS受信部13、車速センサ30及びジャイロ31の検出結果を用いるCPU10の演算処理により、車両Cの現在位置が特定される。さらに、予め設定された走行予定経路、起動対象地点、及び車両Cの現在位置を用いるCPU10の演算により、車両Cの現在位置と起動対象地点との間の距離が算出される(ステップS1)。そして、運転支援システムの起動条件が満たされるまで、車両Cの現在位置と起動対象地点との間の距離が算出される(ステップS2においてNO)。そして、起動対象地点に車両Cが接近したと(システムの起動条件が満たされたと)CPU10により判断されると(ステップS2においてYES)、ピラーPにより運転者Dの死角となる死角領域が、画像処理プロセッサ22により特定される(死角領域特定処理:ステップS3)。
First, the current position of the vehicle C is specified by the arithmetic processing of the
詳しくは、各位置検出センサ8a〜8cにより、運転者Dの頭部位置が検出され、各位置検出センサ8a〜8cから頭部D1までの各相対距離を用いるCPU10の演算処理により、頭部中心位置Dcが特定される。頭部中心位置Dcが特定されると、ピラーデータPDがROM12から画像処理プロセッサ22に読み出され、また運転者Dの頭部中心位置DcがRAM11から画像処理プロセッサ22に読み出される。そして、ピラーデータPDと頭部中心位置Dcとを用いる画像処理プロセッサ22の演算処理により、頭部中心位置Dcを投影中心としたピラーPの投影領域が、死角領域Zdとして特定される。
Specifically, the head position of the driver D is detected by the position detection sensors 8a to 8c, and the center of the head is calculated by the arithmetic processing of the
このようにして死角領域Zdが特定されると、上述したように、仮想投影面VP、及び撮像面CPが、画像処理プロセッサ22の演算処理により設定され、車載カメラ6の焦点が撮像面CP上になる態様にて、撮像データIMが車載カメラ6により取得される。次いで、これら死角領域Zd、仮想投影面VP、撮像面CP、及びカメラ視点6aを用いる画像処理プロセッサ22の演算処理により、上記死角領域線画データBDが生成される。さらに、死角領域線画データBDと撮像フレームデータFLMとを用いる画像処理プロセッサ22の演算処理により、撮像フレームデータFLMごとに、当該撮像フレームデータFLMに対応した死角領域線画データBDが合成される。そして、当該合成された撮像フレームデータFLMを用いる画像処理プロセッサ22の演算処理により、同合成された撮像フレームデータFLMに対する視点変換が実行される。
When the blind spot area Zd is specified in this way, as described above, the virtual projection plane VP and the imaging plane CP are set by the arithmetic processing of the
上述のようにして死角領域特定処理が行われると、シーンに応じた表示フレームデータが、画像処理プロセッサ22により生成される(表示位置特定処理:ステップS4)。
詳しくは、車両Cの現在位置、地図描画データMD、及び経路データRDを用いるCPU10の演算処理により、現在、車両Cが走行する道路の道路種別が特定される(ステップS4−1)。次いで、地図描画データMDを用いるCPU10の演算処理により、上記特定された道路種別に対応する走行予定距離が取得される(ステップS4−2)。続いて、予め設定された走行予定経路、及び地図描画データMDを用いるCPU10の演算処理により、走行予定経路に沿って自車の中心位置が通過する軌跡、つまり走行予想軌跡が算出される。さらに、上記算出された走行予想軌跡、取得された走行予定距離、及び車両Cの現在位置を用いるCPU10の演算処理により、その走行予想軌跡に沿って走行予定距離だけ走行したときに車両Cが到達すると予想される地点(運転者に見せるべき画像に対応した地点)、すなわち予想通過地点が特定される(ステップS4−3)。
When the blind spot area specifying process is performed as described above, display frame data corresponding to the scene is generated by the image processor 22 (display position specifying process: step S4).
Specifically, the road type of the road on which the vehicle C currently travels is specified by the arithmetic processing of the
このようにして予想通過地点が特定されると、当該予想通過地点がRAM11から画像処理プロセッサ22に読み出され、予想通過地点と死角領域Zdとを用いる画像処理プロセッサ22の演算処理により、当該予想通過地点が死角領域Zdの右側であるか否かの判断がなされる(ステップS4−4)。そして、予想通過地点が死角領域Zdの右側であると判断されると(ステップS4−5においてYES)、画像処理プロセッサ22の演算処理により、表示画面4aにおけるピラーPの輪郭4iの表示位置が左側に特定される。一方、予想通過地点が死角領域Zdの右側でないと判断されると(ステップS4−5においてNO)、画像処理プロセッサ22の演算処理により、表示画面4aにおけるピラーPの輪郭4iの表示位置が右側に特定される。このようにして表示位置が特定されると、上記合成された撮像フレームデータFLMを用いる画像処理プロセッサ22の演算処理により、表示位置に対応する表示フレームデータが、同撮像フレームデータFLMから切り出される。つまり、予想通過地点が死角領域Zdの右側であると判断されると、撮像フレームデータFLMから右側用の表示フレームデータDPRが切り出される。これに対して、予想通過地点が死角領域Zdの右側でないと判断されると、撮像フレームデータFLMから左側用の表示フレームデータDPLが切り出される。
When the predicted passing point is specified in this way, the predicted passing point is read out from the RAM 11 to the
上述のようにして表示位置特定処理が行われると、画像処理プロセッサ22により、所定のフレームレートにて、表示フレームデータがピラーモニター4に出力される(ステップS5)。これにより、予想通過地点と死角領域との位置関係に基づく範囲の画像、つまり、運転者Dに見せるべきシーンに応じた画像が、表示画面4aの広い範囲にわたり提供されることになる。そのうえ、運転者Dに見せるべきシーンに応じた画像が、長い時間にわたり提供されることになる。
When the display position specifying process is performed as described above, the display frame data is output to the pillar monitor 4 at a predetermined frame rate by the image processor 22 (step S5). As a result, an image of a range based on the positional relationship between the predicted passing point and the blind spot area, that is, an image corresponding to the scene to be shown to the driver D is provided over a wide range of the
運転者Dに見せるべきシーンに応じた画像が表示画面4aに表示されると、経路データRD及び車両Cの現在位置を用いるCPU10の演算処理により、運転支援システムの終了条件が満たされているか否かの判定がなされる。運転支援システムの終了条件としては、例えば、運転支援処理の対象となる交差点を車両Cが通過した後に、さらに20mを走行したこと、あるいは運転支援処理の対象となるカーブにてカーブ曲率が200R以下になった後に、さらに5秒が経過したことなど、が挙げられる。そして、運転支援システムの終了条件が満たされるまで、上述する死角領域特定処理、表示位置特定処理、表示処理、及びシステム終了判定が同順に繰り返され、運転支援システムの終了条件が満たされると、運転支援処理が終了される(ステップS7においてYES)。
When an image corresponding to the scene to be shown to the driver D is displayed on the
以上説明したように、上記実施形態における運転支援システム、運転支援方法、及び運転支援プログラムによれば、以下のような効果を得ることができる。
(1)上記実施形態によれば、走行予想軌跡に基づく予想通過地点と死角領域Zdとの位置関係に基づいて、ピラーPの輪郭4iの表示位置が特定される。そして、特定された表示位置に基づいて、表示画面4aに表示する画像の範囲が周辺画像から切り出される。このため、ピラーPの輪郭4iの表示位置が、表示画面4aにおける画像の移動方向に基づいて特定されることになる。そして、表示画面4aに表示する画像の範囲が、このようにして特定されたピラーPの輪郭4iの表示位置に基づいて特定されることになる。つまり、表示画面4aに表示される画像の範囲が、表示画面4aにおける画像の移動方向に基づいて変更可能になる。このため、運転者Dに見せるべき画像を、今後の走行状況にあわせて表示画面4a内に表示することが可能になる。
As described above, according to the driving support system, the driving support method, and the driving support program in the above embodiment, the following effects can be obtained.
(1) According to the above embodiment, the display position of the outline 4i of the pillar P is specified based on the positional relationship between the predicted passing point based on the predicted travel path and the blind spot area Zd. Then, based on the specified display position, the range of the image to be displayed on the
(2)上記実施形態によれば、車両Cが走行する道路の道路情報に基づいて、予想通過地点が特定される。車両Cの走行速度は、一般に、車両Cが走行する道路の道路情報に応じて大きく異なる。こうした車両Cの走行速度が大きくなれば、走行予想軌跡に沿って走行する際に運転者の確認すべき地点、即ち、運転者に見せるべき地点までの距離である予
想走行距離が増加し、反対に、車両Cの走行速度が小さくなれば、走行予想軌跡に沿って走行する際に運転者に見せるべき地点までの距離である予想走行距離も減少することになる。そのため、走行予想軌跡に沿って走行する際、車両の走行速度に応じて変化する運転者に見せるべき地点までの距離、即ち、予想走行距離から予想通過地点が特定されるため、こうした予想走行距離が一定値となれば、上述する予想走行距離の増減により、予想通過地点そのものの位置精度が損なわれてしまう。この点、上記実施形態であれば、予想通過地点を特定するための予想走行距離がこうした道路情報に基づいて設定されるため、予想通過地点に関する精度が向上し、上述する効果がより確実なものとなる。
(2) According to the above embodiment, the expected passing point is specified based on the road information of the road on which the vehicle C travels. The traveling speed of the vehicle C generally varies greatly depending on the road information of the road on which the vehicle C travels. When the traveling speed of the vehicle C increases, the predicted traveling distance, which is the distance to the point to be confirmed by the driver when traveling along the predicted traveling path, that is, the point to be displayed to the driver, increases. In addition, when the traveling speed of the vehicle C decreases, the predicted traveling distance, which is the distance to the point to be shown to the driver when traveling along the predicted traveling locus, also decreases. Therefore, when traveling along the predicted travel path, the distance to the point to be shown to the driver that changes according to the travel speed of the vehicle, that is, the predicted passing point is specified from the predicted travel distance. If becomes a constant value, the positional accuracy of the predicted passing point itself is impaired due to the increase / decrease in the predicted travel distance described above. In this regard, according to the above embodiment, the predicted travel distance for specifying the predicted passing point is set based on such road information, so the accuracy related to the predicted passing point is improved, and the above-described effect is more certain. It becomes.
(3)上記実施形態では、走行予定経路に基づいて走行予想軌跡が特定されることから、走行予想軌跡に関する精度が向上可能になり、上述する効果がより確実なものとなる。
尚、上記実施形態は以下のように変更して実施することもできる。
(3) In the above embodiment, since the predicted travel locus is specified based on the planned travel route, the accuracy related to the predicted travel track can be improved, and the above-described effects can be further ensured.
In addition, the said embodiment can also be changed and implemented as follows.
・運転支援処理に先立って走行予定経路が設定される構成に限らず、運転支援処理に先立って走行予定経路が設定されない構成であっても、例えば、車両Cの周辺における道路形状や道路種別、さらには車両Cの運転状況等に基づいて、通過予想地点が特定される構成であれば、上記(1)(2)と同様の効果が得られる。 -Not only in the configuration in which the planned travel route is set prior to the driving support processing, but in the configuration in which the planned travel route is not set prior to the driving support processing, for example, the road shape and road type around the vehicle C, Furthermore, the same effects as in the above (1) and (2) can be obtained if the predicted passage point is specified based on the driving situation of the vehicle C and the like.
・通過予想地点の特定に際して、予想走行距離が道路種別毎に特定されるが、こうした構成に限らず、予想走行距離が一定値として扱われる構成であっても、上記(1)と同様の効果が得られ、また予想走行距離の特定処理が割愛される分だけ、運転支援処理に要する演算の負荷が軽減可能にもなる。 -When specifying the predicted passing point, the expected mileage is specified for each road type. However, the present invention is not limited to such a configuration, and the same effect as the above (1) can be achieved even in a configuration in which the predicted mileage is treated as a constant value. In addition, the calculation load required for the driving support process can be reduced as much as the process for specifying the expected travel distance is omitted.
・撮像フレームデータFLMに視点変換を施す構成に限らず、運転者の視点から見た画像がカメラ視点から得られる構成であれば、こうした視点変換が割愛可能にもなる。こうした構成であれ、上記(1)〜(3)と同様の効果が得られ、また視点変換が割愛される分だけ、運転支援処理に要する演算の負荷が軽減可能にもなる。 -Not only the structure which performs viewpoint conversion to imaging frame data FLM but if it is the structure from which the image seen from the driver | operator's viewpoint is obtained from a camera viewpoint, such viewpoint conversion can also be omitted. Even if it is such a structure, the effect similar to said (1)-(3) will be acquired, and it will also become possible to reduce the load of the calculation which a driving assistance process requires as much as viewpoint conversion is omitted.
・死角領域と予想通過地点との位置関係としては、予想通過地点が死角領域の右側であるか否かの関係に限らず、表示画面における画像の移動方向と相関する位置関係であれば、死角領域と予想通過地点との相対的な距離、あるいは相対的な距離及び方向をも適用可能である。 -The positional relationship between the blind spot area and the predicted passing point is not limited to whether the predicted passing point is on the right side of the blind spot area, and if it is a positional relationship that correlates with the moving direction of the image on the display screen, the blind spot. The relative distance between the region and the expected passing point, or the relative distance and direction can also be applied.
1…運転支援システム、2…制御手段を構成する運転支援ユニット、3…ディスプレイ、4…表示手段を構成するピラーモニター、4i…輪郭、5…スピーカ、6…周辺画像取得手段を構成する車載カメラ、8a〜8c…位置検出センサ、10…走行予想軌跡特定手段及び予想通過地点特定手段を構成するCPU、11…RAM、12…ROM、13…GPS受信部、14…車両側I/F部、15…地理データ記憶部、16…地図描画プロセッサ、17…外部入力I/F部、19…センサI/F部、21…撮像データ入力部、22…表示位置特定手段、画像範囲特定手段、及び画像抽出手段を構成する画像処理プロセッサ、30…車速センサ、31…ジャイロ、IM…撮像データ、FLM…撮像フレームデータ、DPL,DPR…表示フレームデータ、RD…経路データ、MD…地図描画データ、D
…運転者、BD…死角領域線画データ、P…ピラー、PL…左側通過地点、PR…右側通過地点。
DESCRIPTION OF SYMBOLS 1 ... Driving assistance system, 2 ... Driving assistance unit which comprises control means, 3 ... Display, 4 ... Pillar monitor which comprises display means, 4i ... Contour, 5 ... Speaker, 6 ... In-vehicle camera which comprises peripheral image acquisition means , 8a to 8c ... position detection sensors, 10 ... a CPU that constitutes a predicted travel locus specifying means and an expected passing point specifying means, 11 ... RAM, 12 ... ROM, 13 ... GPS receiving unit, 14 ... vehicle side I / F unit, DESCRIPTION OF
... driver, BD ... blind spot area line drawing data, P ... pillar, PL ... left passage point, PR ... right passage point.
Claims (5)
前記車両の周辺を示す周辺画像を取得する周辺画像取得手段と、
前記車両の走行予想軌跡を特定する走行予想軌跡特定手段と、
前記走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定する予想通過地点特定手段と、
前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定する表示位置特定手段と、
前記線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定する画像範囲特定手段と、
前記周辺画像から前記範囲の画像を抽出する画像抽出手段と、
抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面内における前記表示位置に表示する表示手段と、
を備えたことを特徴とする運転支援システム。 A driving support system that displays on a display screen an image showing a blind spot area that is a blind spot of a driver by a vehicle body and an adjacent area adjacent to the blind spot area,
Peripheral image acquisition means for acquiring a peripheral image indicating the periphery of the vehicle;
A predicted travel trajectory specifying means for specifying a predicted travel trajectory of the vehicle;
Based on the predicted travel trajectory, an expected passing point specifying means for specifying an expected passing point where the vehicle is expected to pass after traveling a predetermined distance;
Display position specifying means for specifying a display position in the display screen of a line drawing showing an outline of the vehicle body based on a positional relationship between the blind spot area and the predicted passing point;
Image range specifying means for specifying a range of an image to be displayed on the display screen with respect to the peripheral image based on the display position of the line drawing;
Image extracting means for extracting the image of the range from the peripheral image;
Displaying the extracted image of the range on the display screen as an image showing the blind spot area and the adjacent area, and displaying the outline line drawing at the display position in the display screen;
A driving support system characterized by comprising:
前記車両の走行する道路の道路情報に基づいて前記所定距離を設定する
ことを特徴とする請求項1に記載の運転支援システム。 The expected passing point specifying means is:
The driving support system according to claim 1, wherein the predetermined distance is set based on road information of a road on which the vehicle travels.
予め設定されている前記車両の走行予定経路に基づいて前記走行予想軌跡を特定する
ことを特徴とする請求項1又は2に記載の運転支援システム。 The predicted travel locus specifying means includes
The driving support system according to claim 1 or 2, wherein the predicted travel locus is specified based on a preset travel route of the vehicle.
前記制御手段が、
前記車両の周辺を示す周辺画像を取得し、
前記車両の走行予想軌跡を特定して、該走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定し、
前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定して、該線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定し、
前記周辺画像から前記範囲の画像を抽出して、該抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面における前記表示位置に表示する
ことを特徴とする運転支援方法。 A driving support method using a control means for displaying on a display screen an image showing a blind spot area that is a blind spot of a driver by a vehicle body and an adjacent area adjacent to the blind spot area,
The control means is
Obtaining a peripheral image showing the periphery of the vehicle;
Identifying the predicted travel trajectory of the vehicle, based on the predicted travel trajectory, identifying an expected passing point where the vehicle is expected to pass after traveling a predetermined distance,
Based on the positional relationship between the blind spot area and the predicted passing point, the display position of the line drawing showing the outline of the vehicle body is specified in the display screen, and the line drawing is displayed on the display screen based on the display position of the line drawing. A range of images to be identified relative to the surrounding image,
The image of the range is extracted from the peripheral image, and the extracted image of the range is displayed on the display screen as an image showing the blind spot area and the adjacent area, and the line drawing of the outline is also displayed. A driving support method, comprising: displaying at the display position on a screen.
前記制御手段を、
前記車両の周辺を示す周辺画像を取得する周辺画像取得手段と、
前記車両の走行予想軌跡を特定する走行予想軌跡特定手段と、
前記走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定する予想通過地点特定手段と、
前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定する表示位置特定手段と、
前記線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に
対して特定する画像範囲特定手段と、
前記周辺画像から前記範囲の画像を抽出する画像抽出手段と、
抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面内における前記表示位置に表示する表示手段として機能させる
ことを特徴とする運転支援プログラム。 A driving support program using a control means for displaying on a display screen an image showing a blind spot area that is a blind spot of a driver by a vehicle body and an adjacent area adjacent to the blind spot area,
The control means;
Peripheral image acquisition means for acquiring a peripheral image indicating the periphery of the vehicle;
A predicted travel trajectory specifying means for specifying a predicted travel trajectory of the vehicle;
Based on the predicted travel trajectory, an expected passing point specifying means for specifying an expected passing point where the vehicle is expected to pass after traveling a predetermined distance;
Display position specifying means for specifying a display position in the display screen of a line drawing showing an outline of the vehicle body based on a positional relationship between the blind spot area and the predicted passing point;
Image range specifying means for specifying a range of an image to be displayed on the display screen with respect to the peripheral image based on the display position of the line drawing;
Image extracting means for extracting the image of the range from the peripheral image;
The extracted image of the range is displayed on the display screen as an image showing the blind spot area and the adjacent area, and the outline line drawing is displayed as the display means on the display position in the display screen. A driving assistance program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009087920A JP2010238147A (en) | 2009-03-31 | 2009-03-31 | System, method and program for supporting driving |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009087920A JP2010238147A (en) | 2009-03-31 | 2009-03-31 | System, method and program for supporting driving |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010238147A true JP2010238147A (en) | 2010-10-21 |
Family
ID=43092378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009087920A Pending JP2010238147A (en) | 2009-03-31 | 2009-03-31 | System, method and program for supporting driving |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010238147A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020059454A (en) * | 2018-10-12 | 2020-04-16 | 本田技研工業株式会社 | Rearward visual recognition device |
CN112585958A (en) * | 2018-08-31 | 2021-03-30 | 大众汽车股份公司 | Method and device for generating a map of the surroundings of a vehicle textured with image information, and vehicle comprising such a device |
-
2009
- 2009-03-31 JP JP2009087920A patent/JP2010238147A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112585958A (en) * | 2018-08-31 | 2021-03-30 | 大众汽车股份公司 | Method and device for generating a map of the surroundings of a vehicle textured with image information, and vehicle comprising such a device |
JP2020059454A (en) * | 2018-10-12 | 2020-04-16 | 本田技研工業株式会社 | Rearward visual recognition device |
JP7022044B2 (en) | 2018-10-12 | 2022-02-17 | 本田技研工業株式会社 | Rear view device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4561479B2 (en) | Parking support method and parking support device | |
EP1961613B1 (en) | Driving support method and driving support device | |
US11511627B2 (en) | Display device and computer program | |
JP4862774B2 (en) | Driving support method and driving support device | |
JP4613881B2 (en) | Parking guidance device | |
JP5482167B2 (en) | Vehicle travel guidance device, vehicle travel guidance method, and computer program | |
JP5569365B2 (en) | Guide device, guide method, and guide program | |
US20200269759A1 (en) | Superimposed-image display device and computer program | |
WO2012043184A1 (en) | Parking assistance device | |
JP4696691B2 (en) | Parking support method and parking support device | |
JP2012071635A5 (en) | ||
JP5136500B2 (en) | Driving support device, driving support method, and driving support program | |
JP4848893B2 (en) | Intersection information providing system and driving support system | |
JP4483305B2 (en) | Vehicle periphery monitoring device | |
JP2007094045A (en) | Navigation apparatus, navigation method and vehicle | |
JP2009211624A (en) | Driving support device, driving support method, and computer program | |
JP2020147059A (en) | Parking support device and parking support method | |
JP2008236711A (en) | Driving support method and driving support device | |
JP4797849B2 (en) | Driving support image display system and in-vehicle device | |
JP2005326956A (en) | Device and method for informing empty space in parking lot | |
US20090201173A1 (en) | Driving support apparatus, a driving support method and program | |
JP2005214857A (en) | Navigation system, and guide image preparation method | |
JP2005346648A (en) | View assistance system and program | |
JP4475015B2 (en) | Vehicle periphery monitoring device and vehicle periphery monitoring method | |
JP4249037B2 (en) | Peripheral vehicle display device, navigation device, and vehicle display method |