JP2010238147A - System, method and program for supporting driving - Google Patents

System, method and program for supporting driving Download PDF

Info

Publication number
JP2010238147A
JP2010238147A JP2009087920A JP2009087920A JP2010238147A JP 2010238147 A JP2010238147 A JP 2010238147A JP 2009087920 A JP2009087920 A JP 2009087920A JP 2009087920 A JP2009087920 A JP 2009087920A JP 2010238147 A JP2010238147 A JP 2010238147A
Authority
JP
Japan
Prior art keywords
image
vehicle
blind spot
display screen
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009087920A
Other languages
Japanese (ja)
Inventor
Hidefumi Okabe
英文 岡部
Takeshi Ishikawa
健 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2009087920A priority Critical patent/JP2010238147A/en
Publication of JP2010238147A publication Critical patent/JP2010238147A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving support system and a driving support method, allowing display of an image of an area to be paid with attention by a driver, i.e., an image made to be seen to the driver. <P>SOLUTION: In the driving support system, a peripheral image indicating the periphery of a vehicle C including a dead point area Zd is obtained, a travel expected track of the vehicle C is specified, expected passage spots PR, PL expected that the vehicle C passes them after traveling by an expected travel distance are specified based on the travel expected track, a display position inside a display screen of a line drawing indicating an outline of a pillar P is specified based on positional relation between the dead point area Zd and the expected passage spots PR, PL, a range of the image to be displayed on the display screen is specified to the peripheral image based on the display position of the line drawing, the image of the range is cut out from the peripheral image, the cut-out image of the range is displayed on the display screen, and the line drawing of the outline is displayed in the display position in the display screen. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、運転支援システム、運転支援方法、及び運転支援プログラム、特に車両の車体による運転者の死角に関する画像を車両に搭載された表示装置に表示する運転支援システム、運転支援方法、及び運転支援プログラムに関する。   The present invention relates to a driving support system, a driving support method, and a driving support program, and in particular, a driving support system, a driving support method, and a driving support that display an image related to a driver's blind spot by a vehicle body on a display device mounted on the vehicle. Regarding the program.

従来から、安全運転を支援する運転支援システムとして、車両の車体により運転者の死角となる死角領域を可視化するシステムが開発されている。その1つでは、特許文献1に記載されるように、車載カメラにより撮像された過去の撮像画像から死角領域が切り出され、当該切り出された死角領域の画像と、切り出された死角領域の輪郭を示す線画、つまり車体の形状を示す輪郭線とが、現在の撮像画像に重ね合わせられる。そして、重ね合わせられた画像の表示処理によって、疑似的に可視化された死角領域を含む周辺領域と、これら死角領域と周辺領域との境界線とを示す画像が表示画面に表示される。   2. Description of the Related Art Conventionally, as a driving support system that supports safe driving, a system that visualizes a blind spot area that is a driver's blind spot by a vehicle body has been developed. In one of them, as described in Patent Document 1, a blind spot area is cut out from a past captured image taken by an in-vehicle camera, and an image of the cut blind spot area and an outline of the cut blind spot area are obtained. The line image to be displayed, that is, the contour line indicating the shape of the vehicle body is superimposed on the current captured image. Then, by displaying the superimposed image, an image showing a peripheral area including a blind spot area that is visualized in a pseudo manner and a boundary line between the blind spot area and the peripheral area is displayed on the display screen.

特開2003−244688号公報JP 2003-244688 A

ところで、上記運転支援システムが運転者に見せるべき画像とは、運転者が注意を払うべき画像であって、死角領域及び死角領域に隣接する隣接領域が表示されている画像である。これに対して、例えば、特許文献1に記載されるように、車載カメラの撮像領域とは、車体に対して固定され、従って死角領域を示す画像の表示画面内における位置も固定されることが一般的である。そのため、死角領域を示す画像の位置がこのように表示画面内に固定されると、死角領域に隣接する隣接領域を示す画像の位置も、同じく表示画面内に固定されることとなる。   By the way, the image that the driving support system should show the driver is an image that the driver should pay attention to, and is an image in which a blind spot area and an adjacent area adjacent to the blind spot area are displayed. On the other hand, as described in Patent Document 1, for example, the imaging region of the in-vehicle camera is fixed with respect to the vehicle body, and thus the position in the display screen of the image indicating the blind spot region may be fixed. It is common. Therefore, when the position of the image indicating the blind spot area is fixed in the display screen in this manner, the position of the image indicating the adjacent area adjacent to the blind spot area is also fixed in the display screen.

だが、運転者が注意を払うべき隣接領域とは、そもそも死角領域に対して固定される領域ではなく、むしろ、車両の走行状況に応じて、死角領域に対して変位する領域である。例えば、旋回半径の小さいコーナーで車両が右旋回をするときには、運転者が注意を払うべき隣接領域は、右側フロントピラーによる死角領域のさらに右側、つまり車体に対して右側の領域になる。その一方、旋回半径の大きいコーナーで車両が右旋回をするときには、運転者が注意を払うべき隣接領域が、右側フロントピラーによる死角領域の左側、つまり車体に対して右斜め前方の領域となる。このように、運転者が注意を払うべき隣接領域が、そもそも死角領域に対して変位する領域であるため、上述のようにして死角領域を示す画像の位置が単純に表示画面内に固定されてしまうと、運転者が注意を払うべき隣接領域を示す画像が、表示画面内にてその表示範囲を拡張できないばかりか、その固定された位置によっては表示不能になる虞もある。   However, the adjacent area that the driver should pay attention to is not an area that is fixed relative to the blind spot area in the first place, but rather is an area that is displaced relative to the blind spot area depending on the driving situation of the vehicle. For example, when the vehicle turns to the right at a corner with a small turning radius, the adjacent area that the driver should pay attention to is the area to the right of the blind spot area by the right front pillar, that is, the area to the right of the vehicle body. On the other hand, when the vehicle turns to the right at a corner with a large turning radius, the adjacent area to which the driver should pay attention is the left side of the blind spot area by the right front pillar, that is, the area diagonally to the right of the vehicle body. . As described above, the adjacent area that the driver should pay attention to is the area that is displaced with respect to the blind spot area in the first place. Therefore, the position of the image indicating the blind spot area is simply fixed in the display screen as described above. As a result, the image showing the adjacent area where the driver should pay attention may not be able to expand the display range in the display screen, and may not be displayed depending on the fixed position.

本発明は上記問題点に鑑みてなされたものであり、その目的は、運転者が注意を払うべき領域の画像、即ち、運転者に見せるべき画像を表示することができる運転支援システム、運転支援プログラム、及び運転支援方法を提供することにある。   The present invention has been made in view of the above problems, and an object thereof is a driving support system and a driving support capable of displaying an image of an area where the driver should pay attention, that is, an image to be shown to the driver. It is to provide a program and a driving support method.

上記問題点を解決するために、請求項1に記載の発明は、車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示す
る運転支援システムであって、前記車両の周辺を示す周辺画像を取得する周辺画像取得手段と、前記車両の走行予想軌跡を特定する走行予想軌跡特定手段と、前記走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定する予想通過地点特定手段と、前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定する表示位置特定手段と、前記線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定する画像範囲特定手段と、前記周辺画像から前記範囲の画像を抽出する画像抽出手段と、抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面内における前記表示位置に表示する表示手段とを備えたことを要旨とする。
In order to solve the above-described problem, the invention described in claim 1 displays an image showing a blind spot area that becomes a blind spot of a driver by a vehicle body and an adjacent area adjacent to the blind spot area on a display screen. A driving support system, a peripheral image acquisition unit that acquires a peripheral image showing a periphery of the vehicle, a predicted travel track specifying unit that specifies a predicted travel track of the vehicle, and a predetermined distance based on the predicted travel track In the display screen of the line drawing showing the outline of the vehicle body based on the predicted passing point specifying means for specifying the expected passing point where the vehicle is expected to pass after traveling, and the positional relationship between the blind spot area and the predicted passing point Display position specifying means for specifying a display position in the image, and image range specifying means for specifying a range of an image to be displayed on the display screen with respect to the peripheral image based on the display position of the line drawing An image extracting means for extracting an image of the range from the peripheral image, the extracted image of the range is displayed on the display screen as an image showing the blind spot area and the adjacent area, and the outline line drawing is displayed. The gist of the invention is that it includes display means for displaying at the display position in the display screen.

請求項2に記載の発明は、請求項1に記載の運転支援システムにおいて、前記予想通過地点特定手段が、前記車両の走行する道路の道路情報に基づいて前記所定距離を設定することを要旨とする。   The invention according to claim 2 is the driving support system according to claim 1, wherein the predicted passing point specifying means sets the predetermined distance based on road information of a road on which the vehicle travels. To do.

請求項3に記載の発明は、請求項1又は2に記載の運転支援システムにおいて、前記走行予想軌跡取得手段が、予め設定されている前記車両の走行予定経路に基づいて前記走行予想軌跡を特定することを要旨とする。   According to a third aspect of the present invention, in the driving support system according to the first or second aspect, the predicted traveling locus acquisition unit identifies the predicted traveling locus based on a preset planned traveling route of the vehicle. The gist is to do.

請求項4に記載の発明は、車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示する制御手段を用いた運転支援方法であって、前記制御手段が、前記車両の周辺を示す周辺画像を取得し、前記車両の走行予想軌跡を特定して、該走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定し、前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定して、該線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定し、前記周辺画像から前記範囲の画像を抽出して、該抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面における前記表示位置に表示することを要旨とする。   The invention according to claim 4 is a driving support method using a control means for displaying on a display screen an image showing a blind spot area that becomes a driver's blind spot by a vehicle body and an adjacent area adjacent to the blind spot area. Then, the control means acquires a peripheral image showing the periphery of the vehicle, specifies a predicted travel path of the vehicle, and based on the predicted travel path, the vehicle is expected to pass after traveling a predetermined distance. An expected passing point is specified, a display position in the display screen of a line drawing showing the outline of the vehicle body is specified based on the positional relationship between the blind spot area and the predicted passing point, and based on the display position of the line drawing A range of an image to be displayed on the display screen is identified with respect to the peripheral image, an image of the range is extracted from the peripheral image, and the extracted image of the range is adjacent to the blind spot area and the adjacent area Show area And displays on the display screen as an image, is summarized in that to display the line drawing of the contour in the display position on the display screen.

請求項5に記載の発明は、車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示する制御手段を用いた運転支援プログラムであって、前記制御手段を、前記車両の周辺を示す周辺画像を取得する周辺画像取得手段と、前記車両の走行予想軌跡を特定する走行予想軌跡特定手段と、前記走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定する予想通過地点特定手段と、前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定する表示位置特定手段と、前記線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定する画像範囲特定手段と、前記周辺画像から前記範囲の画像を抽出する画像抽出手段と、抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面内における前記表示位置に表示する表示手段として機能させることを要旨とする。   The invention according to claim 5 is a driving support program using a control unit that displays on a display screen an image showing a blind spot area that becomes a driver's blind spot by a vehicle body and an adjacent area adjacent to the blind spot area. The control means is based on a surrounding image acquisition means for acquiring a surrounding image indicating the periphery of the vehicle, a predicted traveling locus specifying means for specifying a predicted traveling locus of the vehicle, and a predetermined amount based on the predicted traveling locus. The display screen of the line drawing showing the outline of the vehicle body based on the predicted passing point specifying means for specifying the expected passing point where the vehicle is expected to pass after traveling the distance, and the positional relationship between the blind spot area and the predicted passing point A display position specifying means for specifying a display position in the image, and an image range specifying for specifying a range of an image to be displayed on the display screen with respect to the peripheral image based on the display position of the line drawing An image extracting means for extracting an image of the range from the peripheral image, the extracted image of the range is displayed on the display screen as an image showing the blind spot region and the adjacent region, and the contour The gist is to function as display means for displaying the line drawing at the display position in the display screen.

請求項1に記載の運転支援システムによれば、走行予想軌跡に基づく予想通過地点と死角領域との位置関係に基づいて、車体の輪郭を示す線画の表示位置が特定される。そして、特定された表示位置に基づいて、表示画面に表示する画像の範囲が周辺画像から抽出される。車両の周辺を示す周辺画像は、走行する車両の車体に対して移動する画像である。こうした周辺画像の表示画面における移動方向は、車両の周辺に対する死角領域の移動方向に基づいて、推定することが可能である。つまり、周辺画像の表示画面における移動方向は、現在の車両における死角領域と、同車両が通過すると予想される地点、すなわち予
想通過地点との位置関係に基づいて、推定することが可能である。上記のように構成される運転支援システムであれば、それが備える表示位置特定手段によって、車体の輪郭を示す線画の表示位置が、こうした周辺画像の移動方向に基づいて特定されることになる。そして、表示画面に表示する周辺画像の範囲が、このようにして特定された線画の表示位置に基づいて特定されることになる。つまり、表示画面に表示される周辺画像の範囲が、表示画面における画像の移動方向に基づいて変更可能になる。このため、運転者に見せるべき画像を、今後の走行状況にあわせて表示画面内に表示することが可能になる。
According to the driving support system of the first aspect, the display position of the line drawing indicating the outline of the vehicle body is specified based on the positional relationship between the predicted passing point based on the predicted traveling locus and the blind spot area. Then, based on the specified display position, the range of the image to be displayed on the display screen is extracted from the peripheral image. The peripheral image showing the periphery of the vehicle is an image that moves relative to the vehicle body of the traveling vehicle. The moving direction of the peripheral image on the display screen can be estimated based on the moving direction of the blind spot area with respect to the periphery of the vehicle. That is, the moving direction on the display screen of the peripheral image can be estimated based on the positional relationship between the blind spot area of the current vehicle and the point where the vehicle is expected to pass, that is, the predicted passing point. If it is a driving assistance system comprised as mentioned above, the display position of the line drawing which shows the outline of a vehicle body will be specified based on the moving direction of such a peripheral image by the display position specification means with which it is provided. Then, the range of the peripheral image displayed on the display screen is specified based on the display position of the line drawing specified in this way. That is, the range of the peripheral image displayed on the display screen can be changed based on the moving direction of the image on the display screen. For this reason, it is possible to display an image to be shown to the driver in the display screen in accordance with a future driving situation.

請求項2に記載の運転支援システムによれば、車両が走行する道路の道路情報に基づいて、予想通過地点が特定される。車両の走行速度は、一般に、車両が走行する道路の道路情報に応じて大きく異なる。こうした車両の走行速度が大きくなれば、走行予想軌跡に沿って走行する際に運転者の確認すべき地点、即ち、運転者に見せるべき画像に対応する地点までの距離が増加し、反対に、車両の走行速度が小さくなれば、走行予想軌跡に沿って走行する際に運転者に見せるべき地点までの距離が減少することになる。そのため、走行予想軌跡に沿って走行する際、車両の走行速度に応じて変化する運転者に見せるべき地点までの距離から予想通過地点を特定すべきであるが、上記所定距離が一定値となれば、予想通過地点そのものの位置精度が損なわれてしまう。この点、上記のように構成される運転支援システムであれば、予想通過地点を特定するための所定距離がこうした道路情報に基づいて設定されるため、予想通過地点に関する精度が向上し、上述する効果がより確実なものとなる。   According to the driving support system of the second aspect, the expected passing point is specified based on the road information of the road on which the vehicle travels. In general, the traveling speed of a vehicle greatly varies depending on road information of a road on which the vehicle travels. If the traveling speed of such a vehicle increases, the distance to the point to be confirmed by the driver when traveling along the predicted traveling locus, that is, the point corresponding to the image to be displayed to the driver, If the traveling speed of the vehicle decreases, the distance to the point that should be shown to the driver when traveling along the predicted traveling path decreases. Therefore, when traveling along the predicted travel path, the expected passing point should be specified from the distance to the point that should be shown to the driver, which changes according to the traveling speed of the vehicle, but the predetermined distance can be a constant value. In this case, the position accuracy of the predicted passing point itself is impaired. In this regard, in the case of the driving support system configured as described above, since the predetermined distance for specifying the predicted passing point is set based on such road information, the accuracy related to the predicted passing point is improved, as described above. The effect is more certain.

請求項3に記載の運転支援システムによれば、走行予定経路に基づいて走行予想軌跡が特定されることから、走行予想軌跡に関する精度が向上し、上述する効果がより確実なものとなる。   According to the driving support system of the third aspect, since the predicted travel locus is specified based on the planned travel route, the accuracy with respect to the predicted travel track is improved, and the above-described effect is more reliable.

請求項4に記載の運転支援方法によれば、走行予想軌跡に基づく予想通過地点と死角領域との位置関係に基づいて、車体の輪郭を示す線画の表示位置が特定される。そして、特定された表示位置に基づいて、表示画面に表示する画像の範囲が周辺画像から抽出される。車両の周辺を示す周辺画像は、走行する車両の車体に対して移動する画像である。こうした周辺画像の表示画面における移動方向は、車両の周辺に対する死角領域の移動方向に基づいて、推定することが可能である。つまり、周辺画像の表示画面における移動方向は、現在の車両における死角領域と、同車両が通過すると予想される地点、すなわち予想通過地点との位置関係に基づいて、推定することが可能である。上記のような運転支援方法であれば、車体の輪郭を示す線画の表示位置が、こうした周辺画像の移動方向に基づいて特定されることになる。そして、表示画面に表示する周辺画像の範囲が、このようにして特定された線画の表示位置に基づいて特定されることになる。それゆえ、表示画面に表示される周辺画像の範囲が、表示画面における画像の移動方向に基づいて変更可能になる。このため、運転者に見せるべき画像を、今後の走行状況にあわせて表示画面内に表示することが可能になる。   According to the driving support method of the fourth aspect, the display position of the line drawing indicating the contour of the vehicle body is specified based on the positional relationship between the predicted passing point based on the predicted traveling locus and the blind spot area. Then, based on the specified display position, the range of the image to be displayed on the display screen is extracted from the peripheral image. The peripheral image showing the periphery of the vehicle is an image that moves relative to the vehicle body of the traveling vehicle. The moving direction of the peripheral image on the display screen can be estimated based on the moving direction of the blind spot area with respect to the periphery of the vehicle. That is, the moving direction on the display screen of the peripheral image can be estimated based on the positional relationship between the blind spot area of the current vehicle and the point where the vehicle is expected to pass, that is, the predicted passing point. With the driving support method as described above, the display position of the line drawing indicating the outline of the vehicle body is specified based on the moving direction of the peripheral image. Then, the range of the peripheral image displayed on the display screen is specified based on the display position of the line drawing specified in this way. Therefore, the range of the peripheral image displayed on the display screen can be changed based on the moving direction of the image on the display screen. For this reason, it is possible to display an image to be shown to the driver in the display screen in accordance with a future driving situation.

請求項5に記載の運転支援プログラムによれば、走行予想軌跡に基づく予想通過地点と死角領域との位置関係に基づいて、車体の輪郭を示す線画の表示位置が特定される。そして、特定された表示位置に基づいて、表示画面に表示する画像の範囲が周辺画像から抽出される。車両の周辺を示す周辺画像は、走行する車両の車体に対して移動する画像である。こうした周辺画像の表示画面における移動方向は、車両の周辺に対する死角領域の移動方向に基づいて、推定することが可能である。つまり、周辺画像の表示画面における移動方向は、現在の車両における死角領域と、同車両が通過すると予想される地点、すなわち予想通過地点との位置関係に基づいて、推定することが可能である。上記のような運転支援方法であれば、車体の輪郭を示す線画の表示位置が、こうした周辺画像の移動方向に基づいて特定されることになる。そして、表示画面に表示する周辺画像の範囲が、このよう
にして特定された線画の表示位置に基づいて特定されることになる。それゆえ、表示画面に表示される周辺画像の範囲が、表示画面における画像の移動方向に基づいて変更可能になる。このため、運転者に見せるべき画像を、今後の走行状況にあわせて表示画面内に表示することが可能になる。
According to the driving support program of the fifth aspect, the display position of the line drawing indicating the contour of the vehicle body is specified based on the positional relationship between the predicted passing point based on the predicted traveling locus and the blind spot area. Then, based on the specified display position, the range of the image to be displayed on the display screen is extracted from the peripheral image. The peripheral image showing the periphery of the vehicle is an image that moves relative to the vehicle body of the traveling vehicle. The moving direction of the peripheral image on the display screen can be estimated based on the moving direction of the blind spot area with respect to the periphery of the vehicle. That is, the moving direction on the display screen of the peripheral image can be estimated based on the positional relationship between the blind spot area of the current vehicle and the point where the vehicle is expected to pass, that is, the predicted passing point. With the driving support method as described above, the display position of the line drawing indicating the outline of the vehicle body is specified based on the moving direction of the peripheral image. Then, the range of the peripheral image displayed on the display screen is specified based on the display position of the line drawing specified in this way. Therefore, the range of the peripheral image displayed on the display screen can be changed based on the moving direction of the image on the display screen. For this reason, it is possible to display an image to be shown to the driver in the display screen in accordance with a future driving situation.

本実施形態にかかる運転支援システムの構成を示すブロック図。The block diagram which shows the structure of the driving assistance system concerning this embodiment. 経路データのデータ構成を示す構成図。The block diagram which shows the data structure of path | route data. 地図描画データのデータ構成を示す構成図。The block diagram which shows the data structure of map drawing data. 各位置検出センサの配置構成を示す構成図。The block diagram which shows the arrangement configuration of each position detection sensor. 車載カメラの撮像領域を車両とともに示す平面図。The top view which shows the imaging region of a vehicle-mounted camera with a vehicle. ピラー及びピラーモニターの構成を示す構成図。The block diagram which shows the structure of a pillar and a pillar monitor. 仮想投影面と撮像面との関係を模式的に示す模式図。The schematic diagram which shows typically the relationship between a virtual projection surface and an imaging surface. 死角線画データが示すピラーの輪郭の線画を示す図。The figure which shows the line drawing of the outline of the pillar which a blind spot line drawing data shows. 死角領域と走行予想軌跡との関係を模式的に示す平面図。The top view which shows typically the relationship between a blind spot area | region and a driving | running | working estimated locus | trajectory. (a)(b)表示画面に表示する画像の範囲を撮像画像のフレームに示す図。(A) (b) The figure which shows the range of the image displayed on a display screen to the flame | frame of a captured image. 運転支援システムの制御処理フローを示すフローチャート。The flowchart which shows the control processing flow of a driving assistance system. 表示位置特定処理の処理フローを示すフローチャート。The flowchart which shows the processing flow of a display position specific process.

以下、本発明を具体化した一実施形態を図1〜図11に従って説明する。運転支援システム1は、車両に搭載されるかたちに具現化されており、図1に示されるように、制御手段を構成する運転支援ユニット2、ディスプレイ3、表示手段を構成するピラーモニター4、スピーカ5、周辺画像取得手段を構成する車載カメラ6、第1〜第3位置検出センサ8a〜8c、車速センサ30、及びジャイロ31から構成されている。   Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. A driving support system 1 is embodied in a form mounted on a vehicle. As shown in FIG. 1, a driving support unit 2 constituting a control means, a display 3, a pillar monitor 4 constituting a display means, a speaker. 5. It is comprised from the vehicle-mounted camera 6 which comprises a periphery image acquisition means, the 1st-3rd position detection sensors 8a-8c, the vehicle speed sensor 30, and the gyro 31.

運転支援ユニット2は、走行予想軌跡特定手段及び予想通過地点特定手段を構成するCPU10、RAM11、ROM12、GPS受信部13、車両側I/F部14、地理データ記憶部15、地図描画プロセッサ16、音声プロセッサ18、外部入力I/F部17、センサI/F部19、撮像データ入力部21、及び表示位置特定手段、画像範囲特定手段、及び画像抽出手段を構成する画像処理プロセッサ22から構成されている。   The driving support unit 2 includes a CPU 10, a RAM 11, a ROM 12, a GPS receiving unit 13, a vehicle side I / F unit 14, a geographic data storage unit 15, a map drawing processor 16, which constitute a predicted travel locus specifying unit and an expected passing point specifying unit. The audio processor 18, the external input I / F unit 17, the sensor I / F unit 19, the imaging data input unit 21, and the image processing processor 22 constituting the display position specifying unit, the image range specifying unit, and the image extracting unit. ing.

CPU10は、RAM11の一部を作業領域として、ROM12に格納された運転支援プログラムに従い、各処理の主制御を実行する。CPU10は、GPS衛星からGPS受信部13が受信した、衛星軌道情報及び時刻情報を取得して、電波航法により自車両の絶対位置を算出する。CPU10は、車両に設けられた車速センサ30及びジャイロ31から、車両側I/F部14を介して、車速に関するデータ及び角速度に関するデータを取得する。そして、CPU10は、車速及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて、車両の現在位置を特定する。尚、車両の現在位置を特定する方法は上記に限定されず、例えばGPS受信部13が受信した情報のみから特定してもよいし、GPS受信部13が受信した情報と上述したセンサ以外のセンサとを併用してもよい。   The CPU 10 executes main control of each process according to the driving support program stored in the ROM 12 with a part of the RAM 11 as a work area. The CPU 10 acquires satellite orbit information and time information received by the GPS receiver 13 from GPS satellites, and calculates the absolute position of the host vehicle by radio wave navigation. The CPU 10 acquires data related to the vehicle speed and data related to the angular velocity from the vehicle speed sensor 30 and the gyro 31 provided in the vehicle via the vehicle-side I / F unit 14. Then, the CPU 10 calculates the relative position from the reference position by autonomous navigation using the vehicle speed and the angular velocity, and specifies the current position of the vehicle in combination with the absolute position calculated by radio wave navigation. Note that the method for specifying the current position of the vehicle is not limited to the above. For example, the vehicle position may be specified only from the information received by the GPS receiving unit 13, or the information received by the GPS receiving unit 13 and a sensor other than the above-described sensors. And may be used in combination.

地理データ記憶部15は、ハードディスクや光ディスク等の外部記憶媒体から構成されており、目的地までの経路を探索するための経路データRDと、ディスプレイ3に地図画面3aを出力するための各地図描画データMDとを記憶している。   The geographic data storage unit 15 is composed of an external storage medium such as a hard disk or an optical disk, and includes route data RD for searching for a route to the destination and each map drawing for outputting the map screen 3a to the display 3. Data MD is stored.

経路データRDは、全国を各区域に区画したリージョン毎のデータであって、図2に示されるように、ヘッダRDa、ノードデータRDb、リンクデータRDc、リンクコスト
データRDd、座標データRDeから構成されている。ヘッダRDaは、各経路データRDを管理するためのデータである。ノードデータRDbは、交差点、道路の端点等を示す各ノードの識別データ、隣接するノードの識別データ等から構成されている。リンクデータRDcは、リンク列を構成し、接続ノードを示す各リンクレコード、通行規制を示すデータ等から構成されている。リンクコストデータRDdは、各リンクレコードに対して付与されたリンクID、リンク長、走行レーンの数、平均旅行時間等から構成されたデータ群である。座標データRDeは、各ノードの絶対座標を示すデータである。
The route data RD is data for each region that divides the whole country into areas, and as shown in FIG. 2, is composed of a header RDa, node data RDb, link data RDc, link cost data RDd, and coordinate data RDe. ing. The header RDa is data for managing each route data RD. The node data RDb includes identification data of each node indicating an intersection, a road end point, and the like, identification data of adjacent nodes, and the like. The link data RDc constitutes a link string, and includes link records indicating connection nodes, data indicating traffic restrictions, and the like. The link cost data RDd is a data group composed of a link ID assigned to each link record, a link length, the number of travel lanes, an average travel time, and the like. The coordinate data RDe is data indicating the absolute coordinates of each node.

地図描画データMDは、全国の地図を分割したエリア毎に格納されるデータであり、広域の地図から狭域の地図まで、各階層に分かれるかたちに構成されている。図3に示されるように、各地図描画データMDは、ヘッダMDa、道路データMDb、背景データMDcから構成されている。ヘッダMDaは、それが構成する地図描画データMDの階層、エリア等を示すデータであって、管理目的のデータである。背景データMDcは、道路、市街地、河川等を描画する描画データである。道路データMDbは、道路の形状・種類を示すデータであって、道路属性データMDd、リンク形状データMDe、接続データMDfから構成されている。   The map drawing data MD is data that is stored for each area obtained by dividing a map of the whole country, and is structured in such a manner that it is divided into layers from a wide area map to a narrow area map. As shown in FIG. 3, each map drawing data MD includes a header MDa, road data MDb, and background data MDc. The header MDa is data indicating the hierarchy, area, etc. of the map drawing data MD that it constitutes, and is data for management purposes. The background data MDc is drawing data for drawing roads, urban areas, rivers, and the like. The road data MDb is data indicating the shape and type of the road, and is composed of road attribute data MDd, link shape data MDe, and connection data MDf.

道路属性データMDdは、例えば、有料道路等の高規格道路、一般道路、細街路等を示す道路種別、道路方向、道路幅、車線数、中央分離帯の有無、道路種別に対応付けられた予想走行距離を示すデータである。予想走行距離とは、それが対応付けられた道路種別の道路において、車両の現在位置から前方であって、運転者に見せるべき地点までの距離を示すものであり、当該道路種別の道路上において、自車が通過すると予想される予想通過地点を特定するときに利用される距離である。例えば、高規格道路、一般道路、細街路には、それぞれ予想走行距離として、100m、30m、10mが対応付けられている。   The road attribute data MDd is, for example, a road type indicating a high-standard road such as a toll road, a general road, a narrow street, etc., road direction, road width, number of lanes, presence / absence of a median, and prediction associated with the road type It is data which shows a travel distance. The expected travel distance indicates the distance from the current position of the vehicle to the point that should be shown to the driver on the road type road with which it is associated. This is the distance used when specifying the expected passing point where the vehicle is expected to pass. For example, high-standard roads, ordinary roads, and narrow streets are associated with estimated travel distances of 100 m, 30 m, and 10 m, respectively.

接続データMDfは、各リンクと各ノードの接続状態を示すデータである。リンク形状データMDeは、座標データMDg、形状補間データMDhから構成されている。座標データMDgは、リンク及びノードの座標を示すデータである。形状補間データMDhは、リンク途中に設定され、道路のカーブ形状補間点に関するデータであって、形状補間点の座標、リンクの方位等を示すデータである。   The connection data MDf is data indicating a connection state between each link and each node. The link shape data MDe is composed of coordinate data MDg and shape interpolation data MDh. The coordinate data MDg is data indicating the coordinates of links and nodes. The shape interpolation data MDh is set in the middle of the link and is data relating to the curve shape interpolation point of the road, and is data indicating the coordinates of the shape interpolation point, the direction of the link, and the like.

CPU10は、上述した経路データRDを用い、出発地や現在位置から目的地までの走行予定経路を探索する。CPU10は、車両の現在位置が、カーブ曲率半径が所定値(例えば、200m)以下の右カーブの開始点に接近しているか否か、さらには交差点に接近しているか否かを判断する。例えば、車両の現在位置が右カーブの開始点の所定距離(例えば、300m)手前に到達したか否か、さらには車両の現在位置が交差点の所定距離手前に到達したか否かを判断する。   The CPU 10 uses the above-described route data RD to search for a planned travel route from the departure point or the current position to the destination. The CPU 10 determines whether or not the current position of the vehicle is approaching the start point of a right curve having a curve curvature radius of a predetermined value (for example, 200 m) or less, and further approaching an intersection. For example, it is determined whether or not the current position of the vehicle has reached a predetermined distance (for example, 300 m) before the start point of the right curve, and further whether or not the current position of the vehicle has reached a predetermined distance before the intersection.

またCPU10は、上述した地図描画データMDと、探索した走行予定経路とを用い、該走行予定経路に沿って自車の中心が通過する軌跡を、走行予想軌跡として特定する。またCPU10は、自車が走行する道路の道路種別に対応付けられた予想走行距離を取得し、取得した予想走行距離と、特定した走行予想軌跡とを用い、当該走行予想軌跡上において、予想走行距離を走行した後に自車が到達すると予想される予想通過地点(運転者に見せるべき画像に対応する地点)を特定する。   Further, the CPU 10 uses the map drawing data MD described above and the searched planned travel route to specify a trajectory through which the center of the host vehicle passes along the planned travel route as a predicted travel trajectory. Further, the CPU 10 acquires the predicted travel distance associated with the road type of the road on which the host vehicle travels, and uses the acquired predicted travel distance and the specified predicted travel distance, the predicted travel distance on the travel predicted trajectory. An expected passing point (a point corresponding to an image to be shown to the driver) that the vehicle is expected to reach after traveling the distance is specified.

地図描画プロセッサ16は、CPU10からの制御信号を受け、車両の現在位置周辺の地図を描画するための地図描画データMDを地理データ記憶部15から読出し、地図出力用のデータを生成して、地図出力用データに基づく地図画面3aをディスプレイ3に表示させる。地図描画プロセッサ16は、車両の現在位置を示す自車位置指標3bがこの地図画面3aに重畳する態様にて地図出力用のデータを生成する。外部入力I/F部17は、
ディスプレイ3に隣接された操作スイッチ3c、タッチパネル式のディスプレイ3から、ユーザの入力操作に基づく信号を受け、入力操作に関する操作信号をCPU10に出力する。音声プロセッサ18は、CPU10からの制御信号を受け、図示しない音声ファイルを用い、例えば、目的地までの経路を案内する音声を、スピーカ5に出力させる。
The map drawing processor 16 receives a control signal from the CPU 10, reads map drawing data MD for drawing a map around the current position of the vehicle from the geographic data storage unit 15, generates map output data, and generates a map. A map screen 3a based on the output data is displayed on the display 3. The map drawing processor 16 generates map output data in such a manner that the vehicle position index 3b indicating the current position of the vehicle is superimposed on the map screen 3a. The external input I / F unit 17
A signal based on a user input operation is received from the operation switch 3c adjacent to the display 3 and the touch panel display 3, and an operation signal related to the input operation is output to the CPU 10. The voice processor 18 receives a control signal from the CPU 10 and uses a voice file (not shown) to cause the speaker 5 to output a voice for guiding a route to the destination, for example.

センサI/F部19は、第1〜第3位置検出センサ8a〜8cの各々から検出信号を受信する。第1〜第3位置検出センサ8a〜8cは、超音波センサから構成されており、図4に示されるように、フロントシートFに着座した運転者Dを囲うかたちに車室内に取り付けられている。第1位置検出センサ8aは、運転者Dの斜め前方左側から頭部D1までの距離を検出するべく、ルームミラー(図示略)近傍に取り付けられている。第2位置検出センサ8bは、運転者Dの斜め前方右側から頭部D1までの距離を検出するべく、ドアウィンドウW2(図5参照)の上端付近に取り付けられている。第3位置検出センサ8cは、運転者Dの左側から頭部D1までの距離を検出するべく、ルーフRの内側に取り付けられている。各位置検出センサ8a〜8cから発信された超音波は、運転者Dの頭部D1により反射される。各位置検出センサ8a〜8cは、超音波が発信されてから、その反射波を受信するまでの時間を計測し、その計測時間に基づいて、頭部D1までの相対距離を算出する。算出された各相対距離は、センサI/F部19を介してCPU10に出力される。なお、頭部D1までの相対距離は、各位置検出センサ8a〜8cからの信号に基づいて、センサI/F部19が算出する構成であってもよい。   The sensor I / F unit 19 receives detection signals from each of the first to third position detection sensors 8a to 8c. The first to third position detection sensors 8a to 8c are composed of ultrasonic sensors, and are attached to the interior of the vehicle so as to surround the driver D seated on the front seat F, as shown in FIG. . The first position detection sensor 8a is attached in the vicinity of a room mirror (not shown) in order to detect the distance from the left front side of the driver D to the head D1. The second position detection sensor 8b is attached near the upper end of the door window W2 (see FIG. 5) in order to detect the distance from the right front side of the driver D to the head D1. The third position detection sensor 8c is attached to the inside of the roof R so as to detect the distance from the left side of the driver D to the head D1. The ultrasonic waves transmitted from the position detection sensors 8a to 8c are reflected by the head D1 of the driver D. Each position detection sensor 8a-8c measures the time from when an ultrasonic wave is transmitted until the reflected wave is received, and calculates the relative distance to the head D1 based on the measurement time. Each calculated relative distance is output to the CPU 10 via the sensor I / F unit 19. The relative distance to the head D1 may be calculated by the sensor I / F unit 19 based on signals from the position detection sensors 8a to 8c.

CPU10は、標準的な体型の運転者Dが運転席に着座した状態にて、同運転者Dの頭部D1が移動し得る頭部移動範囲と、第1〜第3位置検出センサ8a〜8cが検出した各相対距離とに基づき、三角測量等の公知の方法により、運転者Dの頭部D1の位置である頭部中心位置Dcを特定する。   The CPU 10 includes a head movement range in which the head D1 of the driver D can move and a first to third position detection sensors 8a to 8c. The head center position Dc, which is the position of the head D1 of the driver D, is specified by a known method such as triangulation based on each relative distance detected by.

撮像データ入力部21は、CPU10からの制御信号を受けて、車両に搭載された車載カメラ6を駆動する。車載カメラ6は、車両の周辺領域における被写体の光学情報を電気信号に変換して出力する装置であって、レンズ、ミラー等から構成される光学機構、CCD撮像素子、自動焦点機構等から構成されている。車載カメラ6は、図5に示されるように、その光軸を車両Cの前方に向けるかたちに、車両CのルーフRの外側に取り付けられている。また、車載カメラ6は、それの撮像領域Z1が、車両の周辺領域のうちで、車両Cの前方右側と車両Cの右側の一部とを含むように、車両右側に配置された運転席に合わせて、運転席側である右側のピラーP近傍に取り付けられている。   The imaging data input unit 21 receives a control signal from the CPU 10 and drives the in-vehicle camera 6 mounted on the vehicle. The in-vehicle camera 6 is a device that converts optical information of a subject in an area around the vehicle into an electrical signal and outputs the electrical signal. ing. As shown in FIG. 5, the in-vehicle camera 6 is attached to the outside of the roof R of the vehicle C so that its optical axis is directed to the front of the vehicle C. Further, the in-vehicle camera 6 is mounted on the driver's seat arranged on the right side of the vehicle so that the imaging area Z1 thereof includes the front right side of the vehicle C and a part of the right side of the vehicle C in the peripheral area of the vehicle. In addition, it is attached in the vicinity of the right pillar P on the driver's seat side.

そして、撮像データ入力部21は、車載カメラ6を駆動して、撮像領域Z1における被写体の光学情報を、車載カメラ6から撮像データIMとして受信する。また、撮像データ入力部21は、車載カメラ6を駆動して、車載カメラ6の設置位置、角度(パン・チルト・ロール)、及び画角を、車載カメラ6からカメラデータとして受信する。車載カメラ6が生成する撮像データIMは、撮像データ入力部21を介して画像処理プロセッサ22に送信される。   And the imaging data input part 21 drives the vehicle-mounted camera 6, and receives the optical information of the to-be-photographed object in the imaging area Z1 from the vehicle-mounted camera 6 as imaging data IM. The imaging data input unit 21 also drives the in-vehicle camera 6 to receive the installation position, angle (pan / tilt / roll), and angle of view of the in-vehicle camera 6 from the in-vehicle camera 6 as camera data. Imaging data IM generated by the in-vehicle camera 6 is transmitted to the image processor 22 via the imaging data input unit 21.

画像処理プロセッサ22は、撮像データ入力部21が受信する撮像データIMを用い、ピラーモニター4の表示画面4aに、車両の周辺領域を示す周辺画像を、シーンに応じた範囲で表示させる。ピラーモニター4は、図6に示されるように、車両Cの右側のピラーPの内面に搭載されて、画像処理プロセッサ22から入力される表示フレームデータに基づいて表示画面4aに画像を表示する。   The image processor 22 uses the imaging data IM received by the imaging data input unit 21 to display a peripheral image showing the peripheral area of the vehicle on the display screen 4a of the pillar monitor 4 in a range corresponding to the scene. As shown in FIG. 6, the pillar monitor 4 is mounted on the inner surface of the right pillar P of the vehicle C, and displays an image on the display screen 4 a based on display frame data input from the image processor 22.

上述するように、シーンに応じた範囲の画像を表示させる際、画像処理プロセッサ22はまず、右側のピラーPにより運転者Dの死角となる死角領域を特定する。また、画像処理プロセッサ22は、撮像データIMを構成する撮像フレームデータFLMごとに、当該
撮像フレームデータFLMに対応した死角領域線画データBDを合成する(図8参照)。そして、画像処理プロセッサ22は、死角領域線画データBDが合成された撮像フレームデータFLMに対して、車載カメラ6のカメラ視点6aを運転者Dの視点に変換する視点変換を施す。なお、死角領域線画データBDとは、合成された撮像フレームデータFLMが視点変換後に示す周辺画像にて、運転者Dの視点から見れば死角領域となる部分の輪郭、つまりピラーPの輪郭4i(図8参照)を示すことになるデータであって、撮像フレームデータFLMと同じく多数の画素データから構成される二値画像データである。
As described above, when displaying an image in a range corresponding to a scene, the image processor 22 first specifies a blind spot area that is a blind spot of the driver D by the right pillar P. Further, the image processor 22 synthesizes the blind spot area line drawing data BD corresponding to the imaging frame data FLM for each imaging frame data FLM constituting the imaging data IM (see FIG. 8). Then, the image processor 22 performs viewpoint conversion for converting the camera viewpoint 6a of the in-vehicle camera 6 into the viewpoint of the driver D on the imaging frame data FLM obtained by combining the blind spot area line drawing data BD. Note that the blind spot area line drawing data BD is a peripheral image indicated by the synthesized imaging frame data FLM after the viewpoint conversion, and the outline of the part that becomes a blind spot area from the viewpoint of the driver D, that is, the outline 4i of the pillar P ( As shown in FIG. 8, the image data is binary image data composed of a large number of pixel data, similar to the imaging frame data FLM.

さらに、画像処理プロセッサ22は、上述した予想通過地点と死角領域との位置関係に基づいて、表示画面4aにおける上記ピラーPの輪郭4iの表示位置を特定する。また、画像処理プロセッサ22は、ピラーPの輪郭4iが上記表示位置に表示されるように、上記視点変換後の撮像フレームデータFLMから、表示画面4aに表示させるデータを切り出す。そして、画像処理プロセッサ22は、このようにして切り出されたデータをピラーモニター4に出力し、ピラーPの輪郭4iが特定された表示位置にて表示される態様、つまりシーンに応じた範囲の周辺画像が表示される態様にて、ピラーモニター4に画像を表示させる。   Furthermore, the image processor 22 specifies the display position of the outline 4i of the pillar P on the display screen 4a based on the positional relationship between the predicted passing point and the blind spot area. Further, the image processor 22 cuts out data to be displayed on the display screen 4a from the imaging frame data FLM after the viewpoint conversion so that the outline 4i of the pillar P is displayed at the display position. Then, the image processor 22 outputs the data cut out in this way to the pillar monitor 4 and displays the outline 4i of the pillar P at the specified display position, that is, the periphery of the range corresponding to the scene. The image is displayed on the pillar monitor 4 in such a manner that the image is displayed.

上述する画像処理プロセッサ22の処理の態様、つまり(a)ピラーPによる死角領域を特定し、死角領域線画データBDと撮像フレームデータFLMとの合成データに視点変換を施す、死角領域特定処理の態様と、(b)表示画面におけるピラーPの輪郭4iの表示位置を特定し、視点変換後の合成データから表示フレームデータを切り出す、表示位置特定処理の態様とについて、以下に詳述する。   Aspects of the processing of the image processor 22 described above, that is, (a) a blind spot area specifying process in which a blind spot area by the pillar P is specified and viewpoint conversion is performed on the composite data of the blind spot line drawing data BD and the imaging frame data FLM. (B) A display position specifying process in which the display position of the outline 4i of the pillar P on the display screen is specified and the display frame data is cut out from the combined data after the viewpoint conversion will be described in detail below.

(a)死角領域特定処理
例えば、カーブ曲率が所定値の右カープの開始点や交差点に車両Cが接近することにより、運転支援システム1の起動条件が満たされると、画像処理プロセッサ22は、CPU10からの制御信号を受けて、ピラーPの位置及びその三次元形状を示すピラーデータPDをROM12から読み出すとともに、第1〜第3位置検出センサ8a〜8cの検出結果である運転者Dの頭部中心位置Dcを取得する。そして、画像処理プロセッサ22は、頭部中心位置Dcを投影中心として、ピラーPが投影される領域を死角領域Zdに特定する。例えば、図7に示されるように、画像処理プロセッサ22は、ピラーPの各端点P1,P2を通る線L1,L2を算出し、これらの線L1,L2にて挟まれる領域を死角領域Zdに特定する。
(A) Blind spot area specifying process For example, when the vehicle C approaches the start point or intersection of a right carp having a predetermined curve curvature, the image processing processor 22 receives the CPU 10 when the start condition of the driving support system 1 is satisfied. In response to the control signal, the pillar data PD indicating the position of the pillar P and its three-dimensional shape is read from the ROM 12, and the head of the driver D, which is the detection result of the first to third position detection sensors 8a to 8c. The center position Dc is acquired. Then, the image processor 22 specifies the area where the pillar P is projected as the blind spot area Zd with the head center position Dc as the projection center. For example, as shown in FIG. 7, the image processor 22 calculates lines L1 and L2 passing through the end points P1 and P2 of the pillar P, and a region sandwiched between these lines L1 and L2 is set as a blind spot region Zd. Identify.

このようにして死角領域Zdが特定されると、画像処理プロセッサ22は、次いで、視点変換用の基準点Pcを特定する。例えば、図7に示されるように、画像処理プロセッサ22は、ピラーモニター4の表示画面4aの中心と頭部中心位置Dcとを結ぶ直線上において、頭部中心位置Dcから所定の距離だけ離間した点を、視点変換用の基準点Pcとして特定する。画像処理プロセッサ22は、基準点Pcの座標を特定すると、次いで、基準点Pcと頭部中心位置Dcとを用いて、仮想投影面VPの位置を決定する。このようにして決定される仮想投影面VPとは、車載カメラ6によって撮像された画像が仮想的に投影される平面である。例えば、画像処理プロセッサ22は、基準点Pcを含んで、かつ、頭部中心位置Dcと基準点Pcとを結ぶ中心線Laに対して垂直な平面を、仮想投影面VPとして決定する。   When the blind spot area Zd is specified in this way, the image processor 22 then specifies the reference point Pc for viewpoint conversion. For example, as shown in FIG. 7, the image processor 22 is separated from the head center position Dc by a predetermined distance on a straight line connecting the center of the display screen 4a of the pillar monitor 4 and the head center position Dc. The point is specified as a reference point Pc for viewpoint conversion. After specifying the coordinates of the reference point Pc, the image processor 22 then determines the position of the virtual projection plane VP using the reference point Pc and the head center position Dc. The virtual projection plane VP determined in this way is a plane on which an image captured by the in-vehicle camera 6 is virtually projected. For example, the image processor 22 determines a plane that includes the reference point Pc and is perpendicular to the center line La connecting the head center position Dc and the reference point Pc as the virtual projection plane VP.

このようにして仮想投影面VPが決定されると、画像処理プロセッサ22は、次いで、撮像データ入力部21を介してカメラデータを取得し、車載カメラ6の設置位置、角度、及び画角に基づいて、上記仮想投影面VPの位置に応じた撮像面CPを決定する。撮像面CPとは、車載カメラ6の光軸AXに対して垂直な平面であって、車載カメラ6の焦点位置が面内に設定される平面であり、仮想投影面VPよりも、車両Cに近い位置に設定され
る平面である。画像処理プロセッサ22は、撮像面CPを決定すると、車載カメラ6の焦点が撮像面CP上になる態様にて、複数の撮像フレームデータFLMから構成される撮像データIMを、撮像データ入力部21を介して、同車載カメラ6に取得させる。
When the virtual projection plane VP is determined in this way, the image processor 22 then acquires camera data via the imaging data input unit 21 and based on the installation position, angle, and angle of view of the in-vehicle camera 6. Thus, the imaging plane CP corresponding to the position of the virtual projection plane VP is determined. The imaging plane CP is a plane perpendicular to the optical axis AX of the in-vehicle camera 6 and is a plane in which the focal position of the in-vehicle camera 6 is set in the plane, and is closer to the vehicle C than the virtual projection plane VP. It is a plane set at a close position. When the image processing processor 22 determines the image pickup surface CP, the image pickup data IM composed of a plurality of image pickup frame data FLM is transferred to the image pickup data input unit 21 in such a manner that the in-vehicle camera 6 is focused on the image pickup surface CP. Via the in-vehicle camera 6.

また、画像処理プロセッサ22は、上記死角領域Zd、仮想投影面VP、撮像面CP、及びカメラ視点6aを用い、カメラ視点6aから仮想投影面VPに投影された投影像が死角領域Zdの輪郭、すなわちピラーPの輪郭4iとなるかたちの線画を、撮像面CP上に特定する。例えば、図7に示されるように、画像処理プロセッサ22は、仮想投影面VPにおける死角領域Zdの輪郭(例えば、左端点VP1及び右端点VP2)とカメラ視点6aとを結んだ複数の直線を特定し、これら複数の直線と撮像面CPとの交点(例えば、交点Lf3,Lf4)を特定する。そして、画像処理プロセッサ22は、撮像フレームデータFLMが撮像面CP上に示す画像と、上記撮像面CP上の交点との関係から、例えば、図8に示されるように、撮像フレームデータFLMを構成する多数の画素のうちで、上記撮像面CP上の交点に対応する画素群を示すデータを、死角領域線画データBDとして生成する。そして、画像処理プロセッサ22は、撮像データIMを構成する撮像フレームデータFLMごとに、当該撮像フレームデータFLMに対応した死角領域線画データBDを合成する。続いて、画像処理プロセッサ22は、撮像面CP上の画像を仮想投影平面上に投影した画像が表示画面4aに表示されるべく、撮像面CP上の画像を構成する各画素を、仮想投影平面上の画像を構成する各画素に変換する処理を行う。つまり、車載カメラ6のカメラ視点6aを運転者Dの視点に変換する視点変換を、上記死角領域線画データBDが合成された撮像フレームデータに対して施す。   Further, the image processor 22 uses the blind spot area Zd, the virtual projection plane VP, the imaging plane CP, and the camera viewpoint 6a, and the projected image projected from the camera viewpoint 6a onto the virtual projection plane VP is an outline of the blind spot area Zd, That is, the line drawing in the shape of the outline 4i of the pillar P is specified on the imaging surface CP. For example, as shown in FIG. 7, the image processor 22 identifies a plurality of straight lines connecting the contours of the blind spot area Zd (for example, the left end point VP1 and the right end point VP2) on the virtual projection plane VP and the camera viewpoint 6a. Then, the intersection points (for example, the intersection points Lf3 and Lf4) between the plurality of straight lines and the imaging surface CP are specified. Then, the image processor 22 configures the imaging frame data FLM from the relationship between the image indicated by the imaging frame data FLM on the imaging surface CP and the intersection on the imaging surface CP, for example, as shown in FIG. Among the large number of pixels, data indicating a pixel group corresponding to the intersection on the imaging surface CP is generated as blind spot area line drawing data BD. Then, the image processor 22 synthesizes the blind spot area line drawing data BD corresponding to the imaging frame data FLM for each imaging frame data FLM constituting the imaging data IM. Subsequently, the image processor 22 converts each pixel constituting the image on the imaging plane CP to the virtual projection plane so that an image obtained by projecting the image on the imaging plane CP onto the virtual projection plane is displayed on the display screen 4a. A process of converting each pixel constituting the upper image is performed. That is, the viewpoint conversion for converting the camera viewpoint 6a of the in-vehicle camera 6 into the viewpoint of the driver D is performed on the imaging frame data in which the blind spot area line drawing data BD is synthesized.

(b)表示位置特定処理
画像処理プロセッサ22は、上述のようにして死角領域特定処理を実行すると、次いで、CPU10により演算される予想通過地点をRAM11から読み出し、当該予想通過地点が死角領域Zdの右側であるか否かを判断する。そして、画像処理プロセッサ22は、その判断結果に基づいて、表示画面4aにおけるピラーPの輪郭4iの表示位置を特定する。つまり、画像処理プロセッサ22は、こうした予想通過地点と死角領域Zdとの位置関係に基づいて、上記視点変換後の撮像フレームデータFLMから切り出す表示フレームデータの切り出し範囲(表示画面に表示する画像の範囲)を特定する。なお、表示フレームデータの切り出し範囲は、予想通過地点と死角領域Zdとの位置関係に対応付けられるかたちにて、画像処理プロセッサ22が記憶している。
(B) Display position specifying process After executing the blind spot area specifying process as described above, the image processor 22 reads out the predicted passing point calculated by the CPU 10 from the RAM 11, and the predicted passing point is the dead spot area Zd. It is determined whether or not it is on the right side. Then, the image processor 22 identifies the display position of the outline 4i of the pillar P on the display screen 4a based on the determination result. In other words, the image processor 22 extracts the display frame data to be extracted from the imaging frame data FLM after the viewpoint conversion (the range of the image to be displayed on the display screen) based on the positional relationship between the predicted passing point and the blind spot area Zd. ). It should be noted that the display range of the display frame data is stored in the image processor 22 in a form associated with the positional relationship between the predicted passing point and the blind spot area Zd.

例えば、走行予定経路が、図9における左側の太線にて示され、走行する道路の道路種別から特定された予想通過地点が、図9における左側通過地点PLであるとき、画像処理プロセッサ22は、当該予想通過地点が死角領域Zdの右側でないと判断する。そして、画像処理プロセッサ22は、この判断結果に基づいて、ピラーPの輪郭4iが表示画面4aの右側に偏倚するように、図10(b)の太線にて示されるように、撮像フレームデータFLMから、左側用の表示フレームデータDPLを切り出す。画像処理プロセッサ22は、所定の演算周期にて、こうした表示フレームデータDPLの切り出しを撮像フレームデータFLMごとに実行し、所定のフレームレートにて、当該表示フレームデータDPLを表示画面4aに出力する。   For example, when the planned travel route is indicated by a thick line on the left side in FIG. 9 and the predicted passing point specified from the road type of the road to be traveled is the left passing point PL in FIG. It is determined that the predicted passing point is not on the right side of the blind spot area Zd. Then, based on the determination result, the image processor 22 captures the imaging frame data FLM as indicated by the thick line in FIG. 10B so that the outline 4i of the pillar P is biased to the right side of the display screen 4a. From this, the display frame data DPL for the left side is cut out. The image processor 22 cuts out the display frame data DPL for each imaging frame data FLM at a predetermined calculation cycle, and outputs the display frame data DPL to the display screen 4a at a predetermined frame rate.

この際、こうした走行予定経路を走行する車両において、運転者Dに見せるべき画像は、運転者Dが注意を払うべき画像であって、死角領域Zd、及び死角領域に隣接する隣接領域を示す画像、つまり車両Cの前方右側を示す画像である。この点、左側用の表示フレームデータDPLに基づいて表示される画像であれば、ピラーPの輪郭4i、つまり死角領域Zdが表示画面4aの右側に偏倚することになり、車両Cの前方右側の画像が表示画面4aの略全体に表示されることになる。それゆえ、左側用の表示フレームデータDPLに基づく表示処理がなされることにより、運転者Dには、当該運転者Dに見せるべきシー
ンに応じた画像が、表示画面4aにおいて広い範囲にわたり提供されることになる。
At this time, in a vehicle traveling on such a planned travel route, an image to be shown to the driver D is an image that the driver D should pay attention to, and an image showing a blind spot area Zd and an adjacent area adjacent to the blind spot area. That is, it is an image showing the front right side of the vehicle C. In this regard, if the image is displayed based on the display frame data DPL for the left side, the outline 4i of the pillar P, that is, the blind spot area Zd, is biased to the right side of the display screen 4a. The image is displayed on substantially the entire display screen 4a. Therefore, by performing display processing based on the display frame data DPL for the left side, the driver D is provided with an image corresponding to the scene to be shown to the driver D over a wide range on the display screen 4a. It will be.

そのうえ、通過予想地点が死角領域Zdの右側にない間は、表示画面4aに表示される画像が、表示フレームデータの切り出し範囲に拘わらず、表示画面4aの左側から右側へ移動する(図10(b)における矢印方向を参照)。ピラーPの輪郭4iが仮に表示画面4aの左側に偏倚して表示されると(図10(a)参照)、運転者Dに見せるべき隣接領域を示す画像が、表示画面4aにおける狭い範囲で移動することとなり、運転者Dに見せるべき時間も短くなってしまう。この点、上記左側用の表示フレームデータDPLに基づいて表示画面4aに表示される画像であれば、運転者Dに見せるべき隣接領域の画像が、表示画面4aにおける広い範囲で移動することになり、今後の走行状況にあわせた画像は当然のこと、それの時間的な前後における画像をも、長い時間にわたり表示されることになる。それゆえ、左側用の表示フレームデータDPLに基づく表示処理がなされることにより、運転者Dには、当該運転者Dに見せるべきシーンに応じた画像が、長い時間にわたり提供されることになる。   In addition, while the predicted passing point is not on the right side of the blind spot area Zd, the image displayed on the display screen 4a moves from the left side to the right side of the display screen 4a regardless of the cutout range of the display frame data (FIG. 10 ( see arrow direction in b)). If the outline 4i of the pillar P is biased and displayed on the left side of the display screen 4a (see FIG. 10A), the image showing the adjacent area to be shown to the driver D moves within a narrow range on the display screen 4a. Therefore, the time to be shown to the driver D is also shortened. In this regard, if the image is displayed on the display screen 4a based on the display frame data DPL for the left side, the image of the adjacent area to be shown to the driver D moves in a wide range on the display screen 4a. As a matter of course, the images according to the driving situation in the future will be displayed over a long period of time. Therefore, display processing based on the display frame data DPL for the left side is performed, so that the driver D is provided with an image corresponding to the scene to be shown to the driver D over a long period of time.

一方、走行予定経路が図9における右側の太線にて示され、走行する道路の道路種別から特定された予想通過地点が、図9における右側通過地点PRであるとき、画像処理プロセッサ22は、この判断結果に基づいて、ピラーPの輪郭4iが表示画面4aの左側に偏倚するように、図10(a)の太線にて示されるように、撮像フレームデータFLMから、右側用の表示フレームデータDPRを切り出す。つまり、画像処理プロセッサ22は、撮像フレームデータFLMにおける表示フレームデータの位置を、シーンに応じて切替える。そして、画像処理プロセッサ22は、所定の演算周期にて、こうした表示フレームデータDPRの切り出しを実行し、所定のフレームレートにて、当該表示フレームデータDPRを表示画面4aに出力する。   On the other hand, when the planned travel route is indicated by a bold line on the right side in FIG. 9 and the predicted passing point identified from the road type of the road to be traveled is the right passing point PR in FIG. 9, the image processor 22 Based on the determination result, right-side display frame data DPR is obtained from the imaging frame data FLM, as indicated by a thick line in FIG. 10A, so that the outline 4i of the pillar P is biased to the left side of the display screen 4a. Cut out. That is, the image processor 22 switches the position of the display frame data in the imaging frame data FLM according to the scene. Then, the image processor 22 cuts out such display frame data DPR at a predetermined calculation cycle, and outputs the display frame data DPR to the display screen 4a at a predetermined frame rate.

この際、こうした走行予定経路を走行する車両において、運転者Dに見せるべき画像は、運転者Dが注意を払うべき画像であって、死角領域Zd、及び死角領域に隣接する隣接領域を示す画像、つまり車両Cの前方ではなく、むしろ車両Cの右側を示す画像である。つまり、車両が同じ右旋回を行う場合でさえ、運転者Dが注意を払うべき領域は、そのシーンに応じて異なる。この点、右側用の表示フレームデータDPRに基づいて表示される画像であれば、ピラーPの輪郭4i、つまり死角領域Zdが表示画面4aの左側に偏倚することになり、車両Cの右側の画像が表示画面4aの略全体に表示されることになる。それゆえ、右側用の表示フレームデータDPRに基づく表示処理がなされることにより、運転者Dには、当該運転者Dに見せるべきシーンに応じた画像が、表示画面4aにおいて広い範囲にわたり提供されることになる。   At this time, in a vehicle traveling on such a planned travel route, an image to be shown to the driver D is an image that the driver D should pay attention to, and an image showing a blind spot area Zd and an adjacent area adjacent to the blind spot area. That is, it is an image showing the right side of the vehicle C rather than the front of the vehicle C. That is, even when the vehicle makes the same right turn, the area that the driver D should pay attention to differs depending on the scene. In this regard, if the image is displayed based on the display frame data DPR for the right side, the outline 4i of the pillar P, that is, the blind spot area Zd, is biased to the left side of the display screen 4a. Is displayed on substantially the entire display screen 4a. Therefore, display processing based on the display frame data DPR for the right side is performed, so that the driver D is provided with an image corresponding to the scene to be shown to the driver D over a wide range on the display screen 4a. It will be.

そのうえ、通過予想地点が死角領域Zdの右側にある間は、表示画面4aに表示される画像が、表示フレームデータの切り出し範囲に拘わらず、表示画面4aの右側から左側へ移動する(図10(a)における矢印方向を参照)。ピラーPの輪郭4iが仮に表示画面4aの右側に偏倚して表示されると(図10(b)参照)、運転者Dに見せるべき隣接領域を示す画像が、表示画面4aにおける狭い範囲で移動することとなり、運転者Dに見せるべき時間も短くなってしまう。この点、上記右側用の表示フレームデータDPRに基づいて表示画面4aに表示される画像であれば、運転者Dに見せるべき隣接領域の画像が、表示画面4aにおける広い範囲で移動することになり、今後の走行状況にあわせた画像は当然のこと、それの時間的な前後における画像をも、長い時間にわたり表示されることになる。それゆえ、左側用の表示フレームデータDPLに基づく表示処理がなされることにより、運転者Dには、当該運転者Dに見せるべきシーンに応じた画像が長い時間にわたり提供されることになる。   In addition, while the predicted passing point is on the right side of the blind spot area Zd, the image displayed on the display screen 4a moves from the right side to the left side of the display screen 4a regardless of the cutout range of the display frame data (FIG. 10 ( see arrow direction in a)). If the outline 4i of the pillar P is biased and displayed on the right side of the display screen 4a (see FIG. 10B), the image showing the adjacent area to be shown to the driver D moves within a narrow range on the display screen 4a. Therefore, the time to be shown to the driver D is also shortened. In this regard, if the image is displayed on the display screen 4a based on the display frame data DPR for the right side, the image of the adjacent area to be shown to the driver D moves in a wide range on the display screen 4a. As a matter of course, the images according to the driving situation in the future will be displayed over a long period of time. Therefore, by performing display processing based on the left display frame data DPL, the driver D is provided with an image corresponding to the scene to be shown to the driver D over a long period of time.

次に、上記運転支援システム1、及び運転支援プログラムを用いる運転支援方法の処理
手順について、図11及び図12に従って説明する。なお、以下に示す運転支援処理は、イグニッションモジュールがオンされた場合に、所定時間毎、例えば100m秒ごとに繰り返し実行され、また、車両の走行する走行予定経路は予め設定されているものとする。
Next, the processing procedure of the driving support method using the driving support system 1 and the driving support program will be described with reference to FIGS. 11 and 12. Note that the driving support process shown below is repeatedly executed every predetermined time, for example, every 100 milliseconds, when the ignition module is turned on, and the travel schedule route on which the vehicle travels is set in advance. .

まずCPU10の演算処理により、運転支援システムの起動条件が満たされているか否かの判定がなされる。運転支援システムの起動条件としては、例えば、カーブ曲率が200R以下の右カーブや交差点等、予め地図描画データMDに設定された起動対象地点に、車両Cが接近していることが挙げられる。   First, a determination is made as to whether or not the activation condition of the driving support system is satisfied by the arithmetic processing of the CPU 10. As an activation condition of the driving support system, for example, the vehicle C is approaching an activation target point set in advance in the map drawing data MD such as a right curve or an intersection having a curve curvature of 200R or less.

まず、GPS受信部13、車速センサ30及びジャイロ31の検出結果を用いるCPU10の演算処理により、車両Cの現在位置が特定される。さらに、予め設定された走行予定経路、起動対象地点、及び車両Cの現在位置を用いるCPU10の演算により、車両Cの現在位置と起動対象地点との間の距離が算出される(ステップS1)。そして、運転支援システムの起動条件が満たされるまで、車両Cの現在位置と起動対象地点との間の距離が算出される(ステップS2においてNO)。そして、起動対象地点に車両Cが接近したと(システムの起動条件が満たされたと)CPU10により判断されると(ステップS2においてYES)、ピラーPにより運転者Dの死角となる死角領域が、画像処理プロセッサ22により特定される(死角領域特定処理:ステップS3)。   First, the current position of the vehicle C is specified by the arithmetic processing of the CPU 10 using the detection results of the GPS receiver 13, the vehicle speed sensor 30, and the gyro 31. Further, the distance between the current position of the vehicle C and the activation target point is calculated by the CPU 10 using the preset scheduled travel route, the activation target point, and the current position of the vehicle C (step S1). Then, the distance between the current position of the vehicle C and the activation target point is calculated until the activation condition of the driving support system is satisfied (NO in step S2). Then, when the CPU 10 determines that the vehicle C has approached the start target point (that the start condition of the system is satisfied) (YES in step S2), a blind spot area that becomes the blind spot of the driver D by the pillar P is imaged. It is specified by the processing processor 22 (dead angle area specifying process: step S3).

詳しくは、各位置検出センサ8a〜8cにより、運転者Dの頭部位置が検出され、各位置検出センサ8a〜8cから頭部D1までの各相対距離を用いるCPU10の演算処理により、頭部中心位置Dcが特定される。頭部中心位置Dcが特定されると、ピラーデータPDがROM12から画像処理プロセッサ22に読み出され、また運転者Dの頭部中心位置DcがRAM11から画像処理プロセッサ22に読み出される。そして、ピラーデータPDと頭部中心位置Dcとを用いる画像処理プロセッサ22の演算処理により、頭部中心位置Dcを投影中心としたピラーPの投影領域が、死角領域Zdとして特定される。   Specifically, the head position of the driver D is detected by the position detection sensors 8a to 8c, and the center of the head is calculated by the arithmetic processing of the CPU 10 using the relative distances from the position detection sensors 8a to 8c to the head D1. The position Dc is specified. When the head center position Dc is specified, the pillar data PD is read from the ROM 12 to the image processor 22, and the head center position Dc of the driver D is read from the RAM 11 to the image processor 22. Then, the projection area of the pillar P with the head center position Dc as the projection center is specified as the blind spot area Zd by the arithmetic processing of the image processor 22 using the pillar data PD and the head center position Dc.

このようにして死角領域Zdが特定されると、上述したように、仮想投影面VP、及び撮像面CPが、画像処理プロセッサ22の演算処理により設定され、車載カメラ6の焦点が撮像面CP上になる態様にて、撮像データIMが車載カメラ6により取得される。次いで、これら死角領域Zd、仮想投影面VP、撮像面CP、及びカメラ視点6aを用いる画像処理プロセッサ22の演算処理により、上記死角領域線画データBDが生成される。さらに、死角領域線画データBDと撮像フレームデータFLMとを用いる画像処理プロセッサ22の演算処理により、撮像フレームデータFLMごとに、当該撮像フレームデータFLMに対応した死角領域線画データBDが合成される。そして、当該合成された撮像フレームデータFLMを用いる画像処理プロセッサ22の演算処理により、同合成された撮像フレームデータFLMに対する視点変換が実行される。   When the blind spot area Zd is specified in this way, as described above, the virtual projection plane VP and the imaging plane CP are set by the arithmetic processing of the image processor 22, and the focal point of the in-vehicle camera 6 is set on the imaging plane CP. In this manner, the imaging data IM is acquired by the in-vehicle camera 6. Next, the blind spot line drawing data BD is generated by the arithmetic processing of the image processor 22 using the blind spot area Zd, the virtual projection plane VP, the imaging plane CP, and the camera viewpoint 6a. Further, the blind spot area line drawing data BD corresponding to the imaging frame data FLM is synthesized for each imaging frame data FLM by the arithmetic processing of the image processor 22 using the blind spot area line drawing data BD and the imaging frame data FLM. Then, the viewpoint conversion is performed on the synthesized imaging frame data FLM by the arithmetic processing of the image processor 22 using the synthesized imaging frame data FLM.

上述のようにして死角領域特定処理が行われると、シーンに応じた表示フレームデータが、画像処理プロセッサ22により生成される(表示位置特定処理:ステップS4)。
詳しくは、車両Cの現在位置、地図描画データMD、及び経路データRDを用いるCPU10の演算処理により、現在、車両Cが走行する道路の道路種別が特定される(ステップS4−1)。次いで、地図描画データMDを用いるCPU10の演算処理により、上記特定された道路種別に対応する走行予定距離が取得される(ステップS4−2)。続いて、予め設定された走行予定経路、及び地図描画データMDを用いるCPU10の演算処理により、走行予定経路に沿って自車の中心位置が通過する軌跡、つまり走行予想軌跡が算出される。さらに、上記算出された走行予想軌跡、取得された走行予定距離、及び車両Cの現在位置を用いるCPU10の演算処理により、その走行予想軌跡に沿って走行予定距離だけ走行したときに車両Cが到達すると予想される地点(運転者に見せるべき画像に対応した地点)、すなわち予想通過地点が特定される(ステップS4−3)。
When the blind spot area specifying process is performed as described above, display frame data corresponding to the scene is generated by the image processor 22 (display position specifying process: step S4).
Specifically, the road type of the road on which the vehicle C currently travels is specified by the arithmetic processing of the CPU 10 using the current position of the vehicle C, the map drawing data MD, and the route data RD (step S4-1). Next, the estimated travel distance corresponding to the identified road type is acquired by the calculation process of the CPU 10 using the map drawing data MD (step S4-2). Subsequently, a trajectory through which the center position of the host vehicle passes along the planned travel route, that is, a predicted travel trajectory, is calculated by a calculation process of the CPU 10 using the preset planned travel route and the map drawing data MD. Further, the calculation process of the CPU 10 using the calculated predicted travel path, the acquired estimated travel distance, and the current position of the vehicle C causes the vehicle C to reach when the vehicle travels along the predicted travel path by the planned travel distance. Then, an expected point (a point corresponding to an image to be shown to the driver), that is, an expected passing point is specified (step S4-3).

このようにして予想通過地点が特定されると、当該予想通過地点がRAM11から画像処理プロセッサ22に読み出され、予想通過地点と死角領域Zdとを用いる画像処理プロセッサ22の演算処理により、当該予想通過地点が死角領域Zdの右側であるか否かの判断がなされる(ステップS4−4)。そして、予想通過地点が死角領域Zdの右側であると判断されると(ステップS4−5においてYES)、画像処理プロセッサ22の演算処理により、表示画面4aにおけるピラーPの輪郭4iの表示位置が左側に特定される。一方、予想通過地点が死角領域Zdの右側でないと判断されると(ステップS4−5においてNO)、画像処理プロセッサ22の演算処理により、表示画面4aにおけるピラーPの輪郭4iの表示位置が右側に特定される。このようにして表示位置が特定されると、上記合成された撮像フレームデータFLMを用いる画像処理プロセッサ22の演算処理により、表示位置に対応する表示フレームデータが、同撮像フレームデータFLMから切り出される。つまり、予想通過地点が死角領域Zdの右側であると判断されると、撮像フレームデータFLMから右側用の表示フレームデータDPRが切り出される。これに対して、予想通過地点が死角領域Zdの右側でないと判断されると、撮像フレームデータFLMから左側用の表示フレームデータDPLが切り出される。   When the predicted passing point is specified in this way, the predicted passing point is read out from the RAM 11 to the image processor 22, and the predicted passing point is calculated by the calculation processing of the image processor 22 using the predicted passing point and the blind spot area Zd. It is determined whether or not the passing point is on the right side of the blind spot area Zd (step S4-4). When it is determined that the predicted passing point is on the right side of the blind spot area Zd (YES in step S4-5), the display position of the outline 4i of the pillar P on the display screen 4a is set to the left side by the calculation process of the image processor 22. Specified. On the other hand, when it is determined that the predicted passing point is not on the right side of the blind spot area Zd (NO in step S4-5), the display position of the outline 4i of the pillar P on the display screen 4a is moved to the right side by the arithmetic processing of the image processor 22. Identified. When the display position is specified in this way, the display frame data corresponding to the display position is cut out from the imaging frame data FLM by the arithmetic processing of the image processor 22 using the synthesized imaging frame data FLM. That is, when it is determined that the expected passing point is on the right side of the blind spot area Zd, the display frame data DPR for the right side is cut out from the imaging frame data FLM. On the other hand, when it is determined that the predicted passing point is not on the right side of the blind spot area Zd, the display frame data DPL for the left side is cut out from the imaging frame data FLM.

上述のようにして表示位置特定処理が行われると、画像処理プロセッサ22により、所定のフレームレートにて、表示フレームデータがピラーモニター4に出力される(ステップS5)。これにより、予想通過地点と死角領域との位置関係に基づく範囲の画像、つまり、運転者Dに見せるべきシーンに応じた画像が、表示画面4aの広い範囲にわたり提供されることになる。そのうえ、運転者Dに見せるべきシーンに応じた画像が、長い時間にわたり提供されることになる。   When the display position specifying process is performed as described above, the display frame data is output to the pillar monitor 4 at a predetermined frame rate by the image processor 22 (step S5). As a result, an image of a range based on the positional relationship between the predicted passing point and the blind spot area, that is, an image corresponding to the scene to be shown to the driver D is provided over a wide range of the display screen 4a. In addition, an image corresponding to the scene to be shown to the driver D is provided over a long period of time.

運転者Dに見せるべきシーンに応じた画像が表示画面4aに表示されると、経路データRD及び車両Cの現在位置を用いるCPU10の演算処理により、運転支援システムの終了条件が満たされているか否かの判定がなされる。運転支援システムの終了条件としては、例えば、運転支援処理の対象となる交差点を車両Cが通過した後に、さらに20mを走行したこと、あるいは運転支援処理の対象となるカーブにてカーブ曲率が200R以下になった後に、さらに5秒が経過したことなど、が挙げられる。そして、運転支援システムの終了条件が満たされるまで、上述する死角領域特定処理、表示位置特定処理、表示処理、及びシステム終了判定が同順に繰り返され、運転支援システムの終了条件が満たされると、運転支援処理が終了される(ステップS7においてYES)。   When an image corresponding to the scene to be shown to the driver D is displayed on the display screen 4a, whether or not the termination condition of the driving support system is satisfied by the arithmetic processing of the CPU 10 using the route data RD and the current position of the vehicle C. Is determined. As an end condition of the driving support system, for example, after the vehicle C has passed the intersection to be subjected to the driving support process, the vehicle has further traveled 20 m, or the curve curvature is 200 R or less in the curve to be the driving support process. After 5 seconds, 5 seconds have passed. Then, the blind spot area specifying process, the display position specifying process, the display process, and the system end determination are repeated in the same order until the end condition of the driving support system is satisfied. The support process is terminated (YES in step S7).

以上説明したように、上記実施形態における運転支援システム、運転支援方法、及び運転支援プログラムによれば、以下のような効果を得ることができる。
(1)上記実施形態によれば、走行予想軌跡に基づく予想通過地点と死角領域Zdとの位置関係に基づいて、ピラーPの輪郭4iの表示位置が特定される。そして、特定された表示位置に基づいて、表示画面4aに表示する画像の範囲が周辺画像から切り出される。このため、ピラーPの輪郭4iの表示位置が、表示画面4aにおける画像の移動方向に基づいて特定されることになる。そして、表示画面4aに表示する画像の範囲が、このようにして特定されたピラーPの輪郭4iの表示位置に基づいて特定されることになる。つまり、表示画面4aに表示される画像の範囲が、表示画面4aにおける画像の移動方向に基づいて変更可能になる。このため、運転者Dに見せるべき画像を、今後の走行状況にあわせて表示画面4a内に表示することが可能になる。
As described above, according to the driving support system, the driving support method, and the driving support program in the above embodiment, the following effects can be obtained.
(1) According to the above embodiment, the display position of the outline 4i of the pillar P is specified based on the positional relationship between the predicted passing point based on the predicted travel path and the blind spot area Zd. Then, based on the specified display position, the range of the image to be displayed on the display screen 4a is cut out from the peripheral image. For this reason, the display position of the outline 4i of the pillar P is specified based on the moving direction of the image on the display screen 4a. And the range of the image displayed on the display screen 4a is specified based on the display position of the outline 4i of the pillar P specified in this way. That is, the range of the image displayed on the display screen 4a can be changed based on the moving direction of the image on the display screen 4a. For this reason, it becomes possible to display the image which should be shown to the driver | operator D in the display screen 4a according to a future driving | running | working condition.

(2)上記実施形態によれば、車両Cが走行する道路の道路情報に基づいて、予想通過地点が特定される。車両Cの走行速度は、一般に、車両Cが走行する道路の道路情報に応じて大きく異なる。こうした車両Cの走行速度が大きくなれば、走行予想軌跡に沿って走行する際に運転者の確認すべき地点、即ち、運転者に見せるべき地点までの距離である予
想走行距離が増加し、反対に、車両Cの走行速度が小さくなれば、走行予想軌跡に沿って走行する際に運転者に見せるべき地点までの距離である予想走行距離も減少することになる。そのため、走行予想軌跡に沿って走行する際、車両の走行速度に応じて変化する運転者に見せるべき地点までの距離、即ち、予想走行距離から予想通過地点が特定されるため、こうした予想走行距離が一定値となれば、上述する予想走行距離の増減により、予想通過地点そのものの位置精度が損なわれてしまう。この点、上記実施形態であれば、予想通過地点を特定するための予想走行距離がこうした道路情報に基づいて設定されるため、予想通過地点に関する精度が向上し、上述する効果がより確実なものとなる。
(2) According to the above embodiment, the expected passing point is specified based on the road information of the road on which the vehicle C travels. The traveling speed of the vehicle C generally varies greatly depending on the road information of the road on which the vehicle C travels. When the traveling speed of the vehicle C increases, the predicted traveling distance, which is the distance to the point to be confirmed by the driver when traveling along the predicted traveling path, that is, the point to be displayed to the driver, increases. In addition, when the traveling speed of the vehicle C decreases, the predicted traveling distance, which is the distance to the point to be shown to the driver when traveling along the predicted traveling locus, also decreases. Therefore, when traveling along the predicted travel path, the distance to the point to be shown to the driver that changes according to the travel speed of the vehicle, that is, the predicted passing point is specified from the predicted travel distance. If becomes a constant value, the positional accuracy of the predicted passing point itself is impaired due to the increase / decrease in the predicted travel distance described above. In this regard, according to the above embodiment, the predicted travel distance for specifying the predicted passing point is set based on such road information, so the accuracy related to the predicted passing point is improved, and the above-described effect is more certain. It becomes.

(3)上記実施形態では、走行予定経路に基づいて走行予想軌跡が特定されることから、走行予想軌跡に関する精度が向上可能になり、上述する効果がより確実なものとなる。
尚、上記実施形態は以下のように変更して実施することもできる。
(3) In the above embodiment, since the predicted travel locus is specified based on the planned travel route, the accuracy related to the predicted travel track can be improved, and the above-described effects can be further ensured.
In addition, the said embodiment can also be changed and implemented as follows.

・運転支援処理に先立って走行予定経路が設定される構成に限らず、運転支援処理に先立って走行予定経路が設定されない構成であっても、例えば、車両Cの周辺における道路形状や道路種別、さらには車両Cの運転状況等に基づいて、通過予想地点が特定される構成であれば、上記(1)(2)と同様の効果が得られる。   -Not only in the configuration in which the planned travel route is set prior to the driving support processing, but in the configuration in which the planned travel route is not set prior to the driving support processing, for example, the road shape and road type around the vehicle C, Furthermore, the same effects as in the above (1) and (2) can be obtained if the predicted passage point is specified based on the driving situation of the vehicle C and the like.

・通過予想地点の特定に際して、予想走行距離が道路種別毎に特定されるが、こうした構成に限らず、予想走行距離が一定値として扱われる構成であっても、上記(1)と同様の効果が得られ、また予想走行距離の特定処理が割愛される分だけ、運転支援処理に要する演算の負荷が軽減可能にもなる。   -When specifying the predicted passing point, the expected mileage is specified for each road type. However, the present invention is not limited to such a configuration, and the same effect as the above (1) can be achieved even in a configuration in which the predicted mileage is treated as a constant value. In addition, the calculation load required for the driving support process can be reduced as much as the process for specifying the expected travel distance is omitted.

・撮像フレームデータFLMに視点変換を施す構成に限らず、運転者の視点から見た画像がカメラ視点から得られる構成であれば、こうした視点変換が割愛可能にもなる。こうした構成であれ、上記(1)〜(3)と同様の効果が得られ、また視点変換が割愛される分だけ、運転支援処理に要する演算の負荷が軽減可能にもなる。   -Not only the structure which performs viewpoint conversion to imaging frame data FLM but if it is the structure from which the image seen from the driver | operator's viewpoint is obtained from a camera viewpoint, such viewpoint conversion can also be omitted. Even if it is such a structure, the effect similar to said (1)-(3) will be acquired, and it will also become possible to reduce the load of the calculation which a driving assistance process requires as much as viewpoint conversion is omitted.

・死角領域と予想通過地点との位置関係としては、予想通過地点が死角領域の右側であるか否かの関係に限らず、表示画面における画像の移動方向と相関する位置関係であれば、死角領域と予想通過地点との相対的な距離、あるいは相対的な距離及び方向をも適用可能である。   -The positional relationship between the blind spot area and the predicted passing point is not limited to whether the predicted passing point is on the right side of the blind spot area, and if it is a positional relationship that correlates with the moving direction of the image on the display screen, the blind spot. The relative distance between the region and the expected passing point, or the relative distance and direction can also be applied.

1…運転支援システム、2…制御手段を構成する運転支援ユニット、3…ディスプレイ、4…表示手段を構成するピラーモニター、4i…輪郭、5…スピーカ、6…周辺画像取得手段を構成する車載カメラ、8a〜8c…位置検出センサ、10…走行予想軌跡特定手段及び予想通過地点特定手段を構成するCPU、11…RAM、12…ROM、13…GPS受信部、14…車両側I/F部、15…地理データ記憶部、16…地図描画プロセッサ、17…外部入力I/F部、19…センサI/F部、21…撮像データ入力部、22…表示位置特定手段、画像範囲特定手段、及び画像抽出手段を構成する画像処理プロセッサ、30…車速センサ、31…ジャイロ、IM…撮像データ、FLM…撮像フレームデータ、DPL,DPR…表示フレームデータ、RD…経路データ、MD…地図描画データ、D
…運転者、BD…死角領域線画データ、P…ピラー、PL…左側通過地点、PR…右側通過地点。
DESCRIPTION OF SYMBOLS 1 ... Driving assistance system, 2 ... Driving assistance unit which comprises control means, 3 ... Display, 4 ... Pillar monitor which comprises display means, 4i ... Contour, 5 ... Speaker, 6 ... In-vehicle camera which comprises peripheral image acquisition means , 8a to 8c ... position detection sensors, 10 ... a CPU that constitutes a predicted travel locus specifying means and an expected passing point specifying means, 11 ... RAM, 12 ... ROM, 13 ... GPS receiving unit, 14 ... vehicle side I / F unit, DESCRIPTION OF SYMBOLS 15 ... Geographic data memory | storage part, 16 ... Map drawing processor, 17 ... External input I / F part, 19 ... Sensor I / F part, 21 ... Imaging data input part, 22 ... Display position specific | specification means, Image range specific | specification means, and Image processor constituting image extraction means, 30 ... vehicle speed sensor, 31 ... gyro, IM ... imaging data, FLM ... imaging frame data, DPL, DPR ... display frame Data, RD: Route data, MD: Map drawing data, D
... driver, BD ... blind spot area line drawing data, P ... pillar, PL ... left passage point, PR ... right passage point.

Claims (5)

車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示する運転支援システムであって、
前記車両の周辺を示す周辺画像を取得する周辺画像取得手段と、
前記車両の走行予想軌跡を特定する走行予想軌跡特定手段と、
前記走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定する予想通過地点特定手段と、
前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定する表示位置特定手段と、
前記線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定する画像範囲特定手段と、
前記周辺画像から前記範囲の画像を抽出する画像抽出手段と、
抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面内における前記表示位置に表示する表示手段と、
を備えたことを特徴とする運転支援システム。
A driving support system that displays on a display screen an image showing a blind spot area that is a blind spot of a driver by a vehicle body and an adjacent area adjacent to the blind spot area,
Peripheral image acquisition means for acquiring a peripheral image indicating the periphery of the vehicle;
A predicted travel trajectory specifying means for specifying a predicted travel trajectory of the vehicle;
Based on the predicted travel trajectory, an expected passing point specifying means for specifying an expected passing point where the vehicle is expected to pass after traveling a predetermined distance;
Display position specifying means for specifying a display position in the display screen of a line drawing showing an outline of the vehicle body based on a positional relationship between the blind spot area and the predicted passing point;
Image range specifying means for specifying a range of an image to be displayed on the display screen with respect to the peripheral image based on the display position of the line drawing;
Image extracting means for extracting the image of the range from the peripheral image;
Displaying the extracted image of the range on the display screen as an image showing the blind spot area and the adjacent area, and displaying the outline line drawing at the display position in the display screen;
A driving support system characterized by comprising:
前記予想通過地点特定手段は、
前記車両の走行する道路の道路情報に基づいて前記所定距離を設定する
ことを特徴とする請求項1に記載の運転支援システム。
The expected passing point specifying means is:
The driving support system according to claim 1, wherein the predetermined distance is set based on road information of a road on which the vehicle travels.
前記走行予想軌跡特定手段は、
予め設定されている前記車両の走行予定経路に基づいて前記走行予想軌跡を特定する
ことを特徴とする請求項1又は2に記載の運転支援システム。
The predicted travel locus specifying means includes
The driving support system according to claim 1 or 2, wherein the predicted travel locus is specified based on a preset travel route of the vehicle.
車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示する制御手段を用いた運転支援方法であって、
前記制御手段が、
前記車両の周辺を示す周辺画像を取得し、
前記車両の走行予想軌跡を特定して、該走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定し、
前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定して、該線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に対して特定し、
前記周辺画像から前記範囲の画像を抽出して、該抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面における前記表示位置に表示する
ことを特徴とする運転支援方法。
A driving support method using a control means for displaying on a display screen an image showing a blind spot area that is a blind spot of a driver by a vehicle body and an adjacent area adjacent to the blind spot area,
The control means is
Obtaining a peripheral image showing the periphery of the vehicle;
Identifying the predicted travel trajectory of the vehicle, based on the predicted travel trajectory, identifying an expected passing point where the vehicle is expected to pass after traveling a predetermined distance,
Based on the positional relationship between the blind spot area and the predicted passing point, the display position of the line drawing showing the outline of the vehicle body is specified in the display screen, and the line drawing is displayed on the display screen based on the display position of the line drawing. A range of images to be identified relative to the surrounding image,
The image of the range is extracted from the peripheral image, and the extracted image of the range is displayed on the display screen as an image showing the blind spot area and the adjacent area, and the line drawing of the outline is also displayed. A driving support method, comprising: displaying at the display position on a screen.
車両の車体により運転者の死角となる死角領域と、当該死角領域に隣接する隣接領域とを示す画像を表示画面に表示する制御手段を用いた運転支援プログラムであって、
前記制御手段を、
前記車両の周辺を示す周辺画像を取得する周辺画像取得手段と、
前記車両の走行予想軌跡を特定する走行予想軌跡特定手段と、
前記走行予想軌跡に基づいて、所定距離走行後に車両が通過すると予想される予想通過地点を特定する予想通過地点特定手段と、
前記死角領域と前記予想通過地点との位置関係に基づいて、前記車体の輪郭を示す線画の前記表示画面内における表示位置を特定する表示位置特定手段と、
前記線画の表示位置に基づいて、前記表示画面に表示する画像の範囲を前記周辺画像に
対して特定する画像範囲特定手段と、
前記周辺画像から前記範囲の画像を抽出する画像抽出手段と、
抽出された前記範囲の画像を、前記死角領域と前記隣接領域とを示す画像として前記表示画面に表示すると共に、前記輪郭の線画を同表示画面内における前記表示位置に表示する表示手段として機能させる
ことを特徴とする運転支援プログラム。
A driving support program using a control means for displaying on a display screen an image showing a blind spot area that is a blind spot of a driver by a vehicle body and an adjacent area adjacent to the blind spot area,
The control means;
Peripheral image acquisition means for acquiring a peripheral image indicating the periphery of the vehicle;
A predicted travel trajectory specifying means for specifying a predicted travel trajectory of the vehicle;
Based on the predicted travel trajectory, an expected passing point specifying means for specifying an expected passing point where the vehicle is expected to pass after traveling a predetermined distance;
Display position specifying means for specifying a display position in the display screen of a line drawing showing an outline of the vehicle body based on a positional relationship between the blind spot area and the predicted passing point;
Image range specifying means for specifying a range of an image to be displayed on the display screen with respect to the peripheral image based on the display position of the line drawing;
Image extracting means for extracting the image of the range from the peripheral image;
The extracted image of the range is displayed on the display screen as an image showing the blind spot area and the adjacent area, and the outline line drawing is displayed as the display means on the display position in the display screen. A driving assistance program characterized by that.
JP2009087920A 2009-03-31 2009-03-31 System, method and program for supporting driving Pending JP2010238147A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009087920A JP2010238147A (en) 2009-03-31 2009-03-31 System, method and program for supporting driving

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009087920A JP2010238147A (en) 2009-03-31 2009-03-31 System, method and program for supporting driving

Publications (1)

Publication Number Publication Date
JP2010238147A true JP2010238147A (en) 2010-10-21

Family

ID=43092378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009087920A Pending JP2010238147A (en) 2009-03-31 2009-03-31 System, method and program for supporting driving

Country Status (1)

Country Link
JP (1) JP2010238147A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020059454A (en) * 2018-10-12 2020-04-16 本田技研工業株式会社 Rearward visual recognition device
CN112585958A (en) * 2018-08-31 2021-03-30 大众汽车股份公司 Method and device for generating a map of the surroundings of a vehicle textured with image information, and vehicle comprising such a device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112585958A (en) * 2018-08-31 2021-03-30 大众汽车股份公司 Method and device for generating a map of the surroundings of a vehicle textured with image information, and vehicle comprising such a device
JP2020059454A (en) * 2018-10-12 2020-04-16 本田技研工業株式会社 Rearward visual recognition device
JP7022044B2 (en) 2018-10-12 2022-02-17 本田技研工業株式会社 Rear view device

Similar Documents

Publication Publication Date Title
JP4561479B2 (en) Parking support method and parking support device
EP1961613B1 (en) Driving support method and driving support device
US11511627B2 (en) Display device and computer program
JP4862774B2 (en) Driving support method and driving support device
JP4613881B2 (en) Parking guidance device
JP5482167B2 (en) Vehicle travel guidance device, vehicle travel guidance method, and computer program
JP5569365B2 (en) Guide device, guide method, and guide program
US20200269759A1 (en) Superimposed-image display device and computer program
WO2012043184A1 (en) Parking assistance device
JP4696691B2 (en) Parking support method and parking support device
JP2012071635A5 (en)
JP5136500B2 (en) Driving support device, driving support method, and driving support program
JP4848893B2 (en) Intersection information providing system and driving support system
JP4483305B2 (en) Vehicle periphery monitoring device
JP2007094045A (en) Navigation apparatus, navigation method and vehicle
JP2009211624A (en) Driving support device, driving support method, and computer program
JP2020147059A (en) Parking support device and parking support method
JP2008236711A (en) Driving support method and driving support device
JP4797849B2 (en) Driving support image display system and in-vehicle device
JP2005326956A (en) Device and method for informing empty space in parking lot
US20090201173A1 (en) Driving support apparatus, a driving support method and program
JP2005214857A (en) Navigation system, and guide image preparation method
JP2005346648A (en) View assistance system and program
JP4475015B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP4249037B2 (en) Peripheral vehicle display device, navigation device, and vehicle display method