JP2009005054A - Driving support device, driving support method, and program - Google Patents

Driving support device, driving support method, and program Download PDF

Info

Publication number
JP2009005054A
JP2009005054A JP2007163683A JP2007163683A JP2009005054A JP 2009005054 A JP2009005054 A JP 2009005054A JP 2007163683 A JP2007163683 A JP 2007163683A JP 2007163683 A JP2007163683 A JP 2007163683A JP 2009005054 A JP2009005054 A JP 2009005054A
Authority
JP
Japan
Prior art keywords
passenger
driver
image data
blind spot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007163683A
Other languages
Japanese (ja)
Inventor
Minoru Otake
稔 大竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007163683A priority Critical patent/JP2009005054A/en
Publication of JP2009005054A publication Critical patent/JP2009005054A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving support device, a driving support method, and a program that enable to display an image, which prevents both a driver and a fellow passenger from feeling a sense of incongruity, on a display device provided in a front pillar. <P>SOLUTION: In the driving support device, when a head position 51D of a driver 51 is in a first region (S11-S21:YES), an image of each blind spot region A1, A2, generated by a pillar P, of the driver 51 and an occupant 52 on a front passenger seat G is displayed on a multi-view display 4 mounted inside the pillar P as a video image viewed from each direction of the driver and the occupant (S22). When the head position 51D of the driver 51 is in a second region (S21:NO), image data of a projection part CP1 partitioned by the blind spot region A1 of the driver 51 are displayed as video-image data for the driver's seat F side and video-image data for the front passenger seat G side of the multi-view display 4 (S23). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両のフロントピラーによって遮られた死角を視認可能にする運転支援装置、運転支援方法及びプログラムに関するものである。   The present invention relates to a driving support device, a driving support method, and a program that enable a blind spot blocked by a front pillar of a vehicle to be visually recognized.

従来より、車両のフロントピラーによって遮られた死角を視認可能にする運転支援装置が種々提案されている。
例えば、車両のフロントピラーによって生じる死角領域を車両外部を撮影する撮影装置で撮影し、この撮影画像をフロントピラーの内側に設けられた表示装置に表示する運転支援装置がある(例えば、特許文献1参照。)。
特開2005−204132号公報(段落(0013)〜(0032)、図1〜図13)
Conventionally, various driving support devices that make it possible to visually recognize a blind spot blocked by a front pillar of a vehicle have been proposed.
For example, there is a driving assistance device that captures a blind spot area caused by a front pillar of a vehicle with an imaging device that captures the outside of the vehicle and displays this captured image on a display device provided inside the front pillar (for example, Patent Document 1). reference.).
JP 2005-204132 A (paragraphs (0013) to (0032), FIGS. 1 to 13)

しかしながら、前記した特許文献1に記載された運転支援装置では、運転者の視点に合わせて運転者側フロントピラーによって生じる死角領域の画像データを表示装置に表示するものであるため、運転者以外の同乗者(例えば、助手席の乗員である。)にとっては風景が連続的に表示されないため、実際に見える風景と表示装置に表示されている風景とがずれて違和感を感じるという問題がある。   However, in the driving assistance apparatus described in Patent Document 1 described above, image data of a blind spot area generated by the driver's front pillar in accordance with the driver's viewpoint is displayed on the display device. For passengers (for example, passengers in the passenger seat), since the scenery is not continuously displayed, there is a problem in that the scenery that is actually seen deviates from the scenery that is displayed on the display device.

そこで、本発明は、上述した問題点を解決するためになされたものであり、運転者及び同乗者(例えば、助手席の乗員である。)が、共に違和感を感じない画像をフロントピラーに設けられた表示装置に表示することが可能となる運転支援装置、運転支援方法及びプログラムを提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problems, and an image is provided on the front pillar where the driver and the passenger (for example, a passenger in the passenger seat) do not feel discomfort. It is an object to provide a driving support device, a driving support method, and a program that can be displayed on a displayed display device.

前記目的を達成するため請求項1に係る運転支援装置は、車両外部を撮影する撮影手段(6)から前記車両のフロントピラー(P)によって生じる運転者の死角領域を含む画像データを取得する画像データ取得手段(22)と、前記画像データから前記運転者の死角領域によって区画される部分の画像データを抽出する運転者側抽出手段(20)と、前記画像データから同乗者の死角領域によって区画される部分の画像データを抽出する同乗者側抽出手段(20)と、前記フロントピラーの内側に設けられて少なくとも運転者と同乗者の各方向から見たときにそれぞれ個別の映像の表示が可能なマルチビュー表示手段(4)に、前記運転者側抽出手段によって抽出された画像データを前記運転者から見た方向の映像として表示すると共に、前記同乗者側抽出手段によって抽出された画像データを前記同乗者から見た方向の映像として表示するように制御するマルチビュー表示制御手段(20)と、を備えたことを特徴とする。   In order to achieve the above object, the driving support apparatus according to claim 1 obtains image data including a blind spot area of a driver generated by a front pillar (P) of the vehicle from a photographing unit (6) for photographing the outside of the vehicle. A data acquisition means (22), a driver side extraction means (20) for extracting a part of the image data defined by the driver's blind spot area from the image data, and a compartment by the passenger's blind spot area from the image data. Passenger side extraction means (20) for extracting image data of a portion to be processed, and provided at the inner side of the front pillar, it is possible to display individual images at least when viewed from each direction of the driver and the passenger The multi-view display means (4) displays the image data extracted by the driver side extraction means as an image of the direction seen from the driver, A multi-view display control means for displaying the image data extracted by the passenger's side extraction means as the direction of the image as viewed from the passenger (20), characterized by comprising a.

また、請求項2に係る運転支援装置は、請求項1に記載の運転支援装置(1)において、前記マルチビュー表示制御手段(20)は、前記運転者の頭部位置が前記マルチビュー表示手段の前記同乗者の方向から見た映像が見える位置にあるか否かを判定する頭部位置判定手段(20)を有し、該マルチビュー表示制御手段(20)は、前記運転者の頭部位置が前記マルチビュー表示手段の前記同乗者の方向から見た映像が見える位置にあると判定した場合には、前記運転者側抽出手段(20)によって抽出された画像データを前記運転者と同乗者とから見た各方向の映像として表示するように制御することを特徴とする。   The driving support apparatus according to claim 2 is the driving support apparatus (1) according to claim 1, wherein the multi-view display control means (20) is configured such that the head position of the driver is the multi-view display means. Head position determination means (20) for determining whether or not the image viewed from the passenger's direction is visible, and the multi-view display control means (20) includes the driver's head When it is determined that the position is at a position where the video viewed from the direction of the passenger on the multi-view display means can be seen, the image data extracted by the driver-side extraction means (20) is taken with the driver. It controls to display as an image of each direction seen from the person.

また、請求項3に係る運転支援装置は、請求項1又は請求項2に記載の運転支援装置(1)において、前記画像データ取得手段(22)によって取得された画像データを順次記憶する画像データ記憶手段(11)と、前記画像データ取得手段(22)によって取得された画像データから前記同乗者の死角領域によって区画される部分の画像データを抽出できるか否かを判定する抽出判定手段(20)と、を備え、前記同乗者側抽出手段(20)は、前記画像データ取得手段(22)によって取得された画像データから前記同乗者の死角領域によって区画される部分の画像データを抽出できないと判定された場合には、自車位置から所定距離手前の位置で記憶した画像データから前記同乗者の死角領域によって区画される部分の画像データを抽出することを特徴とする。   According to a third aspect of the present invention, there is provided a driving support apparatus according to the first or second aspect, wherein the image data that sequentially stores the image data acquired by the image data acquisition means (22) is provided. Storage means (11), and extraction determination means (20) for determining whether or not image data of a portion partitioned by the blind spot area of the fellow passenger can be extracted from the image data acquired by the image data acquisition means (22). And the passenger side extraction means (20) is unable to extract the image data of the portion partitioned by the blind spot area of the passenger from the image data acquired by the image data acquisition means (22). If it is determined, the image data of the portion partitioned by the blind spot area of the passenger is extracted from the image data stored at a position a predetermined distance before the own vehicle position. Characterized in that it.

また、請求項4に係る運転支援装置は、請求項1乃至請求項3のいずれかに記載の運転支援装置(1)において、前記画像データ取得手段(22)によって取得された画像データのうちの前記運転者の死角領域の画像データを投影する運転者側仮想平面を設定する運転者側仮想平面設定手段(20)と、前記撮影手段(6)の撮影面を、前記運転者の死角領域によって区画された前記運転者側仮想平面の端点を通る位置に設定する撮影面設定手段(20)と、前記画像データ取得手段(22)によって取得された画像データのうちの同乗者の死角領域の画像データを投影する同乗者側仮想平面を設定する同乗者側仮想平面設定手段(20)と、前記撮影面設定手段によって設定された撮影面に前記撮影手段の焦点を合わせて前記画像データを取得するように制御する焦点制御手段(20、22)と、前記運転者側抽出手段によって抽出された画像データを前記運転者側仮想平面に座標変換する運転者側画像処理手段(20)と、前記同乗者側抽出手段によって抽出された画像データを前記同乗者側仮想平面に座標変換する同乗者側画像処理手段(20)と、を備え、前記マルチビュー表示制御手段(20)は、前記運転者側画像処理手段によって前記運転者側仮想平面に座標変換された画像データを前記運転席から見た方向の映像として表示すると共に、前記同乗者側画像処理手段によって前記同乗者側仮想平面に座標変換された画像データを前記同乗者から見た方向の映像として表示することを特徴とする。   A driving support apparatus according to claim 4 is the driving support apparatus (1) according to any one of claims 1 to 3, wherein the image data acquired by the image data acquisition means (22) The driver-side virtual plane setting means (20) for setting the driver-side virtual plane for projecting the image data of the driver's blind spot area and the photographing surface of the photographing means (6) are defined by the driver's blind spot area. An imaging surface setting means (20) for setting the position passing through the end point of the divided driver-side virtual plane, and an image of the blind spot area of the passenger among the image data acquired by the image data acquisition means (22) Passenger-side virtual plane setting means (20) for setting a passenger-side virtual plane for projecting data, and the image data by focusing the photographing means on the photographing surface set by the photographing surface setting means. Focus control means (20, 22) for controlling to obtain, driver-side image processing means (20) for converting the image data extracted by the driver-side extraction means into the driver-side virtual plane, and Passenger-side image processing means (20) for converting the image data extracted by the passenger-side extraction means into the passenger-side virtual plane, and the multi-view display control means (20) includes the driver The image data coordinate-converted to the driver-side virtual plane by the side image processing means is displayed as an image in the direction seen from the driver's seat, and coordinate-converted to the passenger-side virtual plane by the passenger-side image processing means The image data thus displayed is displayed as an image in a direction seen from the passenger.

また、請求項5に係る運転支援装置は、請求項4に記載の運転支援装置(1)において、前記撮影面設定手段(20)は、前記撮影手段の撮影面を前記運転者側仮想平面よりも前記車両に近い位置に設定することを特徴とする。   According to a fifth aspect of the present invention, there is provided the driving support device according to the fourth aspect, wherein the photographing surface setting means (20) sets the photographing surface of the photographing means from the driver-side virtual plane. Is set at a position close to the vehicle.

また、請求項6に係る運転支援装置は、請求項5に記載の運転支援装置(1)において、前記同乗者側仮想平面設定手段(20)は、前記同乗者側仮想平面を前記撮影手段の撮影面よりも前記車両から遠い位置に設定することを特徴とする。   The driving support device according to claim 6 is the driving support device (1) according to claim 5, wherein the passenger-side virtual plane setting means (20) sets the passenger-side virtual plane to the photographing means. The position is set farther from the vehicle than the photographing surface.

また、請求項7に係る運転支援装置は、請求項4乃至請求項6のいずれかに記載の運転支援装置(1)において、前記運転者側仮想平面設定手段(20)は、前記運転者の頭部位置と前記フロントピラーとのそれぞれの路面上への投影位置とに基づいて該運転者の前記死角領域における路面上の運転者側基準位置を設定後、前記運転者側基準位置を通る位置に前記運転者側仮想平面を設定し、前記撮影面設定手段(20)は、前記撮影手段の光軸の方位と、前記運転者の頭部位置の路面上への投影位置及び前記運転者側基準位置を結ぶ直線の方位とに基づいて、前記撮影面が交差する前記運転者側仮想平面の端点を選択することを特徴とする。   The driving support device according to claim 7 is the driving support device (1) according to any one of claims 4 to 6, wherein the driver-side virtual plane setting means (20) A position passing through the driver-side reference position after setting the driver-side reference position on the road surface in the blind spot area of the driver based on the head position and the projection position on the road surface of the front pillar. The driver side virtual plane is set, and the imaging plane setting means (20) is configured such that the direction of the optical axis of the imaging means, the projected position of the driver's head position on the road surface, and the driver side Based on the azimuth of a straight line connecting the reference positions, an end point of the driver-side virtual plane where the imaging plane intersects is selected.

また、請求項8に係る運転支援装置は、請求項7に記載の運転支援装置(1)において、前記同乗者側仮想平面設定手段(20)は、前記同乗者の頭部位置と前記フロントピラーとのそれぞれの路面上への投影位置とに基づいて該同乗者の前記死角領域における路面上の同乗者側基準位置を設定後、前記同乗者の頭部位置及び前記同乗者側基準位置を結ぶ直線に直交し、且つ、前記撮影面が該同乗者の前記死角領域と交差する両端点のうち前記車両から遠い位置の端点を通る位置に前記同乗者側仮想平面を設定することを特徴とする。   The driving support device according to claim 8 is the driving support device according to claim 7, wherein the passenger-side virtual plane setting means (20) includes the head position of the passenger and the front pillar. And the passenger side reference position on the road surface in the blind spot area of the passenger based on the projected position on each road surface, and then the head position of the passenger and the passenger side reference position are connected. The passenger-side virtual plane is set at a position passing through an end point far from the vehicle among both end points that are orthogonal to a straight line and the imaging plane intersects the blind spot area of the passenger. .

更に、請求項9に係る運転支援装置は、請求項4乃至請求項6のいずれかに記載の運転支援装置(1)において、前記画像データ記憶手段(11)は、前記撮影面の画像データを順次記憶し、前記抽出判定手段(20)は、前記撮影面設定手段によって設定された前記撮影面の画像データから前記同乗者の死角領域によって区画される部分の撮影面の画像データを抽出できるか否かを判定し、前記同乗者側抽出手段(20)は、前記撮影面設定手段によって設定された前記撮影面の画像データから前記同乗者の死角領域によって区画される部分の撮影面の画像データを抽出できないと判定された場合には、自車位置から所定距離手前の位置で記憶した撮影面の画像データから前記同乗者の死角領域によって区画される部分の撮影面の画像データを抽出し、前記同乗者側画像処理手段(20)は、該同乗者側抽出手段によって抽出された画像データを前記同乗者側仮想平面に座標変換することを特徴とする。   Furthermore, the driving support apparatus according to claim 9 is the driving support apparatus (1) according to any one of claims 4 to 6, wherein the image data storage means (11) stores the image data of the photographing surface. Whether the extraction determination means (20) can sequentially extract the image data of the imaging surface of the portion partitioned by the blind spot area of the passenger from the imaging surface image data set by the imaging surface setting means. The passenger side extraction means (20) determines whether or not the passenger side extraction means (20) captures image data of a part of the photographing surface divided by the blind spot area of the fellow passenger from the image data of the photographing surface set by the photographing surface setting means. Is determined to be unable to be extracted, the image data of the photographing surface of the portion partitioned by the blind spot area of the passenger from the image data of the photographing surface stored at a position a predetermined distance before the own vehicle position. Extracting, the passenger-side image processing means (20), characterized in that the coordinate converting the image data extracted by the passenger's side extraction unit to the passenger's virtual plane.

また、請求項10に係る運転支援方法は、車両外部を撮影する撮影手段から前記車両のフロントピラーによって生じる運転者の死角領域を含む画像データを取得する画像データ取得工程(S11〜S17)と、前記画像データから前記運転者の死角領域によって区画される部分の画像データを抽出する運転者側抽出工程(S18)と、前記画像データから同乗者の死角領域によって区画される部分の画像データを抽出する同乗者側抽出工程(S19)と、前記フロントピラーの内側に設けられて少なくとも運転者と同乗者の各方向から見たときにそれぞれ個別の映像の表示が可能なマルチビュー表示手段に、前記運転者側抽出工程で抽出された画像データを前記運転者から見た方向の映像として表示すると共に、前記同乗者側抽出工程で抽出された画像データを前記同乗者から見た方向の映像として表示するように制御するマルチビュー表示制御工程(S20〜S23)と、を備えたことを特徴とする。   The driving support method according to claim 10 is an image data acquisition step (S11 to S17) for acquiring image data including a driver's blind spot area generated by a front pillar of the vehicle from an imaging unit that images the outside of the vehicle. A driver-side extraction step (S18) for extracting image data of a portion partitioned by the driver's blind spot area from the image data, and extracting image data of a portion partitioned by the passenger's blind spot area from the image data. The passenger side extraction step (S19), and multi-view display means provided inside the front pillar and capable of displaying individual images at least when viewed from each direction of the driver and the passenger, The image data extracted in the driver side extraction step is displayed as a video in the direction seen from the driver and extracted in the passenger side extraction step. A multi-view display control step (S20 to S23) for controlling the image data to be displayed as the direction of the image as viewed from the passenger, characterized by comprising a.

更に、請求項11に係るプログラムは、コンピュータに、車両外部を撮影する撮影手段から前記車両のフロントピラーによって生じる運転者の死角領域を含む画像データを取得する画像データ取得工程(S11〜S17)と、前記画像データから前記運転者の死角領域によって区画される部分の画像データを抽出する運転者側抽出工程(S18)と、前記画像データから同乗者の死角領域によって区画される部分の画像データを抽出する同乗者側抽出工程(S19)と、前記フロントピラーの内側に設けられて少なくとも運転者と同乗者の各方向から見たときにそれぞれ個別の映像の表示が可能なマルチビュー表示手段に、前記運転者側抽出工程で抽出された画像データを前記運転者から見た方向の映像として表示すると共に、前記同乗者側抽出工程で抽出された画像データを前記同乗者から見た方向の映像として表示するように制御するマルチビュー表示制御工程(S20〜S23)と、を実行させるためのプログラムである。   Furthermore, the program according to claim 11 is an image data acquisition step (S11 to S17) for acquiring image data including a driver's blind spot area generated by a front pillar of the vehicle from a photographing means for photographing the outside of the vehicle. A driver-side extraction step (S18) for extracting a portion of the image data defined by the driver's blind spot area from the image data; and a portion of the image data defined by the passenger's blind spot region from the image data. Passenger side extraction step (S19) to extract, and multi-view display means provided inside the front pillar and capable of displaying individual images when viewed from each direction of at least the driver and the passenger, The image data extracted in the driver side extraction step is displayed as an image of the direction seen from the driver, and the passenger side A multi-view display control step (S20 to S23) for controlling so that output image data extracted in step displays as a direction of the video as seen from the passenger, a program for execution.

前記構成を有する請求項1に係る運転支援装置では、運転者及び同乗者の各死角領域の画像をフロントピラーの内側に設けられたマルチビュー表示手段に、それぞれの方向から見た映像として表示することが可能となる。このため、運転者及び同乗者が、共に違和感を感じない死角領域の画像をフロントピラーに設けられたマルチビュー表示手段に表示することが可能となる。   In the driving support apparatus according to claim 1 having the above-described configuration, the image of each blind spot area of the driver and the passenger is displayed on the multi-view display means provided inside the front pillar as an image viewed from each direction. It becomes possible. For this reason, it becomes possible for the driver and the passenger to display an image of the blind spot area in which both the driver and passenger do not feel uncomfortable on the multi-view display means provided on the front pillar.

また、請求項2に係る運転支援装置では、運転者の頭部位置がマルチビュー表示手段の同乗者の方向から見た映像が見える位置にある場合には、運転者の死角領域によって区画される部分の画像データをマルチビュー表示手段の運転者と同乗者とから見た各方向の映像として表示する。このため、運転者の頭部位置がマルチビュー表示手段の同乗者の方向から見た映像が見える位置にある場合でも、運転者及び同乗者が、共に違和感を感じない死角領域の画像をフロントピラーに設けられたマルチビュー表示手段に表示することが可能となる。   Further, in the driving support device according to claim 2, when the head position of the driver is at a position where the image viewed from the passenger's direction of the multi-view display means can be seen, the driving assistance device is partitioned by the driver's blind spot area. The image data of the portion is displayed as an image in each direction viewed from the driver and the passenger of the multi-view display means. Therefore, even when the driver's head position is at a position where the image viewed from the passenger's direction of the multi-view display means can be seen, the image of the blind spot area where the driver and the passenger do not feel discomfort is displayed on the front pillar. It is possible to display on the multi-view display means provided in.

また、請求項3に係る運転支援装置では、画像データ取得手段によって取得された画像データから同乗者の死角領域によって区画される部分の画像データを抽出できない場合には、自車位置から所定距離手前の位置で記憶した画像データから同乗者の死角領域によって区画される部分の画像データが抽出される。このため、撮影手段の画角が小さい場合にも、同乗者の死角領域によって区画される部分の画像データを抽出して、マルチビュー表示手段の同乗者から見た方向の映像として表示することが可能となる。従って、撮影手段の画角が小さい場合にも、運転者及び同乗者が、共に違和感を感じない画像をフロントピラーに設けられたマルチビュー表示手段に表示することが可能となる。   In the driving support device according to claim 3, when it is not possible to extract the image data of the portion partitioned by the blind spot area of the passenger from the image data acquired by the image data acquisition means, a predetermined distance before the own vehicle position. The image data of the portion partitioned by the blind spot area of the passenger is extracted from the image data stored at the position. For this reason, even when the angle of view of the photographing means is small, the image data of the portion defined by the blind spot area of the fellow passenger can be extracted and displayed as an image in the direction seen from the fellow passenger of the multi-view display means. It becomes possible. Therefore, even when the angle of view of the photographing means is small, it is possible for the driver and the passenger to display an image on which the driver does not feel uncomfortable on the multi-view display means provided on the front pillar.

また、請求項4に係る運転支援装置では、撮影手段の撮影面を、運転者の死角領域によって区画された運転者側仮想平面の端点を通る位置に設定するため、マルチビュー表示手段の運転者から見た方向の映像は、連続性が高く、明瞭で自然な画像を表示することが可能となる。また、この撮影面の画像データから同乗者の死角領域によって区画される部分の撮影面の画像データを抽出して、マルチビュー表示手段の同乗者から見た方向の映像として表示するため、当該マルチビュー表示手段の同乗者から見た方向の映像も、連続性が高く、明瞭で自然な画像を表示することが可能となる。従って、運転者及び同乗者が、共に違和感を感じない画像をフロントピラーに設けられたマルチビュー表示手段に表示することが可能となる。   Further, in the driving support apparatus according to claim 4, in order to set the imaging surface of the imaging means to a position passing through the end point of the driver-side virtual plane defined by the driver's blind spot area, the driver of the multi-view display means The video in the direction viewed from the side is highly continuous, and a clear and natural image can be displayed. In addition, since the image data of the photographing surface of the portion divided by the blind spot area of the passenger is extracted from the image data of the photographing surface and displayed as a video in the direction viewed from the fellow passenger of the multi-view display means, The video in the direction viewed from the passenger of the view display means is also highly continuous and can display a clear and natural image. Therefore, the driver and the passenger can both display an image that does not feel uncomfortable on the multi-view display means provided on the front pillar.

また、請求項5に係る運転支援装置では、撮影装置の撮影面を運転者側仮想平面よりも車両に近い位置に設定するため、撮影手段によって撮影された撮影面上の画像の余剰領域にピントが合わず、マルチビュー表示手段の運転者から見た方向の映像は、更に連続性が高く、明瞭で自然な画像を表示することが可能となる。   In the driving support device according to the fifth aspect, the photographing surface of the photographing device is set at a position closer to the vehicle than the driver-side virtual plane, and thus the focus is on the surplus area of the image on the photographing surface photographed by the photographing means. The images in the direction viewed from the driver of the multi-view display means are more continuous and can display a clear and natural image.

また、請求項6に係る運転支援装置では、同乗者側仮想平面を撮影装置の撮影面よりも車両から遠い位置に設定するため、撮影手段によって撮影された撮影面上の画像の余剰領域にピントが合わず、マルチビュー表示手段の同乗者から見た方向の映像は、更に連続性が高く、明瞭で自然な画像を表示することが可能となる。   Further, in the driving support device according to the sixth aspect, the passenger-side virtual plane is set at a position farther from the vehicle than the imaging surface of the imaging device, so that it is focused on the surplus area of the image on the imaging surface captured by the imaging means. The images in the direction seen from the passenger of the multi-view display means are more continuous, and a clear and natural image can be displayed.

また、請求項7に係る運転支援装置では、撮影手段の光軸の方位と、運転者の頭部位置の路面上への投影位置及び運転者側基準位置を結ぶ直線の方位とに応じて、撮影面の通る端点が変更される。このため、撮影面を運転者側仮想平面の手前に常に設定することが可能となる。   Further, in the driving support device according to claim 7, according to the azimuth of the optical axis of the photographing means and the azimuth of the straight line connecting the projection position on the road surface of the driver's head position and the driver side reference position, The end point through which the image plane passes is changed. For this reason, it becomes possible to always set the imaging surface in front of the driver-side virtual plane.

また、請求項8に係る運転支援装置では、同乗者の頭部位置及び同乗者側基準位置を結ぶ直線に直交し、且つ、撮影面が該同乗者の死角領域と交差する両端点のうち車両から遠い位置の端点を通る位置に同乗者側仮想平面が設定される。このため、撮影面を同乗者側仮想平面の手前に常に設定することが可能となる。   In the driving support device according to the eighth aspect, the vehicle is out of the end points that are orthogonal to a straight line connecting the passenger's head position and the passenger-side reference position and whose imaging plane intersects the blind spot area of the passenger. The passenger-side virtual plane is set at a position passing through the end point at a position far from the passenger. For this reason, it becomes possible to always set the imaging surface in front of the passenger-side virtual plane.

更に、請求項9に係る運転支援装置では、撮影面の画像データから同乗者の死角領域によって区画される部分の撮影面の画像データを抽出できない場合には、自車位置から所定距離手前の位置で記憶した撮影面の画像データから同乗者の死角領域によって区画される部分の撮影面の画像データが抽出される。このため、撮影手段の画角が小さい場合にも、同乗者の死角領域によって区画される部分の撮影面の画像データを抽出して、マルチビュー表示手段の同乗者から見た方向の映像として表示することが可能となり、当該マルチビュー表示手段の同乗者から見た方向の映像も、連続性が高く、明瞭で自然な画像を表示することが可能となる。従って、撮影手段の画角が小さい場合にも、運転者及び同乗者が、共に違和感を感じない画像をフロントピラーに設けられたマルチビュー表示手段に表示することが可能となる。   Furthermore, in the driving support device according to claim 9, when the image data of the photographing surface of the portion partitioned by the blind spot area of the passenger cannot be extracted from the image data of the photographing surface, the position a predetermined distance before the own vehicle position. The image data of the photographing surface of the portion partitioned by the blind spot area of the passenger is extracted from the image data of the photographing surface stored in step (b). For this reason, even when the angle of view of the photographing means is small, the image data of the photographing surface of the portion defined by the blind spot area of the fellow passenger is extracted and displayed as an image in the direction viewed from the fellow passenger of the multi-view display means. It is possible to display a clear and natural image with high continuity even in the video viewed from the passenger of the multi-view display means. Therefore, even when the angle of view of the photographing means is small, it is possible for the driver and the passenger to display an image on which the driver does not feel uncomfortable on the multi-view display means provided on the front pillar.

また、請求項10に係る運転支援方法では、運転者及び同乗者の各死角領域の画像をフロントピラーの内側に設けられたマルチビュー表示手段に、それぞれの方向から見た映像として表示することが可能となる。このため、運転者及び同乗者が、共に違和感を感じない死角領域の画像をフロントピラーに設けられたマルチビュー表示手段に表示することが可能となる。   In the driving support method according to the tenth aspect, the image of each blind spot area of the driver and the passenger can be displayed on the multi-view display means provided inside the front pillar as an image viewed from each direction. It becomes possible. For this reason, it becomes possible for the driver and the passenger to display an image of the blind spot area in which both the driver and passenger do not feel uncomfortable on the multi-view display means provided on the front pillar.

更に、請求項11に係るプログラムでは、コンピュータは当該プログラムを読み込むことによって、該コンピュータは、運転者及び同乗者の各死角領域の画像をフロントピラーの内側に設けられたマルチビュー表示手段に、それぞれの方向から見た映像として表示することが可能となる。このため、運転者及び同乗者が、共に違和感を感じない死角領域の画像をフロントピラーに設けられたマルチビュー表示手段に表示することが可能となる。   Furthermore, in the program according to claim 11, when the computer reads the program, the computer displays images of the blind spot areas of the driver and the passenger on the multi-view display means provided inside the front pillar, respectively. It is possible to display it as an image viewed from the direction. For this reason, it becomes possible for the driver and the passenger to display an image of the blind spot area in which both the driver and passenger do not feel uncomfortable on the multi-view display means provided on the front pillar.

以下、本発明に係る運転支援装置、運転支援方法及びプログラムを運転支援システムについて具体化した実施例1及び実施例2に基づき図面を参照しつつ詳細に説明する。   Hereinafter, a driving support device, a driving support method, and a program according to the present invention will be described in detail with reference to the drawings based on a first embodiment and a second embodiment in which the driving support system is embodied.

先ず、実施例1に係る運転支援システムの概略構成について図1乃至図4に基づいて説明する。
図1は実施例1に係る運転支援システム1の構成を説明するブロック図である。図2は運転者の頭部と助手席の乗員の頭部を検出する位置検出センサの説明図である。図3はカメラの取付位置の説明図である。図4はカメラ及びマルチビューディスプレイの取付位置の説明図である。
First, a schematic configuration of the driving support system according to the first embodiment will be described with reference to FIGS. 1 to 4.
FIG. 1 is a block diagram illustrating the configuration of the driving support system 1 according to the first embodiment. FIG. 2 is an explanatory diagram of a position detection sensor that detects the driver's head and the passenger's head in the passenger seat. FIG. 3 is an explanatory diagram of camera mounting positions. FIG. 4 is an explanatory diagram of attachment positions of the camera and the multi-view display.

運転支援システム1は車両C(図3参照)に搭載され、図1に示すように、運転支援装置としての運転支援ユニット2、ディスプレイ3、マルチビューディスプレイ4、スピーカ5、撮像装置としてのカメラ6、2組の第1〜第3位置検出センサ8A〜8C(図2参照)を備えている。   The driving support system 1 is mounted on a vehicle C (see FIG. 3), and as shown in FIG. 1, a driving support unit 2 as a driving support device, a display 3, a multi-view display 4, a speaker 5, and a camera 6 as an imaging device. Two sets of first to third position detection sensors 8A to 8C (see FIG. 2) are provided.

この運転支援ユニット2は、制御部10、不揮発性のメインメモリ11、ROM12、GPS受信部13を備えている。制御部10は、CPU、MPU又はASIC等であって、ROM12に格納された運転支援プログラムに従って、各処理の主制御を行う。また、メインメモリ11は、制御部10の演算結果を一時記憶する。   The driving support unit 2 includes a control unit 10, a nonvolatile main memory 11, a ROM 12, and a GPS receiving unit 13. The control unit 10 is a CPU, MPU, ASIC, or the like, and performs main control of each process according to the driving support program stored in the ROM 12. The main memory 11 temporarily stores the calculation result of the control unit 10.

また、制御部10は、GPS衛星からGPS受信部13が受信した、衛星軌道情報及び時刻情報を取得して、電波航法により自車両の絶対位置を算出する。また、制御部10は、運転支援ユニット2の車両側I/F部14を介して、車両Cに設けられた車速センサ30及びジャイロ31から車速パルス、角速度がそれぞれ入力される。そして、制御部10は、車速パルス及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて自車位置を特定する。   Moreover, the control part 10 acquires the satellite orbit information and time information which the GPS receiving part 13 received from the GPS satellite, and calculates the absolute position of the own vehicle by radio wave navigation. Further, the control unit 10 receives vehicle speed pulses and angular velocities from the vehicle speed sensor 30 and the gyro 31 provided in the vehicle C via the vehicle side I / F unit 14 of the driving support unit 2. And the control part 10 calculates the relative position from a reference position by the autonomous navigation using a vehicle speed pulse and an angular velocity, and pinpoints the own vehicle position combining with the absolute position calculated by the radio wave navigation.

また、運転支援ユニット2は、地理データ記憶部15を備えている。地理データ記憶部15は、内蔵ハードディスク、又は光ディスク等の外部記憶媒体である。この地理データ記憶部15には、目的地までの経路を探索するための地図データとしての各経路ネットワークデータ(以下、経路データ16という)と、ディスプレイ3に地図画面3Aを出力するための地図データとしての各地図描画データ17とが記憶されている。   The driving support unit 2 includes a geographic data storage unit 15. The geographic data storage unit 15 is an external storage medium such as an internal hard disk or an optical disk. In the geographic data storage unit 15, each route network data (hereinafter referred to as route data 16) as map data for searching for a route to the destination, and map data for outputting the map screen 3A to the display 3 are displayed. Each map drawing data 17 is stored.

経路データ16は、全国を区画したメッシュ内の道路に関するデータである。経路データ16は、各メッシュの識別子、交差点及び道路の端点を示すノードに関するノードデータ、各ノードを接続する各リンクの識別子、リンクコスト等のデータを有している。制御部10は、この経路データ16を用いて、目的地までの推奨経路を探索したり、車両Cが交差点等の案内地点に接近しているか否かを判断する。   The route data 16 is data relating to roads in the mesh dividing the whole country. The route data 16 includes data such as identifiers of each mesh, node data related to nodes indicating intersections and road endpoints, identifiers of links connecting the nodes, and link costs. The control unit 10 uses the route data 16 to search for a recommended route to the destination, and determines whether the vehicle C is approaching a guide point such as an intersection.

また、地図描画データ17は、道路形状、背景等を描画するためのデータであって、全国の地図を分割したメッシュ毎に格納されている。この地図描画データ17には、中央線、路側帯を区画する白線、ゼブラゾーン、横断歩道等の道路標示と、信号機等の路面設置物とに関するデータが格納されている。具体的には道路標示の種類、道路標示の位置座標、路面設置物の種類、路面設置物の位置座標等が、各地点の交差点やカーブと関連付けられて記憶されている。   The map drawing data 17 is data for drawing a road shape, a background, and the like, and is stored for each mesh obtained by dividing a map of the whole country. The map drawing data 17 stores data on road markings such as a center line, a white line that divides a roadside zone, a zebra zone, and a pedestrian crossing, and road surface installations such as traffic lights. Specifically, the types of road markings, the position coordinates of road markings, the types of road surface installation objects, the position coordinates of road surface installation objects, and the like are stored in association with the intersections and curves of each point.

図1に示すように、運転支援ユニット2は、地図描画プロセッサ18を備えている。地図描画プロセッサ18は、自車位置周辺の地図を描画するための地図描画データ17を地理データ記憶部15から読出して、地図出力用のデータを生成し、地図出力用データに基づく地図画面3Aをディスプレイ3に表示する。また、地図描画プロセッサ18は、この地図画面3Aに、自車位置を示す車両位置マーク3Bを重畳する。   As shown in FIG. 1, the driving support unit 2 includes a map drawing processor 18. The map drawing processor 18 reads out the map drawing data 17 for drawing a map around the vehicle position from the geographic data storage unit 15, generates map output data, and displays the map screen 3A based on the map output data. Displayed on the display 3. Further, the map drawing processor 18 superimposes a vehicle position mark 3B indicating the vehicle position on the map screen 3A.

また、運転支援ユニット2は、音声プロセッサ24を備えている。音声プロセッサ24は、図示しない音声ファイルを有し、例えば目的地までの経路を案内する音声をスピーカ5から出力する。さらに、運転支援ユニット2は、外部入力I/F部25を備えている。外部入力I/F部25は、ディスプレイ3に隣接された操作スイッチ26、タッチパネル式のディスプレイ3から、ユーザの入力操作に基づいた入力信号が入力され、制御部10に出力する。   In addition, the driving support unit 2 includes an audio processor 24. The audio processor 24 has an audio file (not shown), and outputs, for example, audio from the speaker 5 that guides the route to the destination. Further, the driving support unit 2 includes an external input I / F unit 25. The external input I / F unit 25 receives an input signal based on a user input operation from the operation switch 26 adjacent to the display 3 and the touch panel display 3 and outputs the input signal to the control unit 10.

また、運転支援ユニット2は、検出手段を構成するセンサI/F部23を備えている。センサI/F部23は、2組の各第1〜第3位置検出センサ8A〜8C(図2参照)から、検出信号が入力される。2組の第1〜第3位置検出センサ8A〜8Cは、超音波センサから構成され、図2に示すように、車室内であって、運転席Fに着座した運転者51の周囲と、助手席Gに着座した乗員52(同乗者)の周囲とに取り付けられている。   The driving support unit 2 includes a sensor I / F unit 23 that constitutes a detection unit. The sensor I / F unit 23 receives detection signals from the two sets of first to third position detection sensors 8A to 8C (see FIG. 2). The two sets of first to third position detection sensors 8A to 8C are constituted by ultrasonic sensors, and as shown in FIG. It is attached around the occupant 52 (passenger) seated in the seat G.

また、運転席Fの周囲に取り付けられた各第1〜第3位置検出センサ8A〜8Cは、運転者51の頭部位置51Dを検出するために運転席Fの前側左右のルーフR(図3参照)の内側の天井部と運転席Fの左上側のルーフRの内側の天井部に配置されている。また、助手席Gの周囲に取り付けられた各第1〜第3位置検出センサ8A〜8Cは、助手席Gの乗員52の頭部位置52Dを検出するために助手席Gの前側左右のルーフRの内側の天井部と助手席Gの左上側のルーフRの内側の天井部に配置されている。   Further, the first to third position detection sensors 8A to 8C attached around the driver's seat F respectively detect the front and left roofs R (see FIG. 3) of the driver's seat F in order to detect the head position 51D of the driver 51. (See) and the inner ceiling of the roof R on the upper left side of the driver's seat F. Further, the first to third position detection sensors 8A to 8C attached to the periphery of the passenger seat G respectively detect the front and right roofs R of the passenger seat G in order to detect the head position 52D of the passenger 52 of the passenger seat G. Are arranged on the inner ceiling portion of the roof R on the upper left side of the passenger seat G.

そして、運転者51の周囲に配置された各位置検出センサ8A〜8Cの図示しないセンサヘッドから発信された超音波は、運転者51の頭部51Dで反射する。また、助手席Gの乗員52の周囲に配置された各位置検出センサ8A〜8Cの図示しないセンサヘッドから発信された超音波は、乗員52の頭部52Dで反射する。そして、各位置検出センサ8A〜8Cは、超音波を発信してから反射波を受信するまでの時間を計測し、その計測時間に基づいて、各頭部51D、52Dまでの各相対距離をそれぞれ算出する。そして、この算出された各相対距離は、センサI/F部23を介して制御部10に出力される。
尚、各位置検出センサ8A〜8Cからの信号に基づいて、センサI/F部23が各頭部51D、52Dまでの各相対距離を算出するようにしてもよい。
The ultrasonic waves transmitted from the sensor heads (not shown) of the position detection sensors 8A to 8C arranged around the driver 51 are reflected by the head 51D of the driver 51. In addition, ultrasonic waves transmitted from sensor heads (not shown) of the position detection sensors 8A to 8C arranged around the passenger 52 in the passenger seat G are reflected by the head 52D of the passenger 52. And each position detection sensor 8A-8C measures the time after transmitting an ultrasonic wave until receiving a reflected wave, and each relative distance to each head 51D and 52D based on the measurement time, respectively calculate. The calculated relative distances are output to the control unit 10 via the sensor I / F unit 23.
The sensor I / F unit 23 may calculate the relative distances to the heads 51D and 52D based on signals from the position detection sensors 8A to 8C.

また、制御部10は、運転席Fに着座した状態で、標準的な体型の運転者51の頭部51Dが移動し得る頭部移動範囲と、運転者51の周囲に配置された各第1〜第3位置検出センサ8A〜8Cが検出した各相対距離とに基づき、頭部位置としての頭部中心位置51DCを三角測量等を用いて、公知の方法で取得する。また、制御部10は、助手席Gに着座した状態で、標準的な体型の乗員52(同乗者)の頭部52Dが移動し得る頭部移動範囲と、助手席Gの乗員52の周囲に配置された各位置検出センサ8A〜8Cが検出した各相対距離とに基づき、頭部位置としての頭部中心位置52DCを三角測量等を用いて、公知の方法で取得する。   In addition, the control unit 10 is in a state where the head 51 </ b> D of the standard-type driver 51 can move in the state where the driver 10 is seated on the driver's seat F, and the first movement units arranged around the driver 51. Based on the relative distances detected by the third position detection sensors 8A to 8C, the head center position 51DC as the head position is obtained by a known method using triangulation or the like. In addition, the control unit 10 sits on the passenger seat G around the occupant 52 in the passenger seat G and the head movement range in which the head 52D of the standard occupant 52 (passenger) can move. Based on the relative distances detected by the arranged position detection sensors 8A to 8C, the head center position 52DC as the head position is obtained by a known method using triangulation or the like.

また、図1に示すように、運転支援ユニット2は、映像データ入力部22と、画像プロセッサ20とを備えている。映像データ入力部22は、制御部10の制御に基づいて、車両Cに設けられたカメラ6を駆動して、カメラ6によって撮影された画像データIMを取り込み、画像プロセッサ20に出力する。   As shown in FIG. 1, the driving support unit 2 includes a video data input unit 22 and an image processor 20. The video data input unit 22 drives the camera 6 provided in the vehicle C based on the control of the control unit 10, captures the image data IM captured by the camera 6, and outputs it to the image processor 20.

このカメラ6は、カラー画像を撮像するカメラであって、レンズ、ミラー等から構成される光学機構と、CCD撮像素子(いずれも図示せず)、自動焦点機構等を備えている。図3及び図4に示すように、このカメラ6は、実施例1では、車両右側に配置された運転席Fに合わせ、車両CのフロントウィンドウW1の車室内から見て右上隅部に、光軸を車両Cの前方に向けて取り付けられている。また、このカメラ6は、車両Cの前方右側と、車両Cの右側の一部を含む撮影領域Z1の背景を撮像する。   The camera 6 is a camera that captures a color image, and includes an optical mechanism including a lens, a mirror, and the like, a CCD image sensor (none of which is shown), an autofocus mechanism, and the like. As shown in FIGS. 3 and 4, in the first embodiment, the camera 6 has a light beam in the upper right corner as viewed from the passenger compartment of the front window W1 of the vehicle C in accordance with the driver's seat F disposed on the right side of the vehicle. The shaft is attached to the front of the vehicle C. In addition, the camera 6 captures an image of the background of the imaging region Z1 including the front right side of the vehicle C and a part of the right side of the vehicle C.

また、運転支援ユニット2の画像プロセッサ20は、映像データ入力部22を介して、カメラ6から画像データIMを取得する。また、画像プロセッサ20は、取得した画像データIMのうち、ピラーPによって遮られた領域をトリミングするとともに、画像の歪みを解消するための画像処理を行う。また、画像プロセッサ20は、後述のように運転者51と助手席Gの乗員52との各死角領域の映像をマルチビューディスプレイ4に表示する(図5参照)。   Further, the image processor 20 of the driving support unit 2 acquires the image data IM from the camera 6 via the video data input unit 22. In addition, the image processor 20 trims a region blocked by the pillar P in the acquired image data IM and performs image processing for eliminating image distortion. Moreover, the image processor 20 displays the image | video of each blind spot area | region of the driver | operator 51 and the passenger | crew 52 of the front passenger seat G on the multi view display 4 so that it may mention later (refer FIG. 5).

このマルチビューディスプレイ4は、図4に示すように、フロントピラーP(以下、単に「ピラーP」という。)の内側面PAに取り付けられ、異なった方向から見たときにそれぞれ個別の映像を表示することができる公知の表示装置である(例えば、特開2007−8235号公報参照。)。従って、図2に示すように、マルチビューディスプレイ4の中心を原点とした座標系において、運転席F側(第1領域)用の映像と助手席G側(第2領域)用の映像とをそれぞれ個別に表示できるものである。   As shown in FIG. 4, the multi-view display 4 is attached to an inner side surface PA of a front pillar P (hereinafter simply referred to as “pillar P”), and displays individual images when viewed from different directions. This is a known display device that can be used (for example, see Japanese Patent Application Laid-Open No. 2007-8235). Therefore, as shown in FIG. 2, in the coordinate system with the center of the multi-view display 4 as the origin, an image for the driver's seat F side (first region) and an image for the passenger seat G side (second region) are displayed. Each can be displayed individually.

これにより、後述のように、運転者51のピラーPによって死角領域になる部分の映像がマルチビューディスプレイ4の運転席F側用の映像として表示され、運転者51は、フロントウィンドウW1とドアウィンドウW2とが連続する映像を見ることが可能となる。また、助手席Gの乗員52のピラーPによって死角領域になる部分の映像がマルチディスプレイ4の助手席G側用の映像として表示され、乗員52はフロントウィンドウW1とドアウィンドウW2とが連続する映像を見ることが可能となる。   As a result, as will be described later, an image of a portion that becomes a blind spot area by the pillar P of the driver 51 is displayed as an image for the driver's seat F side of the multi-view display 4. It is possible to see an image in which W2 continues. In addition, an image of a part that becomes a blind spot area by the pillar P of the passenger 52 of the passenger seat G is displayed as an image for the passenger seat G side of the multi-display 4, and the passenger 52 has an image in which the front window W1 and the door window W2 are continuous. Can be seen.

次に、上記のように構成された運転支援ユニット2によってマルチビューディスプレイ4に運転者51及び助手席Gの乗員52のピラーPによる各死角領域の映像を表示する表示処理について図5乃至図10に基づいて説明する。   Next, display processing for displaying images of each blind spot area by the pillar P of the driver 51 and the passenger 52 in the passenger seat G on the multi-view display 4 by the driving support unit 2 configured as described above will be described with reference to FIGS. Based on

図5は運転支援ユニット2によってマルチビューディスプレイ4に運転者51及び助手席Gの乗員52のピラーPによる各死角領域の映像を表示する表示処理を示すフローチャートである。図6は運転者側基準点PCと助手席の同乗者側基準点PSとの説明図である。図7は運転席F側の運転者側仮想平面と撮影面との説明図である。図8は助手席G側の同乗者側仮想平面と撮影面との説明図である。図9は運転席F側の運転者側仮想平面と撮影面との説明図である。図10は助手席G側の同乗者側仮想平面と撮影面との説明図である。   FIG. 5 is a flowchart illustrating a display process in which the driving support unit 2 displays images of each blind spot area by the pillar P of the driver 51 and the passenger 52 in the passenger seat G on the multi-view display 4. FIG. 6 is an explanatory diagram of the driver side reference point PC and the passenger side reference point PS of the passenger seat. FIG. 7 is an explanatory diagram of a driver-side virtual plane and a photographing surface on the driver seat F side. FIG. 8 is an explanatory diagram of the passenger-side virtual plane on the passenger seat G side and the imaging plane. FIG. 9 is an explanatory diagram of the driver-side virtual plane and the photographing surface on the driver seat F side. FIG. 10 is an explanatory diagram of the passenger-side virtual plane on the passenger seat G side and the imaging plane.

図5に示すように、先ず、ステップ(以下、Sと略記する)11において、制御部10は、映像データ入力部22を介してカメラ6による撮影を開始する。これにより、カメラ6によって撮影された画像データIMが画像プロセッサ20に順次出力される。
そして、S12において、制御部10は、運転者51の周囲に配置された各位置検出センサ8A〜8Cから入力された運転者51の頭部51Dまでの各相対距離から運転者51の頭部中心位置51DCを算出してメインメモリ11に記憶する。
As shown in FIG. 5, first, in step (hereinafter abbreviated as “S”) 11, the control unit 10 starts photographing with the camera 6 via the video data input unit 22. Thereby, the image data IM photographed by the camera 6 is sequentially output to the image processor 20.
In S12, the control unit 10 determines the center of the head of the driver 51 from the relative distances to the head 51D of the driver 51 input from the position detection sensors 8A to 8C arranged around the driver 51. The position 51DC is calculated and stored in the main memory 11.

続いて、S13において、画像プロセッサ20は、メインメモリ11から運転者51の頭部中心位置51DCを読み出す。そして、画像プロセッサ20は、図6に示すように、運転者51の頭部中心位置51DCの路面J上への投影位置61と、ピラーPの下端部の路面J上への投影の中心位置62とを結ぶ直線上で、該投影位置61からピラーP側方向へ所定距離(実施例1では、約4mである。)の位置座標を地図描画データ17に基づいて取得し、運転者側基準位置PCとしてメインメモリ11に記憶する。   Subsequently, in S <b> 13, the image processor 20 reads the head center position 51 </ b> DC of the driver 51 from the main memory 11. Then, as shown in FIG. 6, the image processor 20 projects the projection position 61 of the head center position 51DC of the driver 51 onto the road surface J and the center position 62 of projection onto the road surface J of the lower end portion of the pillar P. Is obtained on the basis of the map drawing data 17 at a predetermined distance (approximately 4 m in the first embodiment) from the projection position 61 in the direction of the pillar P toward the pillar P side. Stored in the main memory 11 as a PC.

そして、画像プロセッサ20は、運転者側基準点PCの座標と、運転者51の頭部中心位置51DCとに基づいて、運転者側仮想平面VPの位置を決定する。運転者側仮想平面VPは、カメラ6によって撮影された画像を投影する平面である。また、この運転者側仮想平面VP上にある物体は、カメラ6によって撮影された画像データIMを運転者側仮想平面VP上に座標変換した際に、ずれたり傾いたりすることなく表示される性質がある。   Then, the image processor 20 determines the position of the driver-side virtual plane VP based on the coordinates of the driver-side reference point PC and the head center position 51DC of the driver 51. The driver-side virtual plane VP is a plane on which an image taken by the camera 6 is projected. The object on the driver-side virtual plane VP is displayed without being shifted or tilted when the image data IM photographed by the camera 6 is coordinate-converted on the driver-side virtual plane VP. There is.

そして、図7に示すように、画像プロセッサ20は、この運転者側仮想平面VPを、運転者側基準点PCを含み、投影位置61と運転者側基準点PCとを結んだ中心線LAに対して垂直になる位置に設定する。また、画像プロセッサ20は、運転者側仮想平面VPを、運転者51の頭部中心位置51DCとピラーPの各端点P1、P2を通る各接線L1、L2で区画された運転者51の死角領域A1の内側に設定する。   As shown in FIG. 7, the image processor 20 includes the driver-side virtual plane VP on a center line LA that includes the driver-side reference point PC and connects the projection position 61 and the driver-side reference point PC. Set it to a position that is perpendicular to it. Further, the image processor 20 divides the driver-side virtual plane VP into a blind spot area of the driver 51 defined by the tangent lines L1 and L2 passing through the head center position 51DC of the driver 51 and the end points P1 and P2 of the pillar P. Set inside A1.

続いて、S14において、画像プロセッサ20は、運転者側仮想平面VPの位置に応じて撮影面CPを決定する。撮影面CPは、カメラ6の焦点位置を示し、カメラ6の光軸AXに対して垂直な平面で表される。図7に示すように、画像プロセッサ20は、この撮影面CPを、運転者側仮想平面VPよりも、車両Cに近い位置であって、且つ、運転者51の死角領域A1によって区画された運転者側仮想平面VPの左端点VP1又は右端点VP2において交差する位置(所定位置)に設定する。ここでは、運転者51の頭部中心位置51DCを基準とし、撮影面CPを頭部中心位置51DCに近い位置に設定する。尚、各端点VPl、VP2は、頭部中心位置51DCとピラーPの端点P1、P2とをそれぞれ結ぶ各接線L1、L2と、運転者側仮想平面VPとの交点である。   Subsequently, in S14, the image processor 20 determines the imaging plane CP according to the position of the driver-side virtual plane VP. The imaging plane CP indicates the focal position of the camera 6 and is represented by a plane perpendicular to the optical axis AX of the camera 6. As shown in FIG. 7, the image processor 20 drives the imaging plane CP at a position closer to the vehicle C than the driver-side virtual plane VP and is partitioned by the blind spot area A1 of the driver 51. It is set to a position (predetermined position) that intersects at the left end point VP1 or the right end point VP2 of the person-side virtual plane VP. Here, the imaging plane CP is set at a position close to the head center position 51DC with reference to the head center position 51DC of the driver 51. Note that the end points VPl and VP2 are intersections between the tangent lines L1 and L2 that connect the head center position 51DC and the end points P1 and P2 of the pillar P, respectively, and the driver-side virtual plane VP.

撮影面CPの設定方法について詳述すると、まず、画像プロセッサ20は、カメラ6の光軸AXの方位と、運転者51の頭部中心位置51DCと運転者側基準点PCとを結んだ中心線LAの方位とを比較する。即ち、光軸AXと水平方向(Y矢印方向)とがなす角度θ1と、中心線LAと水平方向(Y矢印方向)とがなす角度θ2とを算出する。そして、光軸AXの角度θ1の大きさと中心線LAの角度θ2の大きさとを比較する。尚、X矢印方向は、車両Cの長手方向と平行な方向、Y矢印方向は、X矢印方向に対して直交する方向であって、車幅方向である。   The method of setting the imaging plane CP will be described in detail. First, the image processor 20 has a center line connecting the orientation of the optical axis AX of the camera 6, the head center position 51DC of the driver 51 and the driver side reference point PC. Compare the orientation of LA. That is, an angle θ1 formed by the optical axis AX and the horizontal direction (Y arrow direction) and an angle θ2 formed by the center line LA and the horizontal direction (Y arrow direction) are calculated. Then, the magnitude of the angle θ1 of the optical axis AX is compared with the magnitude of the angle θ2 of the center line LA. The X arrow direction is a direction parallel to the longitudinal direction of the vehicle C, and the Y arrow direction is a direction orthogonal to the X arrow direction and is a vehicle width direction.

そして、図7に示すように、光軸AXの角度θ1が、中心線LAの角度θ2よりも小さい場合(θ1<θ2)、画像プロセッサ20は、撮影面CPを、運転者側仮想平面VPの左端点VP1を通る位置に設定する。   As shown in FIG. 7, when the angle θ1 of the optical axis AX is smaller than the angle θ2 of the center line LA (θ1 <θ2), the image processor 20 sets the photographing surface CP to the driver-side virtual plane VP. It is set to a position passing through the left end point VP1.

また、図9に示すように、運転者51の頭部中心位置51DCが第2領域(図2参照)に位置する場合、即ち、運転者51がマルチビューディスプレイ4の助手席G側から見える映像を見る場合には、光軸AXの角度θ1が、中心線LAの角度θ2よりも大きくなる。この場合(θ1>θ2)には、撮影面CPは右端点VP2を通る位置に設定しなければならない。即ち、左端点VP1を通る位置に撮影面CPを設定すると、運転者側仮想平面VPよりも、車両Cから遠い位置に該撮影面CPが設定されてしまう。このため、画像プロセッサ20は、撮影面CPを、運転者側仮想平面VPの右端点VP2を通る位置に設定する。   Further, as shown in FIG. 9, when the head center position 51DC of the driver 51 is located in the second region (see FIG. 2), that is, an image that the driver 51 can see from the passenger seat G side of the multi-view display 4. , The angle θ1 of the optical axis AX is larger than the angle θ2 of the center line LA. In this case (θ1> θ2), the imaging plane CP must be set at a position passing through the right end point VP2. That is, when the photographing plane CP is set at a position passing through the left end point VP1, the photographing plane CP is set at a position farther from the vehicle C than the driver-side virtual plane VP. For this reason, the image processor 20 sets the imaging plane CP at a position that passes through the right end point VP2 of the driver-side virtual plane VP.

このとき、図9に示すように、左端点VP1と撮影面CPとが離間していることにより、ピラーPによって遮られている死角額域A1においてマルチビューディスプレイ4に映像を表示することができない非表示領域B1が生じる。この非表示領域B1は、実際には僅かな領域であるが、マルチビューディスプレイ4に映像を表示した際に、マルチビューディスプレイ4に表示された映像と、各ウィンドウW1、W2を介して見える実際の背景との連続性が若干損なわれる。一方、右端点VP2は、撮影面CPと接しているので、非表示領域B1が生じず、両端に非表示領域B1が存在する場合に比べ、マルチビューディスプレイ4に表示される映像の連続性が良好となる。   At this time, as shown in FIG. 9, since the left end point VP1 and the imaging plane CP are separated from each other, an image cannot be displayed on the multi-view display 4 in the blind spot frame area A1 blocked by the pillar P. A non-display area B1 is generated. The non-display area B1 is actually a small area, but when the video is displayed on the multi-view display 4, the video displayed on the multi-view display 4 and the actual image that can be seen through the windows W1 and W2 are displayed. The continuity with the background is slightly impaired. On the other hand, since the right end point VP2 is in contact with the imaging plane CP, the non-display area B1 does not occur, and the continuity of the video displayed on the multi-view display 4 is higher than when the non-display area B1 exists at both ends. It becomes good.

また、カメラ6の光軸AXの角度θ1と中心線LAの角度θ2とが等しい場合、即ち光軸AXと中心線LAとが重なる場合には、撮影面CPと運転者側仮想平面VPとを重ねることができるので、撮影面CPは運転者側仮想平面VPの位置に設定する。   When the angle θ1 of the optical axis AX of the camera 6 and the angle θ2 of the center line LA are equal, that is, when the optical axis AX and the center line LA overlap, the imaging plane CP and the driver side virtual plane VP are Since they can be overlapped, the photographing plane CP is set at the position of the driver-side virtual plane VP.

続いて、S15において、制御部10は、助手席Gの乗員52の周囲に配置された各位置検出センサ8A〜8Cから入力された助手席Gの乗員52の頭部52Dまでの各相対距離から助手席Gの乗員52の頭部中心位置52DCを算出してメインメモリ11に記憶する。   Subsequently, in S15, the control unit 10 determines each relative distance from the position detection sensors 8A to 8C arranged around the passenger 52 of the passenger seat G to the head 52D of the passenger 52 of the passenger seat G. The head center position 52DC of the passenger 52 in the passenger seat G is calculated and stored in the main memory 11.

そして、S16において、画像プロセッサ20は、メインメモリ11から助手席Gの乗員52(同乗者)の頭部中心位置52DCを読み出す。そして、画像プロセッサ20は、図6に示すように、助手席Gの乗員52(同乗者)の頭部中心位置52DCの路面J上への投影位置64と、ピラーPの下端部の路面J上への投影の中心位置62とを結ぶ直線上で、該投影位置64からピラーP側方向へ所定距離(実施例1では、約8mである。)の位置座標を地図描画データ17に基づいて取得し、同乗者側基準位置QCとしてメインメモリ11に記憶する。   In S <b> 16, the image processor 20 reads the head center position 52 </ b> DC of the passenger 52 (passenger) in the passenger seat G from the main memory 11. Then, as shown in FIG. 6, the image processor 20 projects the projection position 64 on the road surface J of the head center position 52DC of the passenger 52 (passenger) of the passenger seat G and the road surface J at the lower end of the pillar P. Based on the map drawing data 17, a position coordinate of a predetermined distance (approximately 8 m in the first embodiment) from the projection position 64 in the direction toward the pillar P on the straight line connecting the center position 62 of projection to the screen. And stored in the main memory 11 as the passenger side reference position QC.

そして、画像プロセッサ20は、同乗者側基準点QCの座標と、助手席Gの乗員52の頭部中心位置52DCとに基づいて、同乗者側仮想平面WPの位置を決定する。この同乗者側仮想平面WPは、カメラ6によって撮影された画像を投影する平面である。また、この同乗者側仮想平面WP上にある物体は、カメラ6によって撮影された画像データIMを同乗者側仮想平面WP上に座標変換した際に、ずれたり傾いたりすることなく表示される性質がある。   Then, the image processor 20 determines the position of the passenger-side virtual plane WP based on the coordinates of the passenger-side reference point QC and the head center position 52DC of the passenger 52 of the passenger seat G. The passenger-side virtual plane WP is a plane on which an image taken by the camera 6 is projected. The object on the passenger-side virtual plane WP is displayed without being shifted or tilted when the image data IM photographed by the camera 6 is coordinate-converted on the passenger-side virtual plane WP. There is.

そして、図8に示すように、画像プロセッサ20は、この同乗者側仮想平面WPを、頭部中心位置52DCの投影位置64と同乗者側基準位置QCとを結ぶ中心線LBに直交し、且つ、上記S14で設定された撮影面CPが、助手席Gの乗員52(同乗者)の頭部中心位置52DCとピラーPの各端点P1、P2を通る各接線L11、L12で区画された助手席Gの乗員52の死角領域A2と交差する左端点NP1と右端点NP2のうちの車両Cから遠い位置の右端点NP2を通る位置に設定する。これにより、画像プロセッサ20は、同乗者側仮想平面WPを撮影面CPよりも車両Cから遠い位置に設定する。また、同乗者側仮想平面WPの右端点WP2は、撮影面CPの接線L12と交差する右端点NP2と一致する。また、同乗者側仮想平面WPの左端点WP1は、この同乗者側仮想平面WPと接線L11との交差する点となる。   Then, as shown in FIG. 8, the image processor 20 makes the passenger-side virtual plane WP orthogonal to the center line LB connecting the projection position 64 of the head center position 52DC and the passenger-side reference position QC, and The passenger's seat in which the photographing plane CP set in S14 is defined by the tangents L11 and L12 passing through the head center position 52DC of the passenger 52 (passenger) of the passenger seat G and the end points P1 and P2 of the pillar P, respectively. The left end point NP1 and the right end point NP2 intersecting the blind spot area A2 of the passenger 52 of G are set to a position passing through the right end point NP2 at a position far from the vehicle C. Thereby, the image processor 20 sets the passenger-side virtual plane WP at a position farther from the vehicle C than the imaging plane CP. Further, the right end point WP2 of the passenger-side virtual plane WP coincides with the right end point NP2 that intersects the tangent line L12 of the imaging plane CP. Further, the left end point WP1 of the passenger-side virtual plane WP is a point where the passenger-side virtual plane WP and the tangent line L11 intersect.

続いて、S17において、画像プロセッサ20は、映像データ入力部22を介して、撮影面CP上にカメラ6の焦点を合わせて撮影し、画像データIMを取得する。   Subsequently, in S <b> 17, the image processor 20 captures an image with the focus of the camera 6 on the imaging surface CP via the video data input unit 22 and acquires image data IM.

そして、S18において、画像プロセッサ20は、図7及び図9に示すように、この取得した画像データIMのうち、運転者側仮想平面VPに投影する投影部分CP1をトリミングして、ピラー死角データBD1を生成する。即ち、図7及び図9に示すように、画像プロセッサ20は、画像データIMのうち、カメラ位置6Aと各端点VP1、VP2とを結んだ各直線L3、L4の間の投影部分CP1をトリミングする。投影部分CP1をトリミングしたデータは、ピラー死角データBD1となる。   In S18, as shown in FIGS. 7 and 9, the image processor 20 trims the projection portion CP1 projected on the driver-side virtual plane VP in the acquired image data IM, and the pillar blind spot data BD1. Is generated. That is, as shown in FIGS. 7 and 9, the image processor 20 trims the projection portion CP1 between the straight lines L3 and L4 connecting the camera position 6A and the end points VP1 and VP2 in the image data IM. . Data obtained by trimming the projection portion CP1 becomes pillar blind spot data BD1.

ピラー死角データBD1を取得すると、画像プロセッサ20は、ピラー死角データBD1を、運転者側仮想平面VPに投影変換する。この投影変換は、運転者51の頭部中心位置51DCを中心として投射することにより、投影部分CP1の各画素を、運転者側仮想平面VP上の各画素に座標変換する処理であり、この座標変換により運転者51の視点から見た画像である運転者側画像データPD1を生成する。   When the pillar blind spot data BD1 is acquired, the image processor 20 projects and converts the pillar blind spot data BD1 onto the driver-side virtual plane VP. This projection conversion is a process of performing coordinate conversion of each pixel of the projection portion CP1 to each pixel on the driver-side virtual plane VP by projecting around the head center position 51DC of the driver 51. Driver-side image data PD1 that is an image viewed from the viewpoint of the driver 51 is generated by the conversion.

続いて、S19において、画像プロセッサ20は、図8及び図10に示すように、この取得した画像データIMのうち、同乗者側仮想平面WPに投影する投影部分CP2をトリミングして、ピラー死角データBD2を生成する。即ち、図8及び図10に示すように、画像プロセッサ20は、画像データIMのうち、カメラ位置6Aと各端点WP1、WP2とを結んだ各直線L13、L14の間の投影部分CP2をトリミングする。投影部分CP2をトリミングしたデータは、ピラー死角データBD2となる。   Subsequently, in S19, as shown in FIGS. 8 and 10, the image processor 20 trims the projection portion CP2 to be projected onto the passenger-side virtual plane WP from the acquired image data IM, and the pillar blind spot data. BD2 is generated. That is, as shown in FIGS. 8 and 10, the image processor 20 trims the projection portion CP2 between the straight lines L13 and L14 connecting the camera position 6A and the end points WP1 and WP2 in the image data IM. . Data obtained by trimming the projection part CP2 becomes pillar blind spot data BD2.

ピラー死角データBD2を取得すると、画像プロセッサ20は、ピラー死角データBD2を、同乗者側仮想平面WPに投影変換する。この投影変換は、助手席Gの乗員52の頭部中心位置52DCを中心として投射することにより、投影部分CP2の各画素を、同乗者側仮想平面WP上の各画素に座標変換する処理であり、この座標変換により助手席Gの乗員52の視点から見た画像である同乗者側画像データPD2を生成する。   When the pillar blind spot data BD2 is acquired, the image processor 20 projects and converts the pillar blind spot data BD2 onto the passenger-side virtual plane WP. This projection conversion is a process of performing coordinate conversion of each pixel of the projection portion CP2 to each pixel on the passenger-side virtual plane WP by projecting around the head center position 52DC of the passenger 52 of the passenger seat G. By this coordinate conversion, passenger-side image data PD2 that is an image viewed from the viewpoint of the passenger 52 of the passenger seat G is generated.

そして、S20において、画像プロセッサ20は、運転者側画像データPD1を、マルチビューディスプレイ4の画面上に投影変換する。この投影変換は、運転者51の頭部中心位置51DCを中心として投射することにより、運転者側画像データPD1の各画素をマルチビューディスプレイ4の画素に座標変換して、マルチビューディスプレイ4の運転席F側用の映像となる運転者側表示用データOD1を生成する処理を行う。これは、中心線LA、即ち、運転者51の視線方向に対して垂直である運転者側画像データPD1を、運転者51の視線方向に対して垂直に設置されていないマルチビューディスプレイ4にそのまま表示すると、運転者51の視点からは画像が歪んで見えてしまうため、これを防止するための処理である。   In S <b> 20, the image processor 20 projects and converts the driver-side image data PD <b> 1 on the screen of the multi-view display 4. In this projection conversion, each pixel of the driver-side image data PD1 is converted into a pixel of the multi-view display 4 by projecting around the head center position 51DC of the driver 51, and the multi-view display 4 is driven. Processing for generating driver-side display data OD1 that is an image for the seat F side is performed. This is because the driver side image data PD1 that is perpendicular to the center line LA, that is, the line of sight of the driver 51 is directly displayed on the multi-view display 4 that is not installed perpendicular to the line of sight of the driver 51. When displayed, the image appears distorted from the viewpoint of the driver 51, and this is a process for preventing this.

また、同様に、画像プロセッサ20は、同乗者側画像データPD2を、マルチビューディスプレイ4の画面上に投影変換する。この投影変換は、助手席Gの乗員52の頭部中心位置52DCを中心として投射することにより、同乗者側画像データPD2の各画素をマルチビューディスプレイ4の画素に座標変換して、マルチビューディスプレイ4の助手席G側用の映像となる同乗者側表示用データOD2を生成する処理を行う。   Similarly, the image processor 20 projects and converts the passenger-side image data PD2 onto the screen of the multi-view display 4. In this projection conversion, each pixel of the passenger-side image data PD2 is converted into a pixel of the multi-view display 4 by projecting around the head center position 52DC of the passenger 52 in the passenger seat G, and the multi-view display 4 performs processing for generating passenger-side display data OD2 that is an image for the passenger seat G side.

続いて、S21において、画像プロセッサ20は、メインメモリ11から運転者51の頭部中心位置51DCを読み出す。そして、画像プロセッサ20は、図2に示すように、マルチビューディスプレイ4の中心を原点とした座標系において、この運転者51の頭部中心位置51DCが、運転席F側の第1領域に位置しているか否か、即ち、運転者51の姿勢が、マルチビューディスプレイ4の運転席F側用の映像を見る姿勢か否かを判定する判定処理を実行する。   Subsequently, in S <b> 21, the image processor 20 reads the head center position 51 </ b> DC of the driver 51 from the main memory 11. Then, as shown in FIG. 2, the image processor 20 is configured such that the head center position 51DC of the driver 51 is positioned in the first area on the driver's seat F side in the coordinate system with the center of the multi-view display 4 as the origin. Determination processing is executed to determine whether or not the driver 51 is in the posture of viewing the video for the driver's seat F side of the multi-view display 4.

そして、運転者51の頭部中心位置51DCが、運転席F側の第1領域に位置している場合、即ち、運転者51の姿勢が、マルチビューディスプレイ4の運転席F側用の映像を見る姿勢の場合には(S21:YES)、画像プロセッサ20は、S22の処理に移行する。S22において、画像プロセッサ20は、上記S20で生成した運転者側表示用データOD1を運転席F側用の映像データとしてマルチビューディスプレイ4に出力すると共に、上記S20で生成した同乗者側表示用データOD2を助手席G側用の映像データとしてマルチビューディスプレイ4に出力して、当該処理を終了する。これにより、運転者51と助手席Gの乗員52は、それぞれの方向から見たときのピラーPによって遮られる死角領域の異なった映像を見ることができる。   When the head center position 51DC of the driver 51 is located in the first region on the driver's seat F side, that is, the posture of the driver 51 displays an image for the driver's seat F side of the multi-view display 4. In the case of the viewing posture (S21: YES), the image processor 20 proceeds to the process of S22. In S22, the image processor 20 outputs the driver side display data OD1 generated in S20 to the multi-view display 4 as video data for the driver's seat F side, and the passenger side display data generated in S20. OD2 is output to the multi-view display 4 as video data for the passenger seat G side, and the process ends. As a result, the driver 51 and the passenger 52 in the passenger seat G can see different images of the blind spot area blocked by the pillar P when viewed from the respective directions.

一方、運転者51の頭部中心位置51DCが、助手席G側の第2領域に位置している場合、即ち、運転者51の姿勢が、前のめりになって、マルチビューディスプレイ4の助手席G側用の映像を見る姿勢の場合には(S21:NO)、画像プロセッサ20は、S23の処理に移行する。S23において、画像プロセッサ20は、上記S20で生成した運転者側表示用データOD1を運転席F側用の映像データ及び助手席G側用の映像データとしてマルチビューディスプレイ4に出力して、当該処理を終了する。これにより、運転者51と助手席Gの乗員52は、運転者51の方向から見たときのピラーPによって遮られる死角領域の同じ映像を見ることができる。   On the other hand, when the head center position 51DC of the driver 51 is located in the second region on the passenger seat G side, that is, the posture of the driver 51 is turned forward, the passenger seat G of the multi-view display 4 is displayed. If the posture is to watch the video for the side (S21: NO), the image processor 20 proceeds to the process of S23. In S23, the image processor 20 outputs the driver-side display data OD1 generated in S20 to the multi-view display 4 as video data for the driver's seat F and video data for the passenger's seat G, and performs the processing. Exit. As a result, the driver 51 and the passenger 52 in the passenger seat G can see the same image of the blind spot area blocked by the pillar P when viewed from the direction of the driver 51.

以上詳細に説明した通り、実施例1に係る運転支援システム1では、運転者51の頭部位置51Dが、図2に示す第1領域にある場合には(S21:YES)、運転者51及び助手席Gの乗員52(同乗者)のピラーPによって生じる各死角領域A1、A2の画像をピラーPの内側に取り付けられたマルチビューディスプレイ4に、それぞれの方向から見た映像として表示することが可能となる。このため、運転者51及び助手席Gの乗員52が、共に違和感を感じない各死角領域A1、A2の画像をピラーPに取り付けられたマルチビューディスプレイ4に表示することが可能となる。   As explained in detail above, in the driving support system 1 according to the first embodiment, when the head position 51D of the driver 51 is in the first region shown in FIG. 2 (S21: YES), the driver 51 and An image of each blind spot area A1, A2 generated by the pillar P of the passenger 52 (passenger) in the passenger seat G can be displayed on the multi-view display 4 attached to the inside of the pillar P as an image viewed from each direction. It becomes possible. For this reason, it becomes possible for the driver 51 and the passenger 52 in the passenger seat G to display the images of the blind spot areas A1 and A2 that do not feel strange on the multi-view display 4 attached to the pillar P.

また、運転者51の頭部位置51Dが、マルチビューディスプレイ4の助手席Gの乗員52の方向から見た映像が見える位置にある場合、即ち、図2に示す第2領域にある場合には(S21:NO)、運転者51のピラーPによって生じる死角領域A1によって区画される投影部分CP1の画像データをマルチビューディスプレイ4の運転席F側用の映像データ及び助手席G側用の映像データとして表示する。このため、運転者51及び助手席Gの乗員52が、共に違和感を感じない死角領域A1の画像をピラーPに取り付けられたマルチビューディスプレイ4に表示することが可能となる。   Further, when the head position 51D of the driver 51 is at a position where an image viewed from the direction of the passenger 52 of the passenger seat G of the multi-view display 4 can be seen, that is, in the second region shown in FIG. (S21: NO), the image data of the projection portion CP1 defined by the blind spot area A1 generated by the pillar P of the driver 51 is used as the video data for the driver's seat F side and the video data for the passenger seat G side of the multi-view display 4. Display as. Therefore, the driver 51 and the passenger 52 in the passenger seat G can both display an image of the blind spot area A1 that does not feel uncomfortable on the multi-view display 4 attached to the pillar P.

また、カメラ6の撮影面CPを、運転者51の死角領域A1によって区画された運転者側仮想平面VPの左端点VP1又は右端点VP2を通る位置に設定するため、マルチビューディスプレイ4の運転者51から見た方向の映像は、連続性が高く、明瞭で自然な画像を表示することが可能となる。また、この撮影面CPの画像データから助手席Gの乗員52(同乗者)の死角領域A2によって区画される部分の撮影面CPの画像データを抽出して、マルチビューディスプレイ4の助手席Gの乗員52から見た方向の映像として表示するため、当該マルチビューディスプレイ4の助手席Gの乗員52から見た方向の映像も、連続性が高く、明瞭で自然な画像を表示することが可能となる。従って、運転者51及び助手席Gの乗員52が、共に違和感を感じない画像をピラーPに取り付けられたマルチビューディスプレイ4に表示することが可能となる。   In addition, since the photographing plane CP of the camera 6 is set to a position passing through the left end point VP1 or the right end point VP2 of the driver side virtual plane VP defined by the blind spot area A1 of the driver 51, the driver of the multi-view display 4 is set. The video in the direction viewed from 51 has high continuity, and a clear and natural image can be displayed. Further, the image data of the imaging plane CP of the portion defined by the blind spot area A2 of the passenger 52 (passenger) of the passenger seat G is extracted from the image data of the imaging plane CP, and the image of the passenger seat G of the multi-view display 4 is extracted. Since it is displayed as an image in the direction viewed from the occupant 52, the image in the direction viewed from the occupant 52 of the passenger seat G of the multi-view display 4 is also highly continuous and can display a clear and natural image. Become. Therefore, the driver 51 and the passenger 52 in the passenger seat G can both display an image that does not feel strange on the multi-view display 4 attached to the pillar P.

また、カメラ6の撮影面CPを運転者側仮想平面VPよりも車両Cに近い位置に設定するため、カメラ6によって撮影された撮影面CP上の画像の余剰領域にピントが合わず、マルチビューディスプレイ4の運転者から見た方向の映像は、更に連続性が高く、明瞭で自然な画像を表示することが可能となる。
また、同乗者側仮想平面WPをカメラ6の撮影面CPよりも車両Cから遠い位置に設定するため、カメラ6によって撮影された撮影面CP上の画像の余剰領域にピントが合わず、マルチビューディスプレイ4の助手席Gの乗員52から見た方向の映像は、更に連続性が高く、明瞭で自然な画像を表示することが可能となる。
Further, since the shooting plane CP of the camera 6 is set at a position closer to the vehicle C than the driver-side virtual plane VP, the surplus area of the image on the shooting plane CP shot by the camera 6 is not focused, and the multi-view The video in the direction viewed from the driver of the display 4 has higher continuity and can display a clear and natural image.
Further, since the passenger-side virtual plane WP is set at a position farther from the vehicle C than the shooting plane CP of the camera 6, the surplus area of the image on the shooting plane CP shot by the camera 6 is not focused, and the multi-view The image in the direction viewed from the passenger 52 of the passenger seat G of the display 4 has a higher continuity and can display a clear and natural image.

また、カメラ6の光軸AXの方位と、運転者51の頭部位置51Dの路面J上への投影位置61及び運転者側基準位置PCを結ぶ中心線LAの方位とに応じて、撮影面CPの通る各端点VP1、VP2が変更される。このため、撮影面CPを運転者側仮想平面VPの手前に常に設定することが可能となる。
更に、助手席Gの乗員52の頭部位置52D及び同乗者側基準位置QCを結ぶ中心線LBに直交し、且つ、撮影面CPが該助手席Gの乗員52の死角領域A2と交差する両端WP1、WP2のうち車両Cから遠い位置の右端点WP2を通る位置に同乗者側仮想平面WPが設定される。このため、撮影面CPを同乗者側仮想平面WPの手前に常に設定することが可能となる。
Further, according to the azimuth of the optical axis AX of the camera 6 and the azimuth of the center line LA connecting the projection position 61 of the head position 51D of the driver 51 onto the road surface J and the driver side reference position PC. The end points VP1 and VP2 through which the CP passes are changed. For this reason, it is possible to always set the photographing surface CP in front of the driver-side virtual plane VP.
Further, both ends of the passenger seat G that are perpendicular to the center line LB that connects the head position 52D of the passenger 52 and the passenger-side reference position QC, and the imaging plane CP intersects the blind spot area A2 of the passenger 52 of the passenger seat G. The passenger-side virtual plane WP is set at a position passing through the right end point WP2 far from the vehicle C among WP1 and WP2. For this reason, it is possible to always set the imaging plane CP in front of the passenger-side virtual plane WP.

次に、実施例2に係る運転支援システム111について図11乃至図13に基づいて説明する。
尚、以下の説明において上記図1乃至図10の実施例1に係る運転支援システム1の構成等と同一符号は、該実施例1に運転支援システム1の構成等と同一あるいは相当部分を示すものである。
Next, the driving support system 111 according to the second embodiment will be described with reference to FIGS. 11 to 13.
In the following description, the same reference numerals as those of the driving support system 1 according to the first embodiment shown in FIGS. 1 to 10 denote the same or corresponding parts as those of the driving support system 1 according to the first embodiment. It is.

この実施例2に係る運転支援システム111の概略構成及び制御構成は、実施例1に係る運転支援システム1とほぼ同じ構成である。
但し、図11に示すように、運転支援ユニット2は、上記S11の処理に替えて、S111の処理を実行し、また、運転支援ユニット2は、上記S19の処理に続いて、S120乃至S122の処理を実行する点で、実施例1に係る運転支援システム1と異なっている。
The schematic configuration and control configuration of the driving support system 111 according to the second embodiment are substantially the same as those of the driving support system 1 according to the first embodiment.
However, as shown in FIG. 11, the driving support unit 2 executes the process of S111 instead of the process of S11, and the driving support unit 2 performs the processes of S120 to S122 following the process of S19. The driving support system 1 according to the first embodiment is different in that the process is executed.

以下、実施例2に係る運転支援システム111の運転支援ユニット2によってマルチビューディスプレイ4に運転者51及び助手席Gの乗員52のピラーPによる各死角領域の映像を表示する表示処理について図11乃至図13に基づいて説明する。   Hereinafter, display processing for displaying images of each blind spot area by the pillar P of the driver 51 and the passenger 52 of the passenger seat G on the multi-view display 4 by the driving support unit 2 of the driving support system 111 according to the second embodiment will be described with reference to FIGS. This will be described with reference to FIG.

図11及び図12は、実施例2に係る運転支援システム111の運転支援ユニット2によってマルチビューディスプレイ4に運転者51及び助手席Gの乗員52のピラーPによる各死角領域A1、A2の映像を表示する表示処理を示すフローチャートである。図13は運転席F側の運転者側仮想平面VPと撮影面CP、及び助手席G側の同乗者側仮想平面WPと所定距離手前の撮影面CPとの説明図である。尚、図13は、カメラ6の光軸AXの角度θ1と中心線LAの角度θ2とが等しい場合、即ち光軸AXと中心線LAとが重なる場合を示す図である。この場合には、撮影面CPと運転者側仮想平面VPとを重ねることができるので、撮影面CPは運転者側仮想平面VPの位置に設定される。   11 and 12 show images of the blind spot areas A1 and A2 by the driver P of the driver 51 and the passenger 52 of the passenger seat G on the multi-view display 4 by the driving support unit 2 of the driving support system 111 according to the second embodiment. It is a flowchart which shows the display process to display. FIG. 13 is an explanatory diagram of the driver-side virtual plane VP and the imaging plane CP on the driver seat F side, and the passenger-side virtual plane WP on the passenger seat G side and the imaging plane CP in front of a predetermined distance. FIG. 13 is a diagram showing a case where the angle θ1 of the optical axis AX of the camera 6 is equal to the angle θ2 of the center line LA, that is, a case where the optical axis AX and the center line LA overlap. In this case, since the photographing surface CP and the driver-side virtual plane VP can be overlapped, the photographing surface CP is set at the position of the driver-side virtual plane VP.

図11及び図12に示すように、先ず、S111において、制御部10は、映像データ入力部22を介してカメラ6による撮影を開始する。また、カメラ6によって撮影された画像データIMが画像プロセッサ20に順次出力される。また、画像プロセッサ20は、カメラ6によって撮影された画像データIMを所定距離(例えば、約1m〜3mである。)走行する毎にメインメモリ11に格納する。   As shown in FIGS. 11 and 12, first, in S <b> 111, the control unit 10 starts photographing with the camera 6 via the video data input unit 22. Further, the image data IM photographed by the camera 6 is sequentially output to the image processor 20. The image processor 20 stores the image data IM captured by the camera 6 in the main memory 11 every time it travels a predetermined distance (for example, about 1 m to 3 m).

そして、S112において、制御部10は、上記S12の処理を実行する。
続いて、S113乃至S119において、画像プロセッサ20は、上記S13乃至S19の処理を実行する。尚、S114において、画像プロセッサ20は、所定距離毎に設定した撮影面CPをメインメモリ11に記憶している。
In step S112, the control unit 10 executes the process in step S12.
Subsequently, in S113 to S119, the image processor 20 executes the processes of S13 to S19. In S <b> 114, the image processor 20 stores the imaging plane CP set for each predetermined distance in the main memory 11.

その後、S120において、画像プロセッサ20は、上記S119で取得した画像データIMのうち、同乗者側仮想平面WPに投影する投影部分CP2をトリミングして、ピラー死角データBD2を生成できたか否か、即ち、カメラ6の撮影面CPが、助手席Gの乗員52(同乗者)の頭部中心位置52DCとピラーPの端点P2を通る接線L12と交差する範囲まで広いか否かを判定する判定処理を実行する。   Thereafter, in S120, the image processor 20 trims the projection portion CP2 projected on the passenger-side virtual plane WP in the image data IM acquired in S119, and determines whether or not the pillar blind spot data BD2 can be generated, that is, Determination processing for determining whether or not the photographing surface CP of the camera 6 is wide enough to intersect with the tangent L12 passing through the head center position 52DC of the passenger 52 (passenger) of the passenger seat G and the end point P2 of the pillar P. Execute.

そして、上記S119で取得した画像データIMのうち、同乗者側仮想平面WPに投影する投影部分CP2をトリミングして、ピラー死角データBD2を生成できた場合、即ち、カメラ6の撮影面CPが、助手席Gの乗員52(同乗者)の頭部中心位置52DCとピラーPの端点P2を通る接線L12と交差する範囲まで広い場合には(S120:YES)、画像プロセッサ20は、S123の処理に移行する。そして、画像プロセッサ20は、S123乃至S126において、上記S20乃至S23の処理を実行後、当該処理を終了する。   Then, in the image data IM acquired in S119, the projection part CP2 projected onto the passenger-side virtual plane WP can be trimmed to generate the pillar blind spot data BD2, that is, the imaging plane CP of the camera 6 is When the range is wide enough to intersect the tangent L12 passing through the head center position 52DC of the passenger 52 (passenger) of the passenger seat G and the end point P2 of the pillar P (S120: YES), the image processor 20 performs the process of S123. Transition. Then, in S123 to S126, the image processor 20 ends the process after executing the processes of S20 to S23.

一方、上記S119で取得した画像データIMのうち、同乗者側仮想平面WPに投影する投影部分CP2をトリミングして、ピラー死角データBD2を生成できなかった場合、即ち、カメラ6の撮影面CPが、助手席Gの乗員52(同乗者)の頭部中心位置52DCとピラーPの端点P2を通る接線L12と交差していない場合には(S120:NO)、画像プロセッサ20は、カメラ6の画角が小さくて撮影範囲が狭いと判定してS121の処理に移行する。S121において、画像プロセッサ20は、車両Cの現在位置から所定距離(例えば、約1m〜3mである。)手前で設定された撮影面CPと、この撮影面CPに対応するカメラ6によって撮影された画像データIMとをメインメモリ11から取得する。   On the other hand, in the image data IM acquired in S119, the projection part CP2 projected onto the passenger-side virtual plane WP cannot be trimmed to generate the pillar blind spot data BD2, that is, the imaging plane CP of the camera 6 is In the case where the head center position 52DC of the passenger 52 (passenger) in the passenger seat G does not intersect the tangent L12 passing through the end point P2 of the pillar P (S120: NO), the image processor 20 displays the image of the camera 6 It is determined that the angle is small and the shooting range is narrow, and the process proceeds to S121. In S121, the image processor 20 was photographed by the photographing plane CP set in front of a predetermined distance (for example, about 1 m to 3 m) from the current position of the vehicle C and the camera 6 corresponding to the photographing plane CP. Image data IM is acquired from the main memory 11.

そして、S122において、画像プロセッサ20は、図13に示すように、同乗者側仮想平面WPに替えて、車両Cの現在位置から所定距離(例えば、約1m〜3mである。)手前で設定された撮影面CPに基づいて同乗者側仮想平面XPを設定する。この同乗者側仮想平面XPは、車両Cの現在位置から所定距離(例えば、約1m〜3mである。)手前でカメラ6によって撮影された画像を投影する平面である。また、この同乗者側仮想平面XP上にある物体は、カメラ6によって撮影された画像データIMを同乗者側仮想平面XP上に座標変換した際に、ずれたり傾いたりすることなく表示される性質がある。   In S122, the image processor 20 is set in front of a predetermined distance (for example, about 1 m to 3 m) from the current position of the vehicle C instead of the passenger-side virtual plane WP as shown in FIG. The passenger side virtual plane XP is set based on the photographing plane CP. The passenger-side virtual plane XP is a plane on which an image photographed by the camera 6 is projected in front of a predetermined distance (for example, about 1 m to 3 m) from the current position of the vehicle C. Further, the object on the passenger-side virtual plane XP is displayed without being shifted or tilted when the image data IM photographed by the camera 6 is coordinate-converted on the passenger-side virtual plane XP. There is.

具体的には、図13に示すように、画像プロセッサ20は、この同乗者側仮想平面XPを、頭部中心位置52DCの投影位置64と同乗者側基準位置QCとを結ぶ中心線LBに直交し、且つ、車両Cの現在位置から所定距離(例えば、約1m〜3mである。)手前で設定された撮影面CPが、助手席Gの乗員52(同乗者)の頭部中心位置52DCとピラーPの各端点P1、P2を通る各接線L11、L12で区画された助手席Gの乗員52の死角領域A2と交差する左端点NP1と右端点NP2のうちの車両Cから遠い位置の右端点NP2を通る位置に設定する。また、同乗者側仮想平面XPの右端点XP2は、撮影面CPの接線L12と交差する右端点NP2と一致する。また、同乗者側仮想平面XPの左端点XP1は、この同乗者側仮想平面XPと接線L11との交差する点となる。   Specifically, as shown in FIG. 13, the image processor 20 orthogonally crosses the passenger-side virtual plane XP with a center line LB connecting the projection position 64 of the head center position 52DC and the passenger-side reference position QC. In addition, the imaging plane CP set in front of a predetermined distance (for example, about 1 m to 3 m) from the current position of the vehicle C is the head center position 52DC of the passenger 52 (passenger) in the passenger seat G. The right end point far from the vehicle C among the left end point NP1 and the right end point NP2 intersecting the blind spot area A2 of the passenger 52 of the passenger seat G defined by the tangents L11, L12 passing through the end points P1, P2 of the pillar P Set to a position that passes through NP2. Further, the right end point XP2 of the passenger-side virtual plane XP coincides with the right end point NP2 that intersects the tangent line L12 of the imaging surface CP. Further, the left end point XP1 of the passenger-side virtual plane XP is a point where the passenger-side virtual plane XP intersects the tangent L11.

続いて、画像プロセッサ20は、図13に示すように、車両Cの現在位置から所定距離(例えば、約1m〜3mである。)手前でカメラ6によって撮影された画像データIMのうち、同乗者側仮想平面XPに投影する投影部分CP2をトリミングして、ピラー死角データBD2を生成する。即ち、図13に示すように、画像プロセッサ20は、所定距離手前の画像データIMのうち、各接線L11、L12の間の投影部分CP2をトリミングする。投影部分CP2をトリミングしたデータは、ピラー死角データBD2となる。   Subsequently, as shown in FIG. 13, the image processor 20 is a passenger in the image data IM photographed by the camera 6 before a predetermined distance (for example, about 1 m to 3 m) from the current position of the vehicle C. The projection part CP2 projected onto the side virtual plane XP is trimmed to generate pillar blind spot data BD2. That is, as shown in FIG. 13, the image processor 20 trims the projection portion CP2 between the tangents L11 and L12 in the image data IM before a predetermined distance. Data obtained by trimming the projection part CP2 becomes pillar blind spot data BD2.

ピラー死角データBD2を取得すると、画像プロセッサ20は、ピラー死角データBD2を、同乗者側仮想平面XPに投影変換する。この投影変換は、助手席Gの乗員52の頭部中心位置52DCを中心として投射することにより、投影部分CP2の各画素を、同乗者側仮想平面XP上の各画素に座標変換する処理であり、この座標変換により助手席Gの乗員52の視点から見た画像である同乗者側画像データPD2を生成後、S123の処理に移行する。そして、画像プロセッサ20は、S123乃至S126において、上記S20乃至S23の処理を実行後、当該処理を終了する。   When the pillar blind spot data BD2 is acquired, the image processor 20 projects and converts the pillar blind spot data BD2 onto the passenger-side virtual plane XP. This projection conversion is a process of performing coordinate conversion of each pixel of the projection portion CP2 to each pixel on the passenger-side virtual plane XP by projecting around the head center position 52DC of the passenger 52 of the passenger seat G. After generating the passenger side image data PD2 which is an image viewed from the viewpoint of the passenger 52 of the passenger seat G by this coordinate conversion, the process proceeds to S123. Then, in S123 to S126, the image processor 20 ends the process after executing the processes of S20 to S23.

以上詳細に説明した通り、実施例2に係る運転支援システム111では、上記実施例1に係る運転支援システム1の効果に加えて、以下の効果を奏する。
画像プロセッサ20は、取得した画像データIMのうち、同乗者側仮想平面WPに投影する投影部分CP2をトリミングして、ピラー死角データBD2を生成できなかった場合、即ち、カメラ6の撮影面CPが、助手席Gの乗員52(同乗者)の頭部中心位置52DCとピラーPの端点P2を通る接線L12と交差していない場合には(S120:NO)、車両Cの現在位置から所定距離(例えば、約1m〜3mである。)手前で設定された撮影面CPと、この撮影面CPに対応するカメラ6によって撮影された画像データIMとから、同乗者側仮想平面XPを設定して、同乗者側画像データPD2を作成することが可能となる(S121〜S122)。
As described above in detail, the driving support system 111 according to the second embodiment has the following effects in addition to the effects of the driving support system 1 according to the first embodiment.
The image processor 20 trims the projection portion CP2 projected on the passenger-side virtual plane WP in the acquired image data IM and cannot generate the pillar blind spot data BD2, that is, the imaging plane CP of the camera 6 is When the head center position 52DC of the passenger 52 (passenger) in the passenger seat G does not intersect the tangent L12 passing through the end point P2 of the pillar P (S120: NO), a predetermined distance from the current position of the vehicle C ( For example, it is about 1 m to 3 m.) From the imaging plane CP set in front and the image data IM captured by the camera 6 corresponding to the imaging plane CP, the passenger-side virtual plane XP is set, The passenger side image data PD2 can be created (S121 to S122).

このため、カメラ6の画角が小さくて撮影範囲が狭い場合にも、助手席Gの乗員52のピラーPによる死角領域A2によって区画される部分の撮影面CPの画像データIMを抽出して、マルチビューディスプレイ4の助手席Gの乗員52側から見た方向の映像として表示することが可能となり、当該マルチビューディスプレイ4の助手席Gの乗員52側から見た方向の映像も、連続性が高く、明瞭で自然な画像を表示することが可能となる。従って、カメラ6の画角が小さい場合にも、運転者51及び助手席Gの乗員52(同乗者)が、共に違和感を感じない画像をピラーPに設けられたマルチビューディスプレイ4に表示することが可能となる。   For this reason, even when the angle of view of the camera 6 is small and the imaging range is narrow, the image data IM of the imaging surface CP of the portion partitioned by the blind spot area A2 due to the pillar P of the passenger 52 of the passenger seat G is extracted. The multi-view display 4 can be displayed as an image in the direction viewed from the passenger 52 side of the passenger seat G, and the image in the direction viewed from the passenger 52 side of the passenger seat G of the multi-view display 4 is also continuous. A high, clear and natural image can be displayed. Therefore, even when the angle of view of the camera 6 is small, the driver 51 and the passenger 52 (passenger) in the passenger seat G display an image that does not feel uncomfortable on the multi-view display 4 provided in the pillar P. Is possible.

尚、本発明は上記実施例1及び実施例2に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。例えば、以下のようにしてもよい。   In addition, this invention is not limited to the said Example 1 and Example 2, Of course, various improvement and deformation | transformation are possible within the range which does not deviate from the summary of this invention. For example, the following may be used.

(A)上記マルチビューディスプレイ4をLCD(LiquidCrystal Display)、つまり液晶ディスプレーだけに限らず、可撓性の高い例えば低温ポリシリコンTFT(ThinFilm Transistor)液晶ディスプレーを使用すれば、図4に示したフラットな形状に限られず、ピラーPの内側面PAの曲面に沿って貼り付けて用いることができ、その分だけ車室内側への突出量を抑えることで、車室内スペースを拡大できるメリットがある。   (A) If the multi-view display 4 is not limited to an LCD (Liquid Crystal Display), that is, a liquid crystal display, but a highly flexible, for example, low-temperature polysilicon TFT (ThinFilm Transistor) liquid crystal display, the flat display shown in FIG. It is not limited to a simple shape, and can be used by being attached along the curved surface of the inner side surface PA of the pillar P. There is an advantage that the vehicle interior space can be expanded by suppressing the amount of protrusion to the vehicle interior side accordingly.

(B)また、カメラ6は車両CのフロントウィンドウW1の車室内から見て右上隅部にに取り付けられているが、運転席F側のバックミラーの外側、サンバイザー、ピラーPの外側面等、運転者51及び助手席Gの乗員52(同乗者)のピラーPによって生じる各死角領域A1、A2を撮影できれば何処に設けられていてもよい。   (B) The camera 6 is attached to the upper right corner as viewed from the passenger compartment of the front window W1 of the vehicle C. The blind spot areas A1 and A2 generated by the pillars P of the driver 51 and the passenger 52 (passenger) of the passenger seat G may be provided anywhere.

(C)また、上記実施例2において、上記ステップ119の処理を実行後、ステップ120の処理を実行することなく、ステップ121の処理に移行するようにしてもよい。これにより、実施例2に係る運転支援システム111の効果に加えて、画像プロセッサ20による処理速度の高速化を図ることができる。   (C) In the second embodiment, after executing the process of step 119, the process of step 121 may be performed without executing the process of step 120. Thereby, in addition to the effect of the driving support system 111 according to the second embodiment, the processing speed of the image processor 20 can be increased.

実施例1に係る運転支援システムの構成を説明するブロック図である。1 is a block diagram illustrating a configuration of a driving support system according to a first embodiment. 運転者の頭部と助手席の乗員の頭部を検出する位置検出センサの説明図である。It is explanatory drawing of the position detection sensor which detects a driver | operator's head and the passenger | crew's head of a passenger seat. カメラの取付位置の説明図である。It is explanatory drawing of the attachment position of a camera. カメラ及びマルチビューディスプレイの取付位置の説明図である。It is explanatory drawing of the attachment position of a camera and a multi view display. 運転支援ユニットによってマルチビューディスプレイに運転者及び助手席の乗員のピラーによる各死角領域の映像を表示する表示処理を示すフローチャートである。It is a flowchart which shows the display process which displays the image | video of each blind spot area | region by the driver | operator and passenger's passenger's pillar on a multi view display by a driving assistance unit. 運転者側基準点と同乗者側基準点との説明図である。It is explanatory drawing of a driver | operator side reference point and a passenger side reference point. 運転席側の運転者側仮想平面と撮影面との説明図である。It is explanatory drawing of the driver | operator side virtual plane of a driver's seat side, and an imaging surface. 助手席側の同乗者側仮想平面と撮影面との説明図である。It is explanatory drawing of the passenger side virtual plane and imaging surface of the passenger seat side. 運転席側の運転者側仮想平面と撮影面との説明図である。It is explanatory drawing of the driver | operator side virtual plane of a driver's seat side, and an imaging surface. 助手席側の同乗者側仮想平面と撮影面との説明図である。It is explanatory drawing of the passenger side virtual plane and imaging surface of the passenger seat side. 実施例2に係る運転支援システムの運転支援ユニットによってマルチビューディスプレイに運転者及び助手席の乗員のピラーによる各死角領域の映像を表示する表示処理を示すフローチャートである。12 is a flowchart illustrating display processing for displaying images of each blind spot area by pillars of drivers and passengers on a multi-view display by the driving support unit of the driving support system according to the second embodiment. 運転支援ユニットによってマルチビューディスプレイに運転者及び助手席の乗員のピラーによる死角領域の映像を表示する表示処理を示すフローチャートである。It is a flowchart which shows the display process which displays the image | video of the blind spot area | region by the driver | operator and passenger's passenger's pillar on a multi view display by a driving assistance unit. 運転席側の運転者側仮想平面と撮影面、及び助手席側の同乗者側仮想平面と所定距離手前の撮影面との説明図である。It is explanatory drawing of the driver | operator side virtual plane and imaging | photography surface of a driver's seat side, the passenger side virtual plane of a passenger seat side, and the imaging | photography surface before a predetermined distance.

符号の説明Explanation of symbols

1 運転支援システム
2 運転支援ユニット
4 マルチビューディスプレイ
6 カメラ
10 制御部
11 メインメモリ
12 ROM
20 画像プロセッサ
22 映像データ入力部
51 運転者
52 乗員(同乗者)
61、64 投影位置
A1、A2 死角領域
AX 光軸
CP 撮影面
F 運転席
G 助手席
L1、L2、L11、L12 接線
LA、LB 中心線
NP1 左端点
NP2 右端点
P フロントピラー(ピラー)
PC 運転者側基準位置
QC 同乗者側基準位置
VP 運転者側仮想平面
VP1 左端点
VP2 右端点
WP、XP 同乗者側仮想平面
WP1、XP1 左端点
WP2、XP2 右端点
DESCRIPTION OF SYMBOLS 1 Driving assistance system 2 Driving assistance unit 4 Multi view display 6 Camera 10 Control part 11 Main memory 12 ROM
20 Image processor 22 Video data input part 51 Driver 52 Crew (passenger)
61, 64 Projection position A1, A2 Blind spot area AX Optical axis CP Imaging surface F Driver's seat G Passenger's seat L1, L2, L11, L12 Tangent LA, LB Center line NP1 Left end point NP2 Right end point P Front pillar (pillar)
PC Driver side reference position QC Passenger side reference position VP Driver side virtual plane VP1 Left end point VP2 Right end point WP, XP Passenger side virtual plane WP1, XP1 Left end point WP2, XP2 Right end point

Claims (11)

車両外部を撮影する撮影手段から前記車両のフロントピラーによって生じる運転者の死角領域を含む画像データを取得する画像データ取得手段と、
前記画像データから前記運転者の死角領域によって区画される部分の画像データを抽出する運転者側抽出手段と、
前記画像データから同乗者の死角領域によって区画される部分の画像データを抽出する同乗者側抽出手段と、
前記フロントピラーの内側に設けられて少なくとも運転者と同乗者の各方向から見たときにそれぞれ個別の映像の表示が可能なマルチビュー表示手段に、前記運転者側抽出手段によって抽出された画像データを前記運転者から見た方向の映像として表示すると共に、前記同乗者側抽出手段によって抽出された画像データを前記同乗者から見た方向の映像として表示するように制御するマルチビュー表示制御手段と、
を備えたことを特徴とする運転支援装置。
Image data acquisition means for acquiring image data including a driver's blind spot area generated by a front pillar of the vehicle from imaging means for imaging the outside of the vehicle;
Driver-side extraction means for extracting image data of a portion partitioned by the driver's blind spot area from the image data;
Passenger side extraction means for extracting image data of a portion partitioned by the blind spot area of the passenger from the image data;
Image data extracted by the driver-side extraction means on the multi-view display means provided inside the front pillar and capable of displaying individual images at least when viewed from each direction of the driver and passengers Multi-view display control means for controlling the image data extracted by the passenger-side extraction means to be displayed as an image of the direction seen from the passenger ,
A driving support apparatus comprising:
前記マルチビュー表示制御手段は、前記運転者の頭部位置が前記マルチビュー表示手段の前記同乗者の方向から見た映像が見える位置にあるか否かを判定する頭部位置判定手段を有し、
該マルチビュー表示制御手段は、前記運転者の頭部位置が前記マルチビュー表示手段の前記同乗者の方向から見た映像が見える位置にあると判定した場合には、前記運転者側抽出手段によって抽出された画像データを前記運転者と同乗者とから見た各方向の映像として表示するように制御することを特徴とする請求項1に記載の運転支援装置。
The multi-view display control means includes head position determination means for determining whether or not the driver's head position is at a position where an image viewed from the passenger's direction of the multi-view display means can be seen. ,
When the multi-view display control means determines that the driver's head position is at a position where the image viewed from the passenger's direction of the multi-view display means can be seen, the driver-side extraction means The driving support device according to claim 1, wherein the extracted image data is controlled to be displayed as an image in each direction viewed from the driver and a passenger.
前記画像データ取得手段によって取得された画像データを順次記憶する画像データ記憶手段と、
前記画像データ取得手段によって取得された画像データから前記同乗者の死角領域によって区画される部分の画像データを抽出できるか否かを判定する抽出判定手段と、
を備え、
前記同乗者側抽出手段は、前記画像データ取得手段によって取得された画像データから前記同乗者の死角領域によって区画される部分の画像データを抽出できないと判定された場合には、自車位置から所定距離手前の位置で記憶した画像データから前記同乗者の死角領域によって区画される部分の画像データを抽出することを特徴とする請求項1又は請求項2に記載の運転支援装置。
Image data storage means for sequentially storing the image data acquired by the image data acquisition means;
Extraction determination means for determining whether or not image data of a portion partitioned by the blind spot area of the fellow passenger can be extracted from the image data acquired by the image data acquisition means;
With
When it is determined that the image data of a portion defined by the passenger's blind spot area cannot be extracted from the image data acquired by the image data acquisition unit, the passenger-side extraction unit determines a predetermined value from the own vehicle position. The driving support device according to claim 1 or 2, wherein image data of a portion partitioned by the blind spot area of the fellow passenger is extracted from image data stored at a position before the distance.
前記画像データ取得手段によって取得された画像データのうちの前記運転者の死角領域の画像データを投影する運転者側仮想平面を設定する運転者側仮想平面設定手段と、
前記撮影手段の撮影面を、前記運転者の死角領域によって区画された前記運転者側仮想平面の端点を通る位置に設定する撮影面設定手段と、
前記画像データ取得手段によって取得された画像データのうちの同乗者の死角領域の画像データを投影する同乗者側仮想平面を設定する同乗者側仮想平面設定手段と、
前記撮影面設定手段によって設定された撮影面に前記撮影手段の焦点を合わせて前記画像データを取得するように制御する焦点制御手段と、
前記運転者側抽出手段によって抽出された画像データを前記運転者側仮想平面に座標変換する運転者側画像処理手段と、
前記同乗者側抽出手段によって抽出された画像データを前記同乗者側仮想平面に座標変換する同乗者側画像処理手段と、
を備え、
前記マルチビュー表示制御手段は、前記運転者側画像処理手段によって前記運転者側仮想平面に座標変換された画像データを前記運転席から見た方向の映像として表示すると共に、前記同乗者側画像処理手段によって前記同乗者側仮想平面に座標変換された画像データを前記同乗者から見た方向の映像として表示することを特徴とする請求項1乃至請求項3のいずれかに記載の運転支援装置。
Driver-side virtual plane setting means for setting a driver-side virtual plane for projecting image data of the driver's blind spot area of the image data acquired by the image data acquisition means;
A photographing surface setting means for setting a photographing surface of the photographing means to a position passing through an end point of the driver-side virtual plane defined by the driver's blind spot area;
Passenger-side virtual plane setting means for setting a passenger-side virtual plane for projecting image data of the blind spot area of the passenger among the image data acquired by the image data acquisition means;
A focus control means for controlling the photographing surface set by the photographing surface setting means to obtain the image data by focusing the photographing means;
Driver-side image processing means for coordinate-converting the image data extracted by the driver-side extraction means into the driver-side virtual plane;
Passenger-side image processing means for coordinate-converting the image data extracted by the passenger-side extraction means into the passenger-side virtual plane;
With
The multi-view display control means displays the image data coordinate-transformed on the driver-side virtual plane by the driver-side image processing means as an image viewed from the driver's seat, and the passenger-side image processing The driving support device according to any one of claims 1 to 3, wherein the image data coordinate-converted to the passenger-side virtual plane by means is displayed as an image in a direction viewed from the passenger.
前記撮影面設定手段は、前記撮影手段の撮影面を前記運転者側仮想平面よりも前記車両に近い位置に設定することを特徴とする請求項4に記載の運転支援装置。   The driving support apparatus according to claim 4, wherein the imaging plane setting unit sets the imaging plane of the imaging unit closer to the vehicle than the driver-side virtual plane. 前記同乗者側仮想平面設定手段は、前記同乗者側仮想平面を前記撮影手段の撮影面よりも前記車両から遠い位置に設定することを特徴とする請求項5に記載の運転支援装置。   6. The driving support apparatus according to claim 5, wherein the passenger-side virtual plane setting unit sets the passenger-side virtual plane at a position farther from the vehicle than the imaging plane of the imaging unit. 前記運転者側仮想平面設定手段は、前記運転者の頭部位置と前記フロントピラーとのそれぞれの路面上への投影位置とに基づいて該運転者の前記死角領域における路面上の運転者側基準位置を設定後、前記運転者側基準位置を通る位置に前記運転者側仮想平面を設定し、
前記撮影面設定手段は、前記撮影手段の光軸の方位と、前記運転者の頭部位置の路面上への投影位置及び前記運転者側基準位置を結ぶ直線の方位とに基づいて、前記撮影面が交差する前記運転者側仮想平面の端点を選択することを特徴とする請求項4乃至請求項6のいずれかに記載の運転支援装置。
The driver-side virtual plane setting means is configured so that the driver-side reference on the road surface in the blind spot area of the driver based on the head position of the driver and the projection position on the road surface of the front pillar. After setting the position, set the driver-side virtual plane at a position that passes the driver-side reference position,
The imaging plane setting means is based on the azimuth of the optical axis of the imaging means and the azimuth of a straight line connecting the projected position of the driver's head position on the road surface and the driver-side reference position. The driving support device according to any one of claims 4 to 6, wherein an end point of the driver-side virtual plane where planes intersect is selected.
前記同乗者側仮想平面設定手段は、前記同乗者の頭部位置と前記フロントピラーとのそれぞれの路面上への投影位置とに基づいて該同乗者の前記死角領域における路面上の同乗者側基準位置を設定後、前記同乗者の頭部位置及び前記同乗者側基準位置を結ぶ直線に直交し、且つ、前記撮影面が該同乗者の前記死角領域と交差する両端点のうち前記車両から遠い位置の端点を通る位置に前記同乗者側仮想平面を設定することを特徴とする請求項7に記載の運転支援装置。   The passenger-side virtual plane setting means is configured to provide a passenger-side reference on the road surface in the blind spot area of the passenger based on the head position of the passenger and the projected position of the front pillar on each road surface. After setting the position, it is orthogonal to a straight line connecting the passenger's head position and the passenger-side reference position, and the imaging plane is far from the vehicle at both end points intersecting the blind spot area of the passenger. The driving support device according to claim 7, wherein the passenger-side virtual plane is set at a position passing through an end point of the position. 前記画像データ記憶手段は、前記撮影面の画像データを順次記憶し、
前記抽出判定手段は、前記撮影面設定手段によって設定された前記撮影面の画像データから前記同乗者の死角領域によって区画される部分の撮影面の画像データを抽出できるか否かを判定し、
前記同乗者側抽出手段は、前記撮影面設定手段によって設定された前記撮影面の画像データから前記同乗者の死角領域によって区画される部分の撮影面の画像データを抽出できないと判定された場合には、自車位置から所定距離手前の位置で記憶した撮影面の画像データから前記同乗者の死角領域によって区画される部分の撮影面の画像データを抽出し、
前記同乗者側画像処理手段は、該同乗者側抽出手段によって抽出された画像データを前記同乗者側仮想平面に座標変換することを特徴とする請求項4乃至請求項8のいずれかに記載の運転支援装置。
The image data storage means sequentially stores image data of the photographing surface,
The extraction determining means determines whether or not image data of a photographing surface of a portion partitioned by the blind spot area of the fellow passenger can be extracted from the image data of the photographing surface set by the photographing surface setting means,
When it is determined that the passenger side extraction means cannot extract the image data of the photographing surface of the portion defined by the blind spot area of the passenger from the image data of the photographing surface set by the photographing surface setting means. Is to extract the image data of the imaging surface of the portion partitioned by the blind spot area of the passenger from the image data of the imaging surface stored at a position a predetermined distance before the own vehicle position,
9. The passenger-side image processing unit performs coordinate conversion of the image data extracted by the passenger-side extraction unit into the passenger-side virtual plane, according to any one of claims 4 to 8. Driving assistance device.
車両外部を撮影する撮影手段から前記車両のフロントピラーによって生じる運転者の死角領域を含む画像データを取得する画像データ取得工程と、
前記画像データから前記運転者の死角領域によって区画される部分の画像データを抽出する運転者側抽出工程と、
前記画像データから同乗者の死角領域によって区画される部分の画像データを抽出する同乗者側抽出工程と、
前記フロントピラーの内側に設けられて少なくとも運転者と同乗者の各方向から見たときにそれぞれ個別の映像の表示が可能なマルチビュー表示手段に、前記運転者側抽出工程で抽出された画像データを前記運転者から見た方向の映像として表示すると共に、前記同乗者側抽出工程で抽出された画像データを前記同乗者から見た方向の映像として表示するように制御するマルチビュー表示制御工程と、
を備えたことを特徴とする運転支援方法。
An image data acquisition step of acquiring image data including a blind spot area of a driver generated by a front pillar of the vehicle from an imaging unit that images the outside of the vehicle;
A driver-side extraction step of extracting image data of a portion partitioned by the driver's blind spot area from the image data;
Passenger side extraction step of extracting the image data of the portion partitioned by the blind spot area of the passenger from the image data,
Image data extracted in the driver-side extraction step in multi-view display means provided inside the front pillar and capable of displaying individual images at least when viewed from each direction of the driver and the passenger. A multi-view display control process for controlling the image data extracted in the passenger-side extraction process to be displayed as an image of the direction viewed from the passenger, ,
A driving support method comprising:
コンピュータに、
車両外部を撮影する撮影手段から前記車両のフロントピラーによって生じる運転者
の死角領域を含む画像データを取得する画像データ取得工程と、
前記画像データから前記運転者の死角領域によって区画される部分の画像データを
抽出する運転者側抽出工程と、
前記画像データから同乗者の死角領域によって区画される部分の画像データを抽出
する同乗者側抽出工程と、
前記フロントピラーの内側に設けられて少なくとも運転者と同乗者の各方向から見
たときにそれぞれ個別の映像の表示が可能なマルチビュー表示手段に、前記運転者側抽出工程で抽出された画像データを前記運転者から見た方向の映像として表示すると共に、前記同乗者側抽出工程で抽出された画像データを前記同乗者から見た方向の映像として表示するように制御するマルチビュー表示制御工程と、
を実行させるためのプログラム。
On the computer,
An image data acquisition step of acquiring image data including a blind spot area of a driver generated by a front pillar of the vehicle from an imaging unit that images the outside of the vehicle;
A driver-side extraction step of extracting image data of a portion partitioned by the driver's blind spot area from the image data;
A passenger-side extraction step of extracting image data of a portion partitioned by the passenger's blind spot area from the image data;
The image data extracted in the driver-side extraction step is provided in a multi-view display means provided inside the front pillar and capable of displaying individual images at least when viewed from each direction of the driver and the passenger. A multi-view display control process for controlling the image data extracted in the passenger-side extraction process to be displayed as an image of the direction viewed from the passenger, ,
A program for running
JP2007163683A 2007-06-21 2007-06-21 Driving support device, driving support method, and program Pending JP2009005054A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007163683A JP2009005054A (en) 2007-06-21 2007-06-21 Driving support device, driving support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007163683A JP2009005054A (en) 2007-06-21 2007-06-21 Driving support device, driving support method, and program

Publications (1)

Publication Number Publication Date
JP2009005054A true JP2009005054A (en) 2009-01-08

Family

ID=40320964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007163683A Pending JP2009005054A (en) 2007-06-21 2007-06-21 Driving support device, driving support method, and program

Country Status (1)

Country Link
JP (1) JP2009005054A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150002642A1 (en) * 2013-07-01 2015-01-01 RWD Consulting, LLC Vehicle visibility improvement system
JP2016511194A (en) * 2013-03-15 2016-04-14 ジェンテックス コーポレイション Display mirror assembly
WO2017141431A1 (en) * 2016-02-19 2017-08-24 三菱電機株式会社 Display system, display device and control device
JP2018147063A (en) * 2017-03-02 2018-09-20 マツダ株式会社 Information control device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016511194A (en) * 2013-03-15 2016-04-14 ジェンテックス コーポレイション Display mirror assembly
US20150002642A1 (en) * 2013-07-01 2015-01-01 RWD Consulting, LLC Vehicle visibility improvement system
WO2015002885A1 (en) * 2013-07-01 2015-01-08 Rwd Consulting, Inc. Vehicle visibility improvement system
WO2017141431A1 (en) * 2016-02-19 2017-08-24 三菱電機株式会社 Display system, display device and control device
JPWO2017141431A1 (en) * 2016-02-19 2018-05-24 三菱電機株式会社 Display system, display device and control device
JP2018147063A (en) * 2017-03-02 2018-09-20 マツダ株式会社 Information control device

Similar Documents

Publication Publication Date Title
JP4862774B2 (en) Driving support method and driving support device
CN111433067B (en) Head-up display device and display control method thereof
EP1961613B1 (en) Driving support method and driving support device
EP1974998B1 (en) Driving support method and driving support apparatus
US8094190B2 (en) Driving support method and apparatus
JP4412365B2 (en) Driving support method and driving support device
JP4784572B2 (en) Driving support method and driving support device
JP4855158B2 (en) Driving assistance device
US8536995B2 (en) Information display apparatus and information display method
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP2008022125A (en) Driving support apparatus
JP6945933B2 (en) Display system
US20080258888A1 (en) Driving support method and driving support system
JP7151073B2 (en) Display device and computer program
CA2821601A1 (en) Environment image display apparatus for transport machine
JP6873350B2 (en) Display control device and display control method
JP2009005054A (en) Driving support device, driving support method, and program
JP4862775B2 (en) Driving support method and driving support device
WO2018030320A1 (en) Vehicle display device
WO2020084827A1 (en) Superimposed-image display device, and computer program