JP2008213649A - Periphery monitoring device for vehicle - Google Patents

Periphery monitoring device for vehicle Download PDF

Info

Publication number
JP2008213649A
JP2008213649A JP2007053171A JP2007053171A JP2008213649A JP 2008213649 A JP2008213649 A JP 2008213649A JP 2007053171 A JP2007053171 A JP 2007053171A JP 2007053171 A JP2007053171 A JP 2007053171A JP 2008213649 A JP2008213649 A JP 2008213649A
Authority
JP
Japan
Prior art keywords
display
driver
imaging
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007053171A
Other languages
Japanese (ja)
Inventor
Tadashi Matsui
唯史 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007053171A priority Critical patent/JP2008213649A/en
Publication of JP2008213649A publication Critical patent/JP2008213649A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To display an image of a driver's blind spot in a mode without making the driver feel odd. <P>SOLUTION: The periphery monitoring device for a vehicle is equipped with a peripheral environment monitoring camera 10 for imaging the outside of a vehicle, a camera direction control part 34 for changing an imaging direction of the peripheral environment monitoring camera 10, a display 44 or 49 for displaying an image captured by the peripheral environment monitoring camera 10, a driver monitoring camera 20 for imaging a driver and a sight line direction detecting part 32 for detecting a sight line direction of a driver from the image result of the driver monitoring camera 20, wherein a camera direction control part 34 changes the imaging direction of the peripheral environment monitoring camera 10 so as to capture an image at the dead angle following the change when a sight line of a driver detected by the sight line direction detecting part 32 is changed to a direction of display 44 or 49. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、運転者の死角をカバーする画像を表示する車両用周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that displays an image that covers a blind spot of a driver.

従来から、車両の周囲状況を撮像する撮像手段と、当該撮像手段により撮像された周囲状況を外部の画像領域情報として取得する外部画像領域取得手段とを有する車両周囲視認装置を備えた車両周囲視認システムであって、前記車両周囲視認装置は、前記車両のピラー部に嵌め込まれた画像表示モニタと、前記車両の運転者による視線の位置を検出する視線位置検出手段と、前記視線位置検出手段により検出された視線位置に基づいて、前記撮像手段により取得された画像領域情報のうち、前記運転者の死角視野となる死角画像領域を抽出する死角画像領域抽出手段と、前記画像表示モニタに、前記死角画像領域を表示する制御をおこなう画像表示制御手段と、を備えた車両周囲視認システムが知られている(例えば、特許文献1参照)。
特開2005−125828号公報
Conventionally, a vehicle surroundings visual recognition provided with a vehicle surroundings visual recognition device having an imaging means for capturing an ambient situation of the vehicle and an external image area acquisition means for acquiring the ambient situation imaged by the imaging means as external image area information. In the system, the vehicle periphery visual recognition device includes an image display monitor fitted in a pillar portion of the vehicle, a visual line position detection unit that detects a visual line position by a driver of the vehicle, and the visual line position detection unit. Based on the detected line-of-sight position, out of the image area information acquired by the imaging means, a blind spot image area extracting means for extracting a blind spot image area that becomes a blind spot visual field of the driver, and the image display monitor, 2. Description of the Related Art A vehicle surrounding visual recognition system including an image display control unit that performs control to display a blind spot image region is known (see, for example, Patent Document 1).
JP 2005-125828 A

しかしながら、特許文献1に記載の発明では、車外に設けた広角固定カメラを使用して、運転者の視線方向に相当する車外風景画像を切り抜き表示するため、モニタに表示される画像が、実際に運転者が目視した場合の窓外の風景と整合せず、運転者に違和感を与える虞がある。   However, in the invention described in Patent Document 1, since the outside scenery image corresponding to the driver's line-of-sight direction is clipped and displayed using a wide-angle fixed camera provided outside the car, the image displayed on the monitor is actually This is inconsistent with the scenery outside the window when viewed by the driver, and may cause the driver to feel uncomfortable.

そこで、本発明は、運転者の死角の画像を違和感の無い態様で表示することができる車両用周辺監視装置の提供を目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a vehicle periphery monitoring device that can display an image of a driver's blind spot in an uncomfortable manner.

上記目的を達成するため、第1の発明に係る車両用周辺監視装置は、車両の外部を撮像する第1撮像手段と、
前記撮像手段の撮像方向を変化させる撮像方向制御手段と、
車両の運転者の死角を形成する車両部材に設けられ、前記第1撮像手段により撮像される画像を表示する表示手段と、
運転者を撮像する第2撮像手段と、
前記第2撮像手段の撮像結果に基づいて、運転者の視線方向を検出する視線方向検出手段を備え、
前記撮像方向制御手段は、前記視線方向検出手段により検出された運転者の視線方向が前記表示手段の方向に変化した場合に、該変化に追従して、前記死角の画像が捕捉されるように前記第1撮像手段の撮像方向を変化させることを特徴とする。
In order to achieve the above object, a vehicle periphery monitoring apparatus according to a first aspect of the present invention includes first imaging means for imaging the outside of a vehicle,
Imaging direction control means for changing the imaging direction of the imaging means;
Display means provided on a vehicle member forming a blind spot of a driver of the vehicle and displaying an image captured by the first imaging means;
A second imaging means for imaging the driver;
Gaze direction detecting means for detecting the gaze direction of the driver based on the imaging result of the second imaging means,
When the driver's line-of-sight direction detected by the line-of-sight direction detecting unit changes in the direction of the display unit, the imaging direction control unit follows the change and captures the blind spot image. The imaging direction of the first imaging unit is changed.

第2の発明は、第1の発明に係る車両用周辺監視装置において、
前記第1撮像手段は、前記車両部材付近に取り付けられることを特徴とする。
A second invention is the vehicle periphery monitoring apparatus according to the first invention,
The first imaging means is attached in the vicinity of the vehicle member.

第3の発明は、第1の発明に係る車両用周辺監視装置において、
前記表示手段は、前記視線方向検出手段により検出された運転者の視線方向が前記表示手段の方向に変化した際に起動される、請求項1に記載の車両用周辺監視装置。
A third aspect of the invention is the vehicle periphery monitoring device according to the first aspect of the invention,
2. The vehicle periphery monitoring device according to claim 1, wherein the display unit is activated when the driver's line-of-sight direction detected by the line-of-sight direction detection unit changes in the direction of the display unit.

第4の発明は、第1の発明に係る車両用周辺監視装置において、
前記第1撮像手段により撮像された画像の一部を、前記表示手段の画面のサイズに応じたサイズで切り抜いて、前記表示手段で表示される表示画像を生成する表示画像生成手段を更に備えることを特徴とする。
4th invention is the vehicle periphery monitoring apparatus which concerns on 1st invention,
The image processing apparatus further includes a display image generation unit configured to cut out a part of the image captured by the first imaging unit with a size corresponding to a screen size of the display unit and generate a display image displayed on the display unit. It is characterized by.

第5の発明は、第1の発明に係る車両用周辺監視装置において、
前記表示画像生成手段は、前記第1撮像手段により撮像された画像のうちの、前記死角の画像部分を切り抜いて、前記表示画像を生成することを特徴とする。
A fifth aspect of the present invention is the vehicle periphery monitoring apparatus according to the first aspect,
The display image generation unit generates the display image by cutting out the image portion of the blind spot from the image captured by the first imaging unit.

第6の発明は、第1の発明に係る車両用周辺監視装置において、
前記車両部材は、ピラー、ドア、ダッシュボード及びルーフのうちの少なくともいずれか1つであることを特徴とする。
A sixth invention is the vehicle periphery monitoring apparatus according to the first invention,
The vehicle member may be at least one of a pillar, a door, a dashboard, and a roof.

第7の発明は、第1の発明に係る車両用周辺監視装置において、
前記車両部材はルーフであり、
前記表示手段は、前記視線方向検出手段により検出された運転者の視線方向が前記表示手段の方向に変化した際に起動されることを特徴とする。
A seventh invention is the vehicle periphery monitoring apparatus according to the first invention,
The vehicle member is a roof;
The display unit is activated when the driver's line-of-sight direction detected by the line-of-sight direction detection unit is changed to the direction of the display unit.

本発明によれば、運転者の死角の画像を違和感の無い態様で表示することができる車両用周辺監視装置が得られる。   ADVANTAGE OF THE INVENTION According to this invention, the periphery monitoring apparatus for vehicles which can display a driver | operator's blind spot image in a mode without a sense of incongruity is obtained.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明による車両用周辺監視装置1の一実施例を示す構成図である。本実施例の車両用周辺監視装置1は、周辺監視ECU30を中心として構成されている。周辺監視ECU30は、図示しないバスを介して互いに接続されたCPU、ROM、及びRAM等からなるマイクロコンピュータとして構成されている。   FIG. 1 is a block diagram showing an embodiment of a vehicle periphery monitoring apparatus 1 according to the present invention. The vehicle periphery monitoring device 1 of the present embodiment is configured with a periphery monitoring ECU 30 as a center. The peripheral monitoring ECU 30 is configured as a microcomputer including a CPU, a ROM, a RAM, and the like that are connected to each other via a bus (not shown).

周辺監視ECU30には、CAN(controller area network)などの適切な通信ラインを介して、周辺環境監視カメラ10と、モータ12及び14と、運転者監視カメラ20と、表示装置40とが接続されている。   A peripheral environment monitoring camera 10, motors 12 and 14, a driver monitoring camera 20, and a display device 40 are connected to the peripheral monitoring ECU 30 via an appropriate communication line such as a CAN (controller area network). Yes.

周辺環境監視カメラ10は、レンズとCCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)等の撮像素子により、車両の外部環境を撮像する。周辺環境監視カメラ10は、動作時、リアルタイムに車両の外部環境の画像(以下、「外部環境画像」という。)を取得し、所定のフレーム周期(例えば30fps)のストリーム形式で周辺監視ECU30に供給するものであってよい。周辺環境監視カメラ10は、車両の前部に、車体に対して回転可能(向き調整可能)に搭載される。本例では、周辺環境監視カメラ10は、後述の如く複数のディスプレイ44乃至49に対して共用される関係上、車両の中央部(例えばルームミラー付近のフロントウインドシールド上縁部等)に設けられる。周辺環境監視カメラ10の回転は、モータ12及び14のようなアクチュエータにより実現される。   The surrounding environment monitoring camera 10 captures an image of the external environment of the vehicle by using a lens and an image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). During operation, the surrounding environment monitoring camera 10 acquires an image of the external environment of the vehicle (hereinafter referred to as “external environment image”) in real time and supplies the image to the surrounding monitoring ECU 30 in a stream format of a predetermined frame period (for example, 30 fps). It may be. The surrounding environment monitoring camera 10 is mounted on the front portion of the vehicle so as to be rotatable (or adjustable in orientation) with respect to the vehicle body. In this example, the surrounding environment monitoring camera 10 is provided at the center of the vehicle (for example, the upper edge of the front windshield near the rearview mirror, etc.) because it is shared by a plurality of displays 44 to 49 as will be described later. . The rotation of the surrounding environment monitoring camera 10 is realized by actuators such as motors 12 and 14.

周辺環境監視カメラ10の回転自由度は、車両の前方の左右方向で向き調整が可能となるように、略鉛直方向の1軸まわりの回転のみであってもよいし、高さ方向でも向き調整が可能となるように、横方向と略鉛直方向の2軸まわりの回転であってもよく、更に3軸まわりの回転であってもよい。ここでは、周辺環境監視カメラ10の回転自由度は、横方向と略鉛直方向の2軸まわりの回転であり、それぞれモータ12及び14により実現されるものとする。即ち、周辺環境監視カメラ10の左右方向の向きがモータ12の駆動により調整可能であり、周辺環境監視カメラ10の上下方向の向きがモータ14の駆動により調整可能である。   The degree of freedom of rotation of the surrounding environment monitoring camera 10 may be only rotation about one axis in the substantially vertical direction so that the direction can be adjusted in the left-right direction in front of the vehicle, or the direction adjustment in the height direction. In other words, the rotation may be about two axes in the horizontal direction and the substantially vertical direction, and further about three axes. Here, the degree of freedom of rotation of the surrounding environment monitoring camera 10 is rotation about two axes in the lateral direction and the substantially vertical direction, and is assumed to be realized by the motors 12 and 14, respectively. In other words, the horizontal direction of the surrounding environment monitoring camera 10 can be adjusted by driving the motor 12, and the vertical direction of the surrounding environment monitoring camera 10 can be adjusted by driving the motor 14.

モータ12及び14は、例えばDCモータやブラシレスモータのようなサーボモータであってよい。モータ12及び14は、周辺監視ECU30による制御下で駆動される。制御は、セミクローズドループであってもフルセミクローズドループであってもよい。   The motors 12 and 14 may be servo motors such as DC motors and brushless motors, for example. The motors 12 and 14 are driven under the control of the periphery monitoring ECU 30. The control may be a semi-closed loop or a full semi-closed loop.

運転者監視カメラ20は、例えばカラー又は赤外線感応CCD(charge-coupled device)センサアレイを備えるカメラである。運転者監視カメラ20は、例えば運転者の前面(例えば顔部を前方から)を捕捉可能なように、車両の適切な箇所に設けられる。例えば、運転者監視カメラ20は、車両のバックミラーや、インストルメントパネルのダッシュボードやステアリングコラム等の適切な箇所に設置される。運転者監視カメラ20は、動作時、リアルタイムに運転者の顔部の画像(以下、「顔画像」という。)を取得し、所定のフレーム周期(例えば30fps)のストリーム形式で周辺監視ECU30に供給するものであってよい。   The driver monitoring camera 20 is a camera including, for example, a color or infrared sensitive CCD (charge-coupled device) sensor array. The driver monitoring camera 20 is provided at an appropriate location of the vehicle so that, for example, the front surface of the driver (for example, the face portion from the front) can be captured. For example, the driver monitoring camera 20 is installed at an appropriate location such as a vehicle rearview mirror, a dashboard of an instrument panel, or a steering column. During operation, the driver monitoring camera 20 acquires an image of the driver's face in real time (hereinafter referred to as “face image”) and supplies it to the surroundings monitoring ECU 30 in a stream format of a predetermined frame period (for example, 30 fps). It may be.

表示装置40は、車両の運転者の死角を形成する車両部材に設けられる。表示装置40は、一例として、6つのディスプレイ44乃至49を含む。ここでは、死角を形成する車両部材は、一例として、車両の左のAピラー、右のAピラー、ルーフ、ダッシュボード、左ドア及び右ドアであるとする。   The display device 40 is provided on a vehicle member that forms a blind spot of the driver of the vehicle. As an example, the display device 40 includes six displays 44 to 49. Here, the vehicle members that form the blind spot are, for example, the left A pillar, the right A pillar, the roof, the dashboard, the left door, and the right door of the vehicle.

ディスプレイ44及び45は、車両の左右のAピラーにそれぞれ取り付けられる。ディスプレイ44及び45は、好ましくは、自身が新たな死角を形成しないような形態で搭載される。この観点から、ディスプレイ44及び45は、好ましくは、それぞれ、対応するピラーの形状に沿ったサイズと形状を有する。ディスプレイ44及び45は、好ましくは、電子ペーパーや電子スクリーンなどのようなシート形態のディスプレイである。以下、ディスプレイ44及び45を、それぞれ、左ピラーディスプレイ44及び右ピラーディスプレイ45とも称する。   The displays 44 and 45 are attached to the left and right A pillars of the vehicle, respectively. The displays 44 and 45 are preferably mounted in such a form that they do not form a new blind spot. From this point of view, the displays 44 and 45 preferably each have a size and shape along the corresponding pillar shape. The displays 44 and 45 are preferably sheet-type displays such as electronic paper and electronic screens. Hereinafter, the displays 44 and 45 are also referred to as a left pillar display 44 and a right pillar display 45, respectively.

ディスプレイ46は、車両のルーフに取り付けられ、例えばサンルーフに代わる大型のディスプレイであってもよい。ディスプレイ46は、同様に、スペース上の観点から、好ましくは、電子ペーパーや電子スクリーンなどのようなシート形態のディスプレイである。以下、ディスプレイ46をルーフディスプレイ46とも称する。   The display 46 is attached to the roof of the vehicle, and may be a large display replacing the sunroof, for example. Similarly, the display 46 is preferably a sheet-type display such as an electronic paper or an electronic screen from the viewpoint of space. Hereinafter, the display 46 is also referred to as a roof display 46.

ディスプレイ47は、車両のダッシュボードに取り付けられる。ディスプレイ47は、同様に、スペース上の観点から、好ましくは、電子ペーパーや電子スクリーンなどのようなシート形態のディスプレイである。以下、ディスプレイ47をダッシュボードディスプレイ46とも称する。   The display 47 is attached to the dashboard of the vehicle. Similarly, from the viewpoint of space, the display 47 is preferably a sheet-type display such as an electronic paper or an electronic screen. Hereinafter, the display 47 is also referred to as a dashboard display 46.

ディスプレイ48及び49は、車両の左右のドアにそれぞれ取り付けられる。ディスプレイ48及び49は、同様に、スペース上の観点から、好ましくは、電子ペーパーや電子スクリーンなどのようなシート形態のディスプレイである。以下、ディスプレイ48及び49を、それぞれ、左ドアディスプレイ44及び右ドアディスプレイ45とも称する。   The displays 48 and 49 are respectively attached to the left and right doors of the vehicle. Similarly, the displays 48 and 49 are preferably sheet-type displays such as electronic paper and electronic screen from the viewpoint of space. Hereinafter, the displays 48 and 49 are also referred to as a left door display 44 and a right door display 45, respectively.

これらのディスプレイ44乃至49は、周辺監視ECU30の制御下で動作する。ディスプレイ44乃至49は、常態ではオフ状態であってよく、周辺監視ECU30からのオン指令があったときに起動され、オン状態となる。   These displays 44 to 49 operate under the control of the periphery monitoring ECU 30. The displays 44 to 49 may be in an off state in a normal state, and are activated when an on command is received from the surrounding monitoring ECU 30 and are turned on.

周辺監視ECU30は、主要な機能部として、視線方向検出部32と、カメラ向き制御部34と、表示制御部36とを備える。   The peripheral monitoring ECU 30 includes a gaze direction detection unit 32, a camera direction control unit 34, and a display control unit 36 as main functional units.

視線方向検出部32は、運転者監視カメラ20により取得された顔画像に対する画像処理により、運転者の顔の向きを認識し、当該認識した顔の向きに基づいて運転者の視線の向き(視線方向)に関する情報(以下、「視線情報」ともいう。)を生成する。   The line-of-sight direction detection unit 32 recognizes the direction of the driver's face through image processing on the face image acquired by the driver monitoring camera 20, and based on the recognized face direction, the direction of the driver's line of sight (line of sight) Information on the direction (hereinafter also referred to as “line-of-sight information”) is generated.

例えば、視線方向検出部32は、先ず、運転者監視カメラ20により取得された顔画像から、顔の代表的なポイント(特徴点)を抽出する。この特徴抽出方法は、適切な任意の方法であってよく、例えばActive Appearance Model(AAM)をベースにした技術が用いられてよい。次いで、適切なエッジ検出アルゴリズム(例えばSobelのエッジ検出アルゴリズム)を適用して、顔と顔の特徴の境界を抽出する。次いで、上述の如く抽出されるエッジ及び特徴点を用いて、図2に示すように、顔のパーツが分離され、顔のパーツの形状を抽出する。尚、図2は、顔の一部のみを代表して示しており、顔の眉と目の部分がパーツとして抽出された画像を示している。視線方向検出部32は、抽出した顔のパーツの位置又は向きと、予め記憶しておいた各姿勢(例えばディスプレイ44乃至49のそれぞれを目視しているときの姿勢や、正面を見ている姿勢等)における同パーツの位置又は向きとのマッチング度合いを比較することにより、現在の姿勢(顔の向き)を検出する。顔の向きは、例えば正規の姿勢であるときの顔の正面方向を1軸とする3軸まわりの回転角度で表されてよい。視線方向検出部32は、運転者の顔の向きが運転者の視線の向き(視線方向)に対応しているとの仮定の下で、運転者の視線方向を決定して視線情報を生成する。尚、視線方向検出部32における画像認識処理による視線方法検出方法は、多種多様であり、本発明は、上述したものに限定されることは無い。例えば、視線方向検出部32は、顔のパーツとして眼球の輪郭線を抽出し、目の輪郭内における眼球の位置と、上述の如く認識した運転者の顔向きとに基づいて、運転者の視線の向きを検出してもよい。このようにして生成された視線情報は、表示制御部36及びカメラ向き制御部34に供給される。   For example, the line-of-sight direction detection unit 32 first extracts representative points (feature points) of the face from the face image acquired by the driver monitoring camera 20. This feature extraction method may be any appropriate method, and for example, a technique based on Active Appearance Model (AAM) may be used. An appropriate edge detection algorithm (eg, Sobel's edge detection algorithm) is then applied to extract the boundary between the face and facial features. Next, using the edges and feature points extracted as described above, the facial parts are separated as shown in FIG. 2, and the shape of the facial parts is extracted. Note that FIG. 2 shows only a part of the face as a representative, and shows an image in which the eyebrows and eyes of the face are extracted as parts. The line-of-sight direction detection unit 32 detects the position or orientation of the extracted facial parts and each of the pre-stored postures (for example, the posture when viewing each of the displays 44 to 49, or the posture looking at the front. The current posture (face orientation) is detected by comparing the degree of matching with the position or orientation of the same part. The orientation of the face may be represented by, for example, a rotation angle about three axes with the front direction of the face in a normal posture as one axis. The gaze direction detection unit 32 determines the driver's gaze direction and generates gaze information under the assumption that the driver's face direction corresponds to the driver's gaze direction (gaze direction). . Note that there are various gaze method detection methods by image recognition processing in the gaze direction detection unit 32, and the present invention is not limited to the above-described one. For example, the line-of-sight direction detection unit 32 extracts the outline of the eyeball as a face part, and based on the position of the eyeball in the outline of the eye and the driver's face orientation recognized as described above, May be detected. The line-of-sight information generated in this way is supplied to the display control unit 36 and the camera orientation control unit 34.

カメラ向き制御部34は、視線方向検出部32からの視線情報に基づいて、運転者の視線方向に対応する方向に周辺環境監視カメラ10が向くように、モータ12及び14を介して周辺環境監視カメラ10の向き(撮像方向)を制御する。例えば、図3に示すように、運転者の視線方向が左ピラーディスプレイ44を視ている方向A1である場合には、カメラ向き制御部34は、周辺環境監視カメラ10の向きを、方向A1に平行な方向B1に変化させる。また、図3に示すように、運転者の視線方向が右ピラーディスプレイ45を視ている方向A2である場合には、カメラ向き制御部34は、周辺環境監視カメラ10の向きを、方向A2に平行な方向B2に変化させる。   The camera direction control unit 34 monitors the surrounding environment via the motors 12 and 14 so that the surrounding environment monitoring camera 10 faces in a direction corresponding to the driver's line-of-sight direction based on the line-of-sight information from the line-of-sight direction detection unit 32. The direction of the camera 10 (imaging direction) is controlled. For example, as shown in FIG. 3, when the driver's line-of-sight direction is the direction A1 when viewing the left pillar display 44, the camera direction control unit 34 changes the direction of the surrounding environment monitoring camera 10 to the direction A1. Change to parallel direction B1. Also, as shown in FIG. 3, when the driver's line-of-sight direction is the direction A2 when viewing the right pillar display 45, the camera direction control unit 34 changes the direction of the surrounding environment monitoring camera 10 to the direction A2. Change in parallel direction B2.

尚、図3に示す例では、平面内の2次元での周辺環境監視カメラ10の向きの調整例を示しているが、周辺環境監視カメラ10の向きは3次元で調整されるのが望ましい。即ち、カメラ向き制御部34は、3次元空間内で周辺環境監視カメラ10の向きが運転者の視線方向と平行になるように、モータ12の回転角度を制御して周辺環境監視カメラ10の左右方向の向き(図中のX1軸まわりの回転角度)を調整すると共に、モータ14の回転角度を制御して周辺環境監視カメラ10の上下方向の向き(図中のX2軸まわりの回転角度)を調整するのが望ましい。   The example shown in FIG. 3 shows an example of adjusting the orientation of the surrounding environment monitoring camera 10 in two dimensions within the plane, but it is desirable that the orientation of the surrounding environment monitoring camera 10 be adjusted in three dimensions. That is, the camera orientation control unit 34 controls the rotation angle of the motor 12 so that the orientation of the surrounding environment monitoring camera 10 is parallel to the driver's line-of-sight direction in the three-dimensional space, and The direction of the direction (rotation angle around the X1 axis in the figure) is adjusted, and the rotation angle of the motor 14 is controlled to set the vertical direction of the surrounding environment monitoring camera 10 (rotation angle around the X2 axis in the figure). It is desirable to adjust.

表示制御部36は、周辺環境監視カメラ10から供給される外部環境画像に基づいて、ディスプレイ44乃至49で表示すべき表示画像(映像)を生成する。表示制御部36は、視線方向検出部32からの視線情報に基づいて、ディスプレイ44乃至49のうちの、後述する視線方向検出部32により検出される運転者の視線方向の先にあるディスプレイに、生成した表示画像を供給して、表示画像を表示させる。   The display control unit 36 generates a display image (video) to be displayed on the displays 44 to 49 based on the external environment image supplied from the surrounding environment monitoring camera 10. Based on the line-of-sight information from the line-of-sight direction detection unit 32, the display control unit 36 has a display ahead of the driver's line-of-sight direction detected by the line-of-sight direction detection unit 32 described later, among the displays 44 to 49. The generated display image is supplied to display the display image.

図4は、一例として、左ピラーディスプレイ44に表示すべき表示画像の生成方法を示す図であり、図4(A)は、周辺環境監視カメラ10から外部環境画像(元画像)を示し、図4(B)は、周辺環境監視カメラ10から外部環境画像に対する切り抜き領域80を示す図であり、図4(C)は、図4(A)の外部環境画像に基づいて生成された表示画像を示す図である。   FIG. 4 is a diagram illustrating a method for generating a display image to be displayed on the left pillar display 44 as an example. FIG. 4A illustrates an external environment image (original image) from the surrounding environment monitoring camera 10. 4 (B) is a diagram showing a cutout region 80 for the external environment image from the surrounding environment monitoring camera 10, and FIG. 4 (C) shows a display image generated based on the external environment image of FIG. 4 (A). FIG.

表示制御部36は、先ず、視線方向検出部32からの視線情報に基づいて、図4(B)に示すように、周辺環境監視カメラ10から外部環境画像に対する切り抜き領域80の位置を決定する。切り抜き領域80の形状は、好ましくは、左ピラーディスプレイ44の形状と相似に設定される。切り抜き領域80のサイズ(スケーリングファクター)は、固定であってもよいが、視線方向検出部32にて検出可能な運転者の視点(目)の位置と、左Aピラーとの距離に応じて可変されてもよい。外部環境画像(元画像)における切り抜き領域80は、運転者の視線方向で左ピラーにより運転者が見えなくなっている部分(即ち死角部分)に対応するように、視線方向検出部32にて検出可能な運転者の視点の位置と、周辺環境監視カメラ10の視点(撮像素子)の位置との相対関係に基づいて、位置決めされる。このようにして切り抜き領域80の位置を決定すると、表示制御部36は、切り抜き領域80内の画像部分を、切り抜く(抽出する)ことで、図4(C)に示すように、表示画像を生成する。表示画像は、更に、出力対象のディスプレイの解像度等に応じてスケーリングや輝度等が調整されてもよい。   The display control unit 36 first determines the position of the cutout region 80 with respect to the external environment image from the surrounding environment monitoring camera 10 based on the line-of-sight information from the line-of-sight direction detection unit 32, as shown in FIG. The shape of the cutout region 80 is preferably set to be similar to the shape of the left pillar display 44. The size (scaling factor) of the cutout region 80 may be fixed, but is variable according to the position of the driver's viewpoint (eyes) that can be detected by the line-of-sight direction detection unit 32 and the distance from the left A pillar. May be. The cut-out area 80 in the external environment image (original image) can be detected by the line-of-sight direction detection unit 32 so as to correspond to a portion where the driver is not visible due to the left pillar in the direction of the driver's line of sight (that is, a blind spot portion). Positioning is performed based on the relative relationship between the position of the viewpoint of the driver and the position of the viewpoint (imaging device) of the surrounding environment monitoring camera 10. When the position of the cutout region 80 is determined in this way, the display control unit 36 cuts out (extracts) the image portion in the cutout region 80 to generate a display image as shown in FIG. To do. The display image may be further adjusted in scaling, brightness, or the like according to the resolution of the display to be output.

図5(A)は、図4(C)で生成された表示画像が左ピラーディスプレイ44に表示される前の状態を示し、図5(B)は、図4(C)で生成された表示画像が左ピラーディスプレイ44に表示された状態を示す図である。   FIG. 5A shows a state before the display image generated in FIG. 4C is displayed on the left pillar display 44, and FIG. 5B shows the display generated in FIG. 4C. It is a figure which shows the state by which the image was displayed on the left pillar display.

運転者は、図5(B)に示す表示画像を見ることで、左ピラーがあたかも存在しないような感覚(左ピラーを透視している感覚)で、左ピラーで死角なった領域の外部環境を把握することができる。これにより、運転者の死角をカバーした有用な外部環境を運転者に視認してもらうことができ、車両の運転の安全性が向上する。例えば、図示の例では、運転者は、図5(B)に示す表示画像を見ることで、左ピラーで見えなかった歩行者の存在に気が付き、当該歩行者に注意を払いながら運転を行うことができる。   By looking at the display image shown in FIG. 5B, the driver can feel the external environment of the area where the left pillar is blind spot with the feeling that the left pillar does not exist (the feeling of seeing through the left pillar). I can grasp it. As a result, the driver can visually recognize a useful external environment that covers the driver's blind spot, and the driving safety of the vehicle is improved. For example, in the example shown in the figure, the driver notices the presence of a pedestrian that could not be seen with the left pillar by looking at the display image shown in FIG. 5B, and drives while paying attention to the pedestrian. Can do.

このように、本実施例によれば、上述の如く、視線方向検出部32により検出される運転者の視線方向の変化に追従して、周辺環境監視カメラ10の向きを変化させると共に、運転者の視線方向の先のディスプレイに、周辺環境監視カメラ10からの外部環境画像を表示するので、運転者に視線方向に適合した撮像方向で撮像した違和感の無い表示画像を、運転者の視線方向に対応したディスプレイに、表示させることができる。これにより、運転者は、違和感無く死角の状況を把握することができる。   Thus, according to the present embodiment, as described above, the direction of the surrounding environment monitoring camera 10 is changed following the change in the driver's line-of-sight direction detected by the line-of-sight direction detection unit 32, and the driver Since the external environment image from the surrounding environment monitoring camera 10 is displayed on the previous display in the line-of-sight direction, a display image without a sense of incongruity captured in an image-capturing direction suitable for the driver in the line-of-sight direction is displayed in the driver's line-of-sight It can be displayed on the corresponding display. As a result, the driver can grasp the blind spot without a sense of incongruity.

次に、周辺監視ECU30により実行される主要処理の具体例について、図6を参照して説明する。尚、ここでは、説明の都合上、表示装置40は、左ピラーディスプレイ44、右ピラーディスプレイ45及びルーフディスプレイ46の3つのディスプレイである場合について説明する。図6に示す処理ルーチンは、車両のイグニッションスイッチがオンにされてオフにされるまでの間、所定周期毎に繰り返し実行される。   Next, a specific example of main processing executed by the periphery monitoring ECU 30 will be described with reference to FIG. Here, for convenience of explanation, a case will be described in which the display device 40 is three displays, a left pillar display 44, a right pillar display 45, and a roof display 46. The processing routine shown in FIG. 6 is repeatedly executed at predetermined intervals until the ignition switch of the vehicle is turned on and turned off.

ステップ100では、視線方向検出部32において、今回周期で運転者監視カメラ20から得られる顔画像に基づいて、運転者の視線方向が検出される。   In step 100, the gaze direction detection unit 32 detects the gaze direction of the driver based on the face image obtained from the driver monitoring camera 20 in the current cycle.

ステップ102では、視線方向検出部32において、今回周期で検出された運転者の視線方向が、前回周期で検出された運転者の視線方向から所定角度以上変化したか否かが判定される。所定角度は、例えば右ピラーディスプレイ45方向から左ピラーディスプレイ44方向への視線方向の変化を検出できるような大きな値であってもよいが、ここでは、例えば同じ右ピラーディスプレイ45方向内における視線方向のわずかな変化を検出できるような比較的小さい値とする。運転者の視線方向が所定量以上変化した場合には、ステップ108に進む。運転者の視線方向が所定量以上変化していない場合には、ステップ104に進む。   In step 102, the gaze direction detection unit 32 determines whether or not the driver's gaze direction detected in the current cycle has changed by a predetermined angle or more from the driver's gaze direction detected in the previous cycle. The predetermined angle may be a large value that can detect a change in the line-of-sight direction from the right pillar display 45 direction to the left pillar display 44 direction, for example, but here, for example, the line-of-sight direction within the same right pillar display 45 direction It is set to a relatively small value so that a slight change can be detected. If the driver's line-of-sight direction has changed by a predetermined amount or more, the process proceeds to step 108. If the driver's line-of-sight direction has not changed by a predetermined amount or more, the routine proceeds to step 104.

ステップ104では、表示制御部36において、現在、ディスプレイ45、46及び47のいずれか1つがオン状態であるか否かが判定される。ディスプレイ45、46及び47のいずれか1つがオン状態である場合には、ステップ106に進み、ディスプレイ45、46及び47のいずれもオフ状態である場合には、今回周期の処理ルーチンをそのまま終了する。   In step 104, the display control unit 36 determines whether any one of the displays 45, 46, and 47 is currently on. If any one of the displays 45, 46, and 47 is in the on state, the process proceeds to step 106. If all the displays 45, 46, and 47 are in the off state, the processing routine for the current cycle is terminated as it is. .

ステップ106では、表示制御部36において、今回周期で得られる周辺環境監視カメラ10からの外部環境画像に基づいて表示画像が生成され、生成された表示画像が、現在オン状態にあるディスプレイ(45、46、又は47)に供給される。この結果、表示画像が、現在オン状態にあるディスプレイ(45、46、又は47)上に表示される。尚、この場合、表示制御部36において、表示画像の生成に用いられる外部環境画像は、前回周期と同じ向きの周辺環境監視カメラ10により撮像された外部環境画像となる。   In step 106, the display control unit 36 generates a display image based on the external environment image from the surrounding environment monitoring camera 10 obtained in the current cycle, and the generated display image is displayed on the display (45, 46 or 47). As a result, the display image is displayed on the display (45, 46, or 47) that is currently on. In this case, in the display control unit 36, the external environment image used to generate the display image is an external environment image captured by the surrounding environment monitoring camera 10 in the same direction as the previous cycle.

ステップ108では、視線方向検出部32において、今回周期で検出された運転者の視線方向が左ピラー方向(左ピラーディスプレイ44方向)であるか否かが判定される。今回周期で検出された運転者の視線方向が左ピラー方向である場合には、ステップ110に進み、それ以外の場合には、ステップ120に進む。   In step 108, the gaze direction detection unit 32 determines whether or not the driver's gaze direction detected in the current cycle is the left pillar direction (the left pillar display 44 direction). If the driver's line-of-sight direction detected in the current cycle is the left pillar direction, the process proceeds to step 110, and otherwise, the process proceeds to step 120.

ステップ110では、カメラ向き制御部34において、周辺環境監視カメラ10の撮像方向が、今回周期で検出された運転者の視線方向に平行となるように、モータ12及び/又は14の制御目標値が決定される。そして、決定された制御目標値に応じたモータ12及び/又は14の回転角制御が実行される。この結果、周辺環境監視カメラ10の撮像方向が、今回周期で検出された運転者の視線方向に平行に調整される。   In step 110, the control target value of the motors 12 and / or 14 is set in the camera orientation control unit 34 so that the imaging direction of the surrounding environment monitoring camera 10 is parallel to the line-of-sight direction of the driver detected in the current cycle. It is determined. Then, rotation angle control of the motors 12 and / or 14 according to the determined control target value is executed. As a result, the imaging direction of the surrounding environment monitoring camera 10 is adjusted in parallel with the driver's line-of-sight direction detected in the current cycle.

ステップ112では、表示制御部36において、現在、左ピラーディスプレイ44がオン状態にあるか否かが判定される。左ピラーディスプレイ44がオン状態にある場合には、即ち前回周期も運転者の視線方向が左ピラー方向であった場合には、ステップ116に進み、それ以外の場合には、ステップ114に進む。   In step 112, the display control unit 36 determines whether or not the left pillar display 44 is currently in an on state. If the left pillar display 44 is in the on state, that is, if the driver's line-of-sight direction is also in the left pillar direction in the previous cycle, the process proceeds to step 116. Otherwise, the process proceeds to step 114.

ステップ114では、表示制御部36において、左ピラーディスプレイ44に対するオン指令が生成・出力される。この結果、左ピラーディスプレイ44が起動される。   In step 114, the display controller 36 generates and outputs an ON command for the left pillar display 44. As a result, the left pillar display 44 is activated.

ステップ116では、表示制御部36において、上記ステップ110にて向きが調整された周辺環境監視カメラ10により撮像された外部環境画像に基づいて、表示画像が生成される。   In step 116, the display control unit 36 generates a display image based on the external environment image captured by the surrounding environment monitoring camera 10 whose orientation has been adjusted in step 110.

ステップ118では、表示制御部36において、上記ステップ116にて生成した表示画像が左ピラーディスプレイ44に対して供給される。この結果、左ピラーディスプレイ44には、上記ステップ116にて生成された表示画像が表示される。尚、上記ステップ114を経由する場合には、左ピラーディスプレイ44の起動完了と同時に表示画像が出力されるように左ピラーディスプレイ44の起動タイミングが調整されてもよい。   In step 118, the display image generated in step 116 is supplied to the left pillar display 44 in the display control unit 36. As a result, the display image generated in step 116 is displayed on the left pillar display 44. In the case of going through step 114, the start timing of the left pillar display 44 may be adjusted so that a display image is output simultaneously with the start of the start of the left pillar display 44.

ステップ120では、視線方向検出部32において、今回周期で検出された運転者の視線方向が右ピラー方向(右ピラーディスプレイ45方向)であるか否かが判定される。今回周期で検出された運転者の視線方向が右ピラー方向である場合には、ステップ122に進み、それ以外の場合には、ステップ132に進む。   In step 120, the gaze direction detection unit 32 determines whether or not the driver's gaze direction detected in the current cycle is the right pillar direction (right pillar display 45 direction). If the driver's line-of-sight direction detected in the current cycle is the right pillar direction, the process proceeds to step 122; otherwise, the process proceeds to step 132.

ステップ122では、カメラ向き制御部34において、周辺環境監視カメラ10の撮像方向が、今回周期で検出された運転者の視線方向に平行となるように、モータ12及び/又は14の制御目標値が決定される。そして、決定された制御目標値に応じたモータ12及び/又は14の回転角制御が実行される。この結果、周辺環境監視カメラ10の撮像方向が、今回周期で検出された運転者の視線方向に平行に調整される。   In step 122, the camera target control unit 34 sets the control target values of the motors 12 and / or 14 so that the imaging direction of the surrounding environment monitoring camera 10 is parallel to the driver's line-of-sight direction detected in the current cycle. It is determined. Then, rotation angle control of the motors 12 and / or 14 according to the determined control target value is executed. As a result, the imaging direction of the surrounding environment monitoring camera 10 is adjusted in parallel with the driver's line-of-sight direction detected in the current cycle.

ステップ124では、現在、右ピラーディスプレイ45がオン状態にあるか否かが判定される。右ピラーディスプレイ45がオン状態にある場合には、即ち前回周期も運転者の視線方向が右ピラー方向であった場合には、ステップ128に進み、それ以外の場合には、ステップ126に進む。   In step 124, it is determined whether or not the right pillar display 45 is currently on. If the right pillar display 45 is in the on state, that is, if the driver's line-of-sight direction is also in the right pillar direction in the previous cycle, the process proceeds to step 128. Otherwise, the process proceeds to step 126.

ステップ126では、表示制御部36において、右ピラーディスプレイ45に対するオン指令が生成・出力される。この結果、右ピラーディスプレイ45が起動される。   In step 126, the display control unit 36 generates and outputs an ON command for the right pillar display 45. As a result, the right pillar display 45 is activated.

ステップ128では、表示制御部36において、上記ステップ122にて向きが調整された周辺環境監視カメラ10により撮像された外部環境画像に基づいて、表示画像が生成される。   In step 128, the display control unit 36 generates a display image based on the external environment image captured by the surrounding environment monitoring camera 10 whose orientation is adjusted in step 122.

ステップ130では、表示制御部36において、上記ステップ128にて生成した表示画像が右ピラーディスプレイ45に対して供給される。この結果、右ピラーディスプレイ45には、上記ステップ128にて生成された表示画像が表示される。   In step 130, the display image generated in step 128 is supplied to the right pillar display 45 in the display control unit 36. As a result, the display image generated in step 128 is displayed on the right pillar display 45.

ステップ132では、視線方向検出部32において、今回周期で検出された運転者の視線方向がルーフ方向(ルーフディスプレイ46方向)であるか否かが判定される。今回周期で検出された運転者の視線方向がルーフ方向である場合には、ステップ138に進み、それ以外の場合には、ステップ134に進む。   In step 132, the gaze direction detection unit 32 determines whether or not the gaze direction of the driver detected in the current cycle is the roof direction (the direction of the roof display 46). If the driver's line-of-sight direction detected in the current cycle is the roof direction, the process proceeds to step 138; otherwise, the process proceeds to step 134.

ステップ134では、表示制御部36において、現在、ディスプレイ45、46及び47のいずれか1つがオン状態であるか否かが判定される。ディスプレイ45、46及び47のいずれか1つがオン状態である場合には、ステップ136に進み、ディスプレイ45、46及び47のいずれもオフ状態である場合には、今回周期の処理ルーチンをそのまま終了する。   In step 134, the display control unit 36 determines whether any one of the displays 45, 46, and 47 is currently in an on state. If any one of the displays 45, 46, and 47 is in the on state, the process proceeds to step 136. If all the displays 45, 46, and 47 are in the off state, the processing routine for the current cycle is terminated as it is. .

ステップ136では、表示制御部36において、現在オン状態であるディスプレイ(45、46、又は47)に対してオフ指令が生成・出力される。この結果、現在オン状態であるディスプレイ(45、46、又は47)がオフとなり、すべてのディスプレイ45乃至47がオフ状態となる。   In step 136, the display control unit 36 generates and outputs an off command for the display (45, 46, or 47) that is currently on. As a result, the display (45, 46, or 47) that is currently on is turned off, and all the displays 45 to 47 are turned off.

ステップ138では、カメラ向き制御部34において、周辺環境監視カメラ10の撮像方向が、今回周期で検出された運転者の視線方向に平行となるように、モータ12及び/又は14の制御目標値が決定される。そして、決定された制御目標値に応じたモータ12及び/又は14の回転角制御が実行される。この結果、周辺環境監視カメラ10の撮像方向が、今回周期で検出された運転者の視線方向に平行に調整される。   In step 138, the camera target control unit 34 sets the control target values of the motors 12 and / or 14 so that the imaging direction of the surrounding environment monitoring camera 10 is parallel to the driver's line-of-sight direction detected in the current cycle. It is determined. Then, rotation angle control of the motors 12 and / or 14 according to the determined control target value is executed. As a result, the imaging direction of the surrounding environment monitoring camera 10 is adjusted in parallel with the driver's line-of-sight direction detected in the current cycle.

ステップ140では、現在、ルーフディスプレイ46がオン状態にあるか否かが判定される。ルーフディスプレイ46がオン状態にある場合には、即ち前回周期も運転者の視線方向がルーフ方向であった場合には、ステップ144に進み、それ以外の場合には、ステップ142に進む。   In step 140, it is determined whether or not the roof display 46 is currently on. When the roof display 46 is in the on state, that is, when the driver's line-of-sight direction is also the roof direction in the previous cycle, the process proceeds to step 144. Otherwise, the process proceeds to step 142.

ステップ142では、表示制御部36において、ルーフディスプレイ46に対するオン指令が生成・出力される。この結果、ルーフディスプレイ46が起動される。   In step 142, the display control unit 36 generates and outputs an ON command for the roof display 46. As a result, the roof display 46 is activated.

ステップ144では、表示制御部36において、上記ステップ138にて向きが調整された周辺環境監視カメラ10により撮像された外部環境画像に基づいて、表示画像が生成される。   In step 144, the display control unit 36 generates a display image based on the external environment image captured by the surrounding environment monitoring camera 10 whose direction is adjusted in step 138.

ステップ146では、表示制御部36において、上記ステップ144にて生成した表示画像がルーフディスプレイ46に対して供給される。この結果、ルーフディスプレイ46には、上記ステップ144にて生成された表示画像が表示される。   In step 146, the display image generated in step 144 is supplied to the roof display 46 in the display control unit 36. As a result, the display image generated in step 144 is displayed on the roof display 46.

以上説明した本実施例によれば、とりわけ、以下のような優れた効果が奏される。   According to the present embodiment described above, the following excellent effects can be obtained.

先ず、上述の如く、運転者の視線方向の変化に追従して、周辺環境監視カメラ10の向きを変化させるので、例えば広角レンズ(魚眼レンズ)を用いた構成に比べて、運転者に視線方向に適合した撮像方向で撮像した違和感の無い表示画像を表示させることができる。これにより、運転者は、違和感無く死角の状況を把握することができる。   First, as described above, the direction of the surrounding environment monitoring camera 10 is changed following the change in the driver's line-of-sight direction, so that, for example, compared with a configuration using a wide-angle lens (fisheye lens), A display image without a sense of incongruity captured in a suitable imaging direction can be displayed. As a result, the driver can grasp the blind spot without a sense of incongruity.

また、運転者の視線方向が左ピラーディスプレイ44等のディスプレイ方向にある場合に限り、周辺環境監視カメラ10の向きを変化させるので、運転者の視線移動に対する周辺環境監視カメラ10の視線の追従性を確保することができる。また、運転者の視線方向がディスプレイ方向に無い場合には、周辺環境監視カメラ10を他の用途に利用すること(例えば白線認識用カメラとして利用すること)も可能である。   Also, since the direction of the surrounding environment monitoring camera 10 is changed only when the driver's line of sight is in the direction of the left pillar display 44 or the like, the followability of the line of sight of the surrounding environment monitoring camera 10 to the movement of the driver's line of sight Can be secured. In addition, when the driver's line-of-sight direction is not in the display direction, the surrounding environment monitoring camera 10 can be used for other purposes (for example, used as a white line recognition camera).

また、サンルーフの代わりにルーフディスプレイ46を設ける場合には、運転者が天井方向を見上げたときに、ルーフディスプレイ46に外の天空の画像が表示されるので、運転者に対して、サンルーフをオープンしたときの視覚的爽快感を与えることができる。尚、この観点から、ルーフディスプレイ46は、運転者以外の乗員(例えば助手席乗員)の視線方向が天井方向となった場合に、起動及び表示画像出力されてもよいし、また、シートがリクライニング位置まで倒された場合に、起動及び表示画像出力されてもよい。   When the roof display 46 is provided instead of the sunroof, an image of the sky outside is displayed on the roof display 46 when the driver looks up at the ceiling, so the sunroof is opened to the driver. It can give a visual refreshing feeling. From this point of view, the roof display 46 may be activated and output a display image when the line-of-sight direction of an occupant other than the driver (for example, a passenger on the passenger seat) is the ceiling direction, and the seat reclines. When it is tilted to the position, the activation and the display image may be output.

以上説明した本実施例に対しては、以下のような変形例が考えられる。   The following modifications can be considered for the embodiment described above.

例えば、上述した実施例では、周辺環境監視カメラ10が2軸まわりに回転可能に構成されているので、当該周辺環境監視カメラ10を共用することで、各種ディスプレイ44乃至49で表示すべき表示画像の元画像が取得されている。しかしながら、あるディスプレイに対して専用の周辺環境監視カメラを設定してもよい。例えば、左ピラーディスプレイ44、ダッシュボードディスプレイ47及び左ドアディスプレイ48に対しては、車両の左側前部(例えば左ドアミラーなどの車両外部や、左ピラー内)に設けた第1の周辺環境監視カメラを用い、右ピラーディスプレイ45及び右ドアディスプレイ49に対しては、車両の右側前部(例えば右ドアミラーなどの車両外部や、右ピラー内)に設けた第2の周辺環境監視カメラを用い、ルーフディスプレイ46に対しては、車両の上部に設けた第3の周辺環境監視カメラを用いることとしてもよい。   For example, in the above-described embodiment, the surrounding environment monitoring camera 10 is configured to be rotatable around two axes. Therefore, by sharing the surrounding environment monitoring camera 10, display images to be displayed on the various displays 44 to 49. The original image of has been acquired. However, a dedicated ambient environment monitoring camera may be set for a certain display. For example, with respect to the left pillar display 44, the dashboard display 47, and the left door display 48, a first ambient environment monitoring camera provided on the left front portion of the vehicle (for example, outside the vehicle such as a left door mirror or inside the left pillar). For the right pillar display 45 and the right door display 49, a second ambient environment monitoring camera provided on the right front portion of the vehicle (for example, outside the vehicle such as a right door mirror or inside the right pillar) For the display 46, a third surrounding environment monitoring camera provided at the top of the vehicle may be used.

また、周辺環境監視カメラ10を倍率変更可能なズーム機能を有するカメラで構成し、視線方向検出部32にて検出可能な運転者の視点(目)の位置と、表示装置40の位置との距離の変化に追従させて、周辺環境監視カメラ10の倍率を微調整し、当該倍率調整された周辺環境監視カメラ10から得られる画像を、表示装置40に表示させることとしてもよい。例えば、運転者の視線方向が左Aピラー方向(左ピラーディスプレイ44方向)である場合、周辺環境監視カメラ10の倍率は、運転者の視点(目)の位置と、左Aピラー(左ピラーディスプレイ44)との距離に応じて可変されてもよい。   Further, the surrounding environment monitoring camera 10 is configured by a camera having a zoom function capable of changing the magnification, and the distance between the position of the driver's viewpoint (eyes) and the position of the display device 40 that can be detected by the line-of-sight direction detection unit 32. The magnification of the surrounding environment monitoring camera 10 may be finely adjusted so as to follow the change of the image, and an image obtained from the surrounding environment monitoring camera 10 with the magnification adjusted may be displayed on the display device 40. For example, when the driver's line-of-sight direction is the left A pillar direction (the left pillar display 44 direction), the magnification of the surrounding environment monitoring camera 10 is determined by the position of the driver's viewpoint (eyes) and the left A pillar (the left pillar display). 44).

尚、以上説明した実施例においては、添付の特許請求の範囲の「第1撮像手段」は、周辺環境監視カメラ10により実現され、同特許請求の範囲の「第2撮像手段」は、運転者監視カメラ20により実現され、同特許請求の範囲の「撮像方向制御手段」は、周辺監視ECU30のカメラ向き制御部34により実現され、同特許請求の範囲の「表示手段」は、表示装置40のディスプレイ44乃至49により実現され、同特許請求の範囲の「視線方向検出手段」は、周辺監視ECU30の視線方向検出部32により実現されている。   In the embodiment described above, the “first imaging means” in the appended claims is realized by the surrounding environment monitoring camera 10, and the “second imaging means” in the claims is the driver. The “imaging direction control means” in the scope of the patent claims is realized by the camera orientation control unit 34 of the periphery monitoring ECU 30, and the “display means” in the scope of the claims is the display device 40. The “line-of-sight direction detecting means” is realized by the displays 44 to 49, and is realized by the line-of-sight direction detecting unit 32 of the periphery monitoring ECU 30.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

本発明による車両用周辺監視装置1の一実施例を示す構成図である。It is a block diagram which shows one Example of the vehicle periphery monitoring apparatus 1 by this invention. 顔の眉と目の部分がパーツとして抽出された画像を示す図である。It is a figure which shows the image from which the eyebrows and eye part of the face were extracted as parts. カメラ向き制御部34による環境監視カメラ10の向きの制御例を示す図であり、運転者の視線方向とカメラ向き制御部34の向きとの関係を、上面視で概略的に示す図である。It is a figure which shows the example of control of the direction of the environment monitoring camera 10 by the camera direction control part 34, and is a figure which shows roughly the relationship between a driver | operator's gaze direction and the direction of the camera direction control part 34 by a top view. 左ピラーディスプレイ44に表示すべき表示画像の生成方法を示す図である。It is a figure which shows the production | generation method of the display image which should be displayed on the left pillar display. 図4(C)で生成された表示画像が左ピラーディスプレイ44に表示された状態を示す図である。FIG. 5 is a diagram showing a state where the display image generated in FIG. 4C is displayed on the left pillar display 44. 周辺監視ECU30により実行される主要処理の流れを示すフローチャートである。3 is a flowchart showing a flow of main processing executed by a peripheral monitoring ECU 30.

符号の説明Explanation of symbols

1 車両用周辺監視装置
10 周辺環境監視カメラ
14 モータ12及び
20 運転者監視カメラ
30 周辺監視ECU
32 視線方向検出部
34 カメラ向き制御部
36 表示制御部
40 表示装置
44 左ピラーディスプレイ
45 右ピラーディスプレイ
46 ルーフディスプレイ
47 ダッシュボードディスプレイ
48 左ドアディスプレイ
49 右ドアディスプレイ
80 切り抜き領域
DESCRIPTION OF SYMBOLS 1 Vehicle periphery monitoring apparatus 10 Surrounding environment monitoring camera 14 Motor 12 and 20 Driver monitoring camera 30 Perimeter monitoring ECU
32 Gaze direction detection unit 34 Camera direction control unit 36 Display control unit 40 Display device 44 Left pillar display 45 Right pillar display 46 Roof display 47 Dashboard display 48 Left door display 49 Right door display 80 Cutout area

Claims (7)

車両の外部を撮像する第1撮像手段と、
前記撮像手段の撮像方向を変化させる撮像方向制御手段と、
車両の運転者の死角を形成する車両部材に設けられ、前記第1撮像手段により撮像される画像を表示する表示手段と、
運転者を撮像する第2撮像手段と、
前記第2撮像手段の撮像結果に基づいて、運転者の視線方向を検出する視線方向検出手段を備え、
前記撮像方向制御手段は、前記視線方向検出手段により検出された運転者の視線方向が前記表示手段の方向に変化した場合に、該変化に追従して、前記死角の画像が捕捉されるように前記第1撮像手段の撮像方向を変化させることを特徴とする、車両用周辺監視装置。
First imaging means for imaging the exterior of the vehicle;
Imaging direction control means for changing the imaging direction of the imaging means;
A display unit provided on a vehicle member forming a blind spot of a driver of the vehicle, and displaying an image captured by the first imaging unit;
A second imaging means for imaging the driver;
Gaze direction detecting means for detecting the gaze direction of the driver based on the imaging result of the second imaging means,
When the driver's line-of-sight direction detected by the line-of-sight direction detecting unit changes in the direction of the display unit, the imaging direction control unit follows the change and captures the blind spot image. A vehicle periphery monitoring device, wherein the imaging direction of the first imaging means is changed.
前記第1撮像手段は、前記車両部材付近に取り付けられる、請求項1に記載の車両用周辺監視装置。   The vehicle periphery monitoring device according to claim 1, wherein the first imaging unit is attached in the vicinity of the vehicle member. 前記表示手段は、前記視線方向検出手段により検出された運転者の視線方向が前記表示手段の方向に変化した際に起動される、請求項1に記載の車両用周辺監視装置。   The vehicle periphery monitoring device according to claim 1, wherein the display unit is activated when the driver's line-of-sight direction detected by the line-of-sight direction detection unit changes in the direction of the display unit. 前記第1撮像手段により撮像された画像の一部を、前記表示手段の画面のサイズに応じたサイズで切り抜いて、前記表示手段で表示される表示画像を生成する表示画像生成手段を更に備える、請求項1に記載の車両用周辺監視装置。   A display image generating unit that generates a display image displayed on the display unit by cutting out a part of an image captured by the first imaging unit in a size corresponding to a screen size of the display unit; The vehicle periphery monitoring apparatus according to claim 1. 前記表示画像生成手段は、前記第1撮像手段により撮像された画像のうちの、前記死角の画像部分を切り抜いて、前記表示画像を生成する、請求項1に記載の車両用周辺監視装置。   2. The vehicle periphery monitoring device according to claim 1, wherein the display image generation unit generates the display image by cutting out the blind spot image portion of the image captured by the first imaging unit. 前記車両部材は、ピラー、ドア、ダッシュボード及びルーフのうちの少なくともいずれか1つである、請求項1に記載の車両用周辺監視装置。   The vehicle periphery monitoring device according to claim 1, wherein the vehicle member is at least one of a pillar, a door, a dashboard, and a roof. 前記車両部材はルーフであり、
前記表示手段は、前記視線方向検出手段により検出された運転者の視線方向が前記表示手段の方向に変化した際に起動される、請求項1に記載の車両用周辺監視装置。
The vehicle member is a roof;
2. The vehicle periphery monitoring device according to claim 1, wherein the display unit is activated when the driver's line-of-sight direction detected by the line-of-sight direction detection unit changes in the direction of the display unit.
JP2007053171A 2007-03-02 2007-03-02 Periphery monitoring device for vehicle Pending JP2008213649A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007053171A JP2008213649A (en) 2007-03-02 2007-03-02 Periphery monitoring device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007053171A JP2008213649A (en) 2007-03-02 2007-03-02 Periphery monitoring device for vehicle

Publications (1)

Publication Number Publication Date
JP2008213649A true JP2008213649A (en) 2008-09-18

Family

ID=39834204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007053171A Pending JP2008213649A (en) 2007-03-02 2007-03-02 Periphery monitoring device for vehicle

Country Status (1)

Country Link
JP (1) JP2008213649A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010116126A (en) * 2008-11-14 2010-05-27 Aisin Aw Co Ltd Display control system, display control method, and display control program
JP2010276557A (en) * 2009-05-29 2010-12-09 Toyota Motor Corp Spectrum measuring device for moving body
JP2014177143A (en) * 2013-03-13 2014-09-25 Mitsubishi Electric Corp Driving support device for vehicle
JP2014196088A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Vehicle display device
JP2014534697A (en) * 2011-10-14 2014-12-18 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Virtual display system for vehicles
JP2016040140A (en) * 2014-08-12 2016-03-24 ソニー株式会社 Display device for vehicle and display control method, and rear side monitoring system
WO2016152572A1 (en) * 2015-03-20 2016-09-29 日産自動車株式会社 Indirect-view presentation device
JP2017060119A (en) * 2015-09-18 2017-03-23 マツダ株式会社 Image display device for vehicle
US20170336797A1 (en) * 2016-05-23 2017-11-23 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
KR101902287B1 (en) * 2015-12-28 2018-09-28 주식회사 유라코퍼레이션 Apparatus and method for displaying in vehicle
WO2019081829A1 (en) * 2017-10-27 2019-05-02 Psa Automobiles Sa Display device having a screen fixed to part of a system for making a masking element transparent
JP2019073091A (en) * 2017-10-13 2019-05-16 トヨタ自動車株式会社 Vehicular display apparatus
JP2019125920A (en) * 2018-01-17 2019-07-25 株式会社ジャパンディスプレイ Monitor display system and display method
CN111391818A (en) * 2019-01-03 2020-07-10 普瑞车联有限公司 Controlling a vehicle using a control system
CN111422129A (en) * 2020-03-17 2020-07-17 博众成(武汉)科技有限公司 Automobile, and eliminating device and eliminating method for eliminating automobile A column blind area
CN113968186A (en) * 2020-07-22 2022-01-25 华为技术有限公司 Display method, device and system

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010116126A (en) * 2008-11-14 2010-05-27 Aisin Aw Co Ltd Display control system, display control method, and display control program
JP2010276557A (en) * 2009-05-29 2010-12-09 Toyota Motor Corp Spectrum measuring device for moving body
JP2014534697A (en) * 2011-10-14 2014-12-18 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Virtual display system for vehicles
JP2014177143A (en) * 2013-03-13 2014-09-25 Mitsubishi Electric Corp Driving support device for vehicle
JP2014196088A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Vehicle display device
JP2016040140A (en) * 2014-08-12 2016-03-24 ソニー株式会社 Display device for vehicle and display control method, and rear side monitoring system
US10682958B2 (en) 2014-08-12 2020-06-16 Sony Corporation Vehicle display device, display control method, and rearview monitoring system
WO2016152572A1 (en) * 2015-03-20 2016-09-29 日産自動車株式会社 Indirect-view presentation device
JP2017060119A (en) * 2015-09-18 2017-03-23 マツダ株式会社 Image display device for vehicle
KR101902287B1 (en) * 2015-12-28 2018-09-28 주식회사 유라코퍼레이션 Apparatus and method for displaying in vehicle
JP2017211700A (en) * 2016-05-23 2017-11-30 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
US10514703B2 (en) 2016-05-23 2019-12-24 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
US20170336797A1 (en) * 2016-05-23 2017-11-23 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
JP2019073091A (en) * 2017-10-13 2019-05-16 トヨタ自動車株式会社 Vehicular display apparatus
WO2019081829A1 (en) * 2017-10-27 2019-05-02 Psa Automobiles Sa Display device having a screen fixed to part of a system for making a masking element transparent
FR3072932A1 (en) * 2017-10-27 2019-05-03 Psa Automobiles Sa SCREEN DISPLAY DEVICE FIXED TO A PART OF A SYSTEM FOR TRANSPARENCY OF A MASKING MEMBER.
JP2019125920A (en) * 2018-01-17 2019-07-25 株式会社ジャパンディスプレイ Monitor display system and display method
JP7160301B2 (en) 2018-01-17 2022-10-25 株式会社ジャパンディスプレイ MONITOR DISPLAY SYSTEM AND ITS DISPLAY METHOD
CN111391818A (en) * 2019-01-03 2020-07-10 普瑞车联有限公司 Controlling a vehicle using a control system
CN111422129A (en) * 2020-03-17 2020-07-17 博众成(武汉)科技有限公司 Automobile, and eliminating device and eliminating method for eliminating automobile A column blind area
CN113968186A (en) * 2020-07-22 2022-01-25 华为技术有限公司 Display method, device and system

Similar Documents

Publication Publication Date Title
JP2008213649A (en) Periphery monitoring device for vehicle
CN107444263B (en) Display device for vehicle
EP3505398B1 (en) Image display apparatus
US8330816B2 (en) Image processing device
JP5115136B2 (en) Vehicle rear monitoring device
JP6410987B2 (en) Driving support device, driving support method, and driving support program
CN102371944B (en) Driver vision support system and vehicle including the system
JP3916958B2 (en) Vehicle rear monitoring system and monitoring device
JP5093611B2 (en) Vehicle periphery confirmation device
JP4698351B2 (en) Vehicle side confirmation device
US20190100156A1 (en) System and method for controlling a display
WO2006124164A2 (en) Method and apparatus to facilitate visual augmentation of perceived reality
JP3228086B2 (en) Driving operation assist device
JP2008230296A (en) Vehicle drive supporting system
EP3463982B1 (en) Vehicle display with selective image data display
JP2018052216A (en) Visual recognition device for vehicle and visual recognition image display method for vehicle
US20210331622A1 (en) Vehicular around view monitoring system through adjustment of viewing angle of camera, and method thereof
JP2009183473A (en) Visual line direction detection device, and visual line direction detection method
JP2006044596A (en) Display device for vehicle
JP2016168877A (en) Visual recognition device for vehicle
JP2003339044A (en) Surrounding monitoring apparatus for vehicle
JP2018022958A (en) Vehicle display controller and vehicle monitor system
JP4552636B2 (en) Driver monitor system and processing method thereof
JP2008037118A (en) Display for vehicle
JP2017111739A (en) Driving support apparatus and driving support method