JP2006044596A - Display device for vehicle - Google Patents

Display device for vehicle Download PDF

Info

Publication number
JP2006044596A
JP2006044596A JP2004231833A JP2004231833A JP2006044596A JP 2006044596 A JP2006044596 A JP 2006044596A JP 2004231833 A JP2004231833 A JP 2004231833A JP 2004231833 A JP2004231833 A JP 2004231833A JP 2006044596 A JP2006044596 A JP 2006044596A
Authority
JP
Japan
Prior art keywords
driver
vehicle
image
viewpoint
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004231833A
Other languages
Japanese (ja)
Inventor
Teruhiko Karashima
輝彦 辛島
Ichiro Yoshida
一郎 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2004231833A priority Critical patent/JP2006044596A/en
Publication of JP2006044596A publication Critical patent/JP2006044596A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device for a vehicle with high dead angle reduction effect constituted such that a driver easily, instantaneously and intuitively grasp which direction a projected image is directed. <P>SOLUTION: The display device 100 for the vehicle is provided with an outdoor camera 11 for photographing a periphery of the vehicle 41; a view recognition unit 21 for recognizing a spatial position of the view of the driver seated on a driver's seat; an image data processing device 23 for producing outdoor scene which should be projected to eyes of the driver when it is assumed that a shutting off article such as a side pillar and a door for shutting off a visual field of the driver is transparent by processing peripheral image data obtained by the outdoor camera 11 in response to recognition result of the view recognition unit 21; and displays 31-38 for displaying the image produced by the image data processing device 23. The displays 31-38 are mounted to the shutting off article such as a pillar. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両の周囲を撮像して車室内のディスプレイに表示することにより、運転者の死角を削減することができる車両用表示装置に関する。   The present invention relates to a display device for a vehicle that can reduce a driver's blind spot by capturing an image of the surroundings of the vehicle and displaying the image on a display in a passenger compartment.

従来から、運転者の死角をカメラで撮像し、ディスプレイやホログラムに表示する試みがなされている(下記特許文献1〜4)。
特開平6−227318号公報 特開平7−17328号公報 特開平7−223487号公報 特開2000−71877号公報
Conventionally, an attempt has been made to capture a driver's blind spot with a camera and display it on a display or hologram (Patent Documents 1 to 4 below).
JP-A-6-227318 Japanese Unexamined Patent Publication No. 7-17328 JP-A-7-223487 JP 2000-71877 A

従来の表示装置では、たとえば車両後方の画像がダッシュボードに配置されたディスプレイに映し出されたりする。つまり、ディスプレイの配置と運転者の死角の方向とが一致しないため、運転者にしてみれば表示された画像がどこを映し出しているものなのか、瞬時に把握しづらい。   In a conventional display device, for example, an image behind the vehicle is displayed on a display arranged on a dashboard. In other words, since the display arrangement and the driver's blind spot direction do not match, it is difficult for the driver to instantly grasp what the displayed image shows.

本発明の課題は、ディスプレイ等に映し出されている画像が、どの方向のものであるのかを運転者が瞬時かつ直感的に把握し易いように構成された、死角削減効果の高い車両用表示装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a vehicle display device with a high effect of reducing blind spots, which is configured so that a driver can easily and intuitively know in which direction an image displayed on a display or the like is. Is to provide.

課題を解決するための手段および発明の効果Means for Solving the Problems and Effects of the Invention

上記課題を解決するために本発明の車両用表示装置は、車両の周辺を撮像する撮像手段と、運転席に着席した運転者の視点の空間的な位置を認識する視点認識手段と、運転者の視界を遮るサイドピラーやドア等の遮蔽物が透明であるとした場合に運転者の目に映るべき車外の景色の画像を、撮像手段によって得られた周辺画像データを視点認識手段の認識結果に応じて加工することにより生成する画像生成手段と、画像生成手段が生成する画像を遮蔽物の位置に表示する表示手段と、を備えたことを主要な特徴とする。   In order to solve the above problems, a display device for a vehicle according to the present invention includes an imaging means for imaging the periphery of a vehicle, a viewpoint recognition means for recognizing a spatial position of the viewpoint of the driver seated on the driver's seat, and the driver If the obstacles such as side pillars and doors that block the field of view are transparent, the image of the scenery outside the vehicle that should be seen by the driver and the peripheral image data obtained by the imaging means are the recognition results of the viewpoint recognition means The main feature is that it includes image generation means that is generated by processing according to the above, and display means that displays an image generated by the image generation means at the position of the shielding object.

上記本発明の車両用表示装置は、サイドピラーやドアといった死角を生む遮蔽物にディスプレイ等の表示手段を設置し、それらの遮蔽物があたかも透明であるかのごとく、車外の景色を表示させるものである。遮蔽物にディスプレイを取り付ける他にも、ホログラムで表示する方法も考え得る。こうした車両用表示装置の技術的なハードルの一つに、実際にフロントガラスやウインドウガラスを通じて映る景色と、遮蔽物の位置に映しだされる画像とを一致させることが挙げられる。上記本発明では、運転者の視点位置を予め求めておき、撮像手段で得た画像を、その視点位置に応じて加工する方式を採用している。このような構成によれば、現実の運転者の視点が基準となるため、実際にフロントガラスやウインドウガラスを通じて映る景色と、遮蔽物の位置に映しだされる画像とのズレを、どのような体格の運転者に対しても柔軟に解消できる。これにより、違和感を生じさせること無く全ての運転者の死角を効果的に減じることができ、いち早い危険察知や安全運転に寄与し得る車両用表示装置を実現することが可能となる。   The vehicle display device according to the present invention has a display means such as a display installed on a shielding object that generates a blind spot such as a side pillar or a door, and displays the scenery outside the vehicle as if the shielding object is transparent. It is. In addition to attaching a display to the shield, a method of displaying a hologram can also be considered. One of the technical hurdles of such a vehicle display device is to match the scenery actually reflected through the windshield or window glass with the image projected at the position of the shield. In the present invention, a method is employed in which the viewpoint position of the driver is obtained in advance, and the image obtained by the imaging means is processed according to the viewpoint position. According to such a configuration, since the viewpoint of the actual driver is the reference, what is the difference between the scenery actually reflected through the windshield and the window glass and the image projected at the position of the shielding object? It can be solved flexibly even for a physique driver. Accordingly, it is possible to effectively reduce the blind spots of all drivers without causing a sense of incongruity, and it is possible to realize a vehicle display device that can contribute to early danger detection and safe driving.

具体的に、上記した視点認識手段は、運転者を正面から撮像するために車室内に設けられた車内カメラと、その車内カメラが取得する画像データから運転者の視点の3次元座標における位置を算出する視点認識器とを含むものとして構成することができる。このように、運転者の視点を3次元座標上で特定すれば、ピラー等の遮蔽物によって遮られる範囲を求める処理も容易である。   Specifically, the viewpoint recognition unit described above determines the position of the driver's viewpoint in the three-dimensional coordinates from the in-vehicle camera provided in the vehicle interior in order to image the driver from the front and the image data acquired by the in-vehicle camera. It can comprise as a viewpoint recognizer to calculate. As described above, if the driver's viewpoint is specified on the three-dimensional coordinates, it is easy to obtain a range obstructed by a shield such as a pillar.

また、視点認識手段は、車内カメラを作動して運転者を撮像する際に、視点認識器から運転者に視点を安定させるための指示を取得し、音声等の識別情報によって運転者に視点を安定させるための案内を行なう対話制御器を備えるものとして構成することができる。車内カメラで運転者を撮像するタイミングで、運転者が運転時の姿勢を保ってくれるとは限らない。この場合、運転者の視点を認識する処理がスムーズに行なくなる恐れがある。したがって、対話制御器を用いた音声案内等により、視点認識のための処理に協力を促すようにするとよい。   The viewpoint recognizing means obtains an instruction for stabilizing the viewpoint from the viewpoint recognizer when the in-vehicle camera is operated to image the driver, and the driver recognizes the viewpoint based on identification information such as voice. It can be configured to include a dialogue controller that performs guidance for stabilization. The driver does not always maintain the driving posture at the timing when the driver is imaged by the in-vehicle camera. In this case, there is a possibility that the process of recognizing the driver's viewpoint cannot be performed smoothly. Therefore, it is preferable to encourage cooperation in the process for viewpoint recognition by voice guidance using a dialog controller.

また、遮蔽物としては、左右のサイドピラー、運転席や助手席のドア、ダッシュボードなど、複数あることが考え得る。こうした場合、遮蔽物を擬似的に透明化する表示手段として薄型ディスプレイを採用し、それら遮蔽物に個別に取り付けることができる。そして、視点認識手段は、運転者が一つ一つのディスプレイに視線を移すときの動作または移した後の姿勢を視線移動時の画像データとして収集する処理を行なうように構成することができ、その画像データを記憶する記憶部がさらに設けられる。すなわち、運転中の運転者の動作を常時撮像するようにし、予め記憶してある視線移動時の動作を運転者が行なったか否かの判断を行なうようにすれば、全てのディスプレイに常時車外画像を表示させるのではなく、運転者の視界に入っているディスプレイのみに選択的に車外画像を表示させるといった処理が可能になる。   Further, there may be a plurality of shielding objects such as left and right side pillars, doors of a driver seat and a passenger seat, and a dashboard. In such a case, a thin display can be adopted as display means for making the shielding objects pseudo transparent and can be individually attached to the shielding objects. The viewpoint recognizing means can be configured to perform a process of collecting the motion when the driver moves his / her line of sight to each display or the posture after the movement as image data when moving the line of sight, A storage unit for storing image data is further provided. That is, if the operation of the driver during driving is always imaged, and if it is determined whether or not the driver has performed the previously stored operation when moving the line of sight, the images outside the vehicle are always displayed on all displays. It is possible to perform a process of selectively displaying an image outside the vehicle only on a display that is in the driver's field of view.

他の一つの好適な態様において、表示手段は遮蔽物に取り付けられたディスプレイとされ、画像生成手段は、ディスプレイの設置位置を3次元座標上で特定する設置位置データと、ディスプレイの形状を特定する形状データとを予め記憶しておく記憶部を有し、視点認識手段によって求められた運転者の視点位置と、記憶部から読み出される設置位置データと、同じく形状データとから、運転者から見たときに遮蔽物によって遮られる像のみを抽出する形で、撮像手段によって得られた周辺画像データの切り取り加工を行なうように構成することができる。このような構成によれば、フロントガラスやウインドウガラスを通じて映る景色と、遮蔽物の位置に映しだされる画像とのズレを、スムーズに解消できる。   In another preferred embodiment, the display means is a display attached to the shield, and the image generation means specifies installation position data for specifying the installation position of the display on a three-dimensional coordinate and the shape of the display. It has a storage unit for storing shape data in advance, and is viewed from the driver from the viewpoint position of the driver obtained by the viewpoint recognition means, the installation position data read from the storage unit, and the shape data as well. In some cases, the peripheral image data obtained by the imaging means may be cut out in such a manner that only the image blocked by the shielding object is extracted. According to such a configuration, it is possible to smoothly eliminate the deviation between the scenery reflected through the windshield and the window glass and the image projected at the position of the shielding object.

また、撮像手段には、魚眼レンズを備えたデジタル方式の車外カメラが好適である。たとえば、魚眼レンズを2台使用すれば、車両の全周囲を撮像できるようになる。また、画像生成手段は、車外カメラから得られる画像を座標変換によって変形する処理を行なうとともに、遮蔽物によって視界が遮られる範囲を算出し、その遮られる範囲のピクセルデータを車外カメラから得られる画像から抽出してディスプレイ用のグラフィックメモリにセットする処理を行なうように構成することができる。魚眼レンズを用いれば、少ない台数のカメラで車両の全周囲を撮像できる。デジタル方式の画像データから、必要な部分のピクセルデータのみを抽出する処理は比較的高速に行なえるので、ディスプレイに映し出される画像に遅れが生じる恐れも皆無に等しい。   The imaging means is preferably a digital outside camera equipped with a fish-eye lens. For example, if two fisheye lenses are used, the entire periphery of the vehicle can be imaged. The image generation means performs processing for transforming an image obtained from the outside camera by coordinate transformation, calculates a range where the field of view is blocked by the shielding object, and obtains pixel data of the blocked range from the outside camera. It is possible to perform the process of extracting from the above and setting the graphic memory for display. If a fisheye lens is used, the entire periphery of the vehicle can be imaged with a small number of cameras. Since the process of extracting only the necessary pixel data from the digital image data can be performed at a relatively high speed, there is no possibility of delay in the image displayed on the display.

以下、添付の図面を参照しつつ本発明の実施形態について説明する。
図1は、本発明にかかる車両用表示装置の構成を示すブロック図である。図2は、その車両用表示装置の設置例を示す車両模式図である。図1に示すごとく、車両用表示装置100は、車両の周辺を撮像する車外カメラ11と、運転席に着席した運転者の視点の空間的な位置を認識する視点認識器21と、車外カメラ11によって得られた画像を加工する画像データ処理装置22と、画像データ処理装置22で加工された画像を表示するディスプレイ31〜38とを備える。運転者の視界を遮るピラーやドアに取り付けられたディスプレイ31〜38には、それらピラーやドアがあたかも透明であるように画像が表示される。これにより、運転者の死角を減じることができる。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a block diagram showing a configuration of a vehicle display device according to the present invention. FIG. 2 is a schematic view of a vehicle showing an installation example of the vehicle display device. As shown in FIG. 1, the vehicle display device 100 includes an outside camera 11 that captures an image of the periphery of the vehicle, a viewpoint recognizer 21 that recognizes the spatial position of the viewpoint of the driver seated in the driver's seat, and the outside camera 11. The image data processing device 22 that processes the image obtained by the above and displays 31 to 38 that display the image processed by the image data processing device 22. Images are displayed on the displays 31 to 38 attached to the pillars and doors that obstruct the driver's view as if the pillars and doors are transparent. As a result, the blind spot of the driver can be reduced.

図2に示すごとく、車外カメラ11は、車両41の前端部に設置してある。車外カメラ11は、魚眼レンズを取り付けたCCDカメラである。CMOS−ICを使用したデジタルカメラなど、他種類のデジタル方式のカメラも採用可能である。魚眼レンズを用いることにより、進行方向の立体角2πの範囲を撮像できるようになる。魚眼レンズには、たとえば等距離射影方式(fθ)、平射影方式(2f・tan(θ/2))、等立体角射影方式(2f・sin(θ/2))、正射影方式(f・sinθ)などいずれを使用してもよい。実績やコスト面からすれば等距離射影方式がよい。また、等距離投影方式などは画面周辺における情報量がつぶれてしまうのに対し、平射影方式だと周辺部における情報量が欠落しないため、鮮明な画像を得るのに適している。なお、こうした車外カメラ11を複数台設けることも可能である。たとえば、前端部と後端部との対角位置に1対の車外カメラ11を設けることにより、車両の前方のみならず後方も鮮明に撮像できるようになる。   As shown in FIG. 2, the vehicle exterior camera 11 is installed at the front end of the vehicle 41. The camera 11 outside the vehicle is a CCD camera with a fisheye lens attached. Other types of digital cameras such as a digital camera using a CMOS-IC can also be employed. By using the fisheye lens, it is possible to image a range of the solid angle 2π in the traveling direction. The fish-eye lens includes, for example, an equidistant projection method (fθ), a flat projection method (2f · tan (θ / 2)), an equal solid angle projection method (2f · sin (θ / 2)), and an orthographic projection method (f · sinθ). ) Etc. may be used. The equidistant projection method is preferable in terms of performance and cost. In addition, the equidistant projection method or the like destroys the information amount in the periphery of the screen, whereas the flat projection method is suitable for obtaining a clear image because the information amount in the peripheral portion is not lost. It is also possible to provide a plurality of such external cameras 11. For example, by providing a pair of external cameras 11 at diagonal positions between the front end portion and the rear end portion, it is possible to clearly capture not only the front but also the rear of the vehicle.

車外カメラ11によって撮像された画像は、車外カメラ制御器15に送られる。車外カメラ制御器15は、車両用表示装置100を構成するものである。また、車外カメラ11は車外の環境(温度、湿度等)を検出するセンサを備えており、鮮明な画像が得られるように自身の光学系、CCDの温度、カバーのくもり除去等を行なう機能を有する。車外カメラ制御器15は車外カメラ11から画像を受け取り、デジタルデータに変換して画像データ処理装置23に送る。あるいは、車外カメラ制御器15のメモリ(図示省略)にデジタル変換した画像データを記憶し、画像データ処理装置23が処理のために画像データを取りにくるようにしてもよい。この場合、車外カメラ制御器15は定期的にデジタルデータを書きかえるため、外部からデジタルデータが取られない場合、過去のデータは捨てられる(消去される)ことになる。   The image picked up by the outside camera 11 is sent to the outside camera controller 15. The vehicle exterior camera controller 15 constitutes the vehicle display device 100. In addition, the camera 11 outside the vehicle is provided with a sensor for detecting the environment (temperature, humidity, etc.) outside the vehicle, and has a function of removing its own optical system, the temperature of the CCD, the fogging of the cover, etc. so that a clear image can be obtained. Have. The vehicle camera controller 15 receives an image from the vehicle camera 11, converts it into digital data, and sends it to the image data processing device 23. Alternatively, digitally converted image data may be stored in a memory (not shown) of the vehicle camera controller 15 so that the image data processing device 23 can obtain the image data for processing. In this case, since the vehicle camera controller 15 periodically rewrites the digital data, if the digital data cannot be taken from the outside, the past data is discarded (erased).

一方、車内にはダッシュボード、左右のサイドピラー、左右のドア、後部シートの各々にディスプレイ31〜38が設置されている。ディスプレイ31〜38には、フレキシブル基板を用いた有機EL(Electro Luminescence)ディスプレイを好適に採用することができる。これらのディスプレイ31〜38は、各々が別々の画像を表示することができる。車外カメラ11によって得られた画像は、これらディスプレイ31〜38に映し出される。たとえば、右ピラーディスプレイ32には、その運転席側のサイドピラーによって遮られた景色が映し出されるようになっている。なお、後部座席の背もたれ越しに車両後方が完全に視認できないような場合、天井からスクリーン状のディスプレイを吊るすようにして、そのディスプレイに表示を行なうようにしてもよい。   On the other hand, displays 31 to 38 are installed in the dashboard, the left and right side pillars, the left and right doors, and the rear seat, respectively, in the vehicle. As the displays 31 to 38, an organic EL (Electro Luminescence) display using a flexible substrate can be suitably employed. Each of these displays 31 to 38 can display a separate image. An image obtained by the outside camera 11 is displayed on these displays 31 to 38. For example, on the right pillar display 32, a scene blocked by the side pillar on the driver's seat side is displayed. If the rear of the vehicle cannot be seen completely behind the backrest of the rear seat, a screen-like display may be hung from the ceiling and displayed on the display.

また、車内には運転者を撮像できる位置、たとえばルームミラーに隣接する位置に車内カメラ13が設置してある。その車内カメラ13によって得られる画像を鮮明化したり、外部からの命令を受けて車内カメラ17に車内を撮像させたりする車内カメラ制御器17が、車両用表示装置100の一部として設けられる。車内カメラ制御器17は、車内の照度を検出する照度センサ、車内の温度を検出する温度センサ等のセンサ19の検出データが入力され、車内の画像が鮮明に撮像できる車内環境を作るための制御もあわせて行なう。   An in-vehicle camera 13 is installed in the vehicle at a position where the driver can be imaged, for example, at a position adjacent to the rearview mirror. An in-vehicle camera controller 17 that sharpens an image obtained by the in-vehicle camera 13 or causes the in-vehicle camera 17 to image the inside of the vehicle in response to an external command is provided as a part of the vehicle display device 100. The in-vehicle camera controller 17 is input with detection data of a sensor 19 such as an illuminance sensor for detecting the illuminance in the vehicle and a temperature sensor for detecting the temperature in the vehicle, and controls for creating an in-vehicle environment in which an image in the vehicle can be clearly captured. Also do it.

また、運転席のシート43には、運転者の着席の有無を検出する着座センサ25が備え付けられている。こうした着座センサ25は、公知の荷重センサやリミットスイッチで構成されるものである。運転席43に運転者が着席すると、運転席43に設置してある着座センサ25によって運転者の着席が検出される。その検出結果が視点認識器21に送られ、これを契機に運転者の視点位置が計測される。運転者の視点位置は、適切な位置に原点が定められた3次元座標上で特定される。この3次元座標は、図2に示すごとく、車幅方向をX軸、車長方向をY軸、車高方向をZ軸として定義されている。車内カメラ13、車内カメラ制御器17および視点認識器21は、この3次元座標において運転者の視点の位置を測定する。   The seat 43 of the driver seat is provided with a seating sensor 25 that detects whether the driver is seated. Such a seating sensor 25 is composed of a known load sensor or limit switch. When the driver is seated in the driver's seat 43, the driver's seat is detected by the seating sensor 25 installed in the driver's seat 43. The detection result is sent to the viewpoint recognizer 21, and the driver's viewpoint position is measured in response to this detection result. The viewpoint position of the driver is specified on the three-dimensional coordinates in which the origin is determined at an appropriate position. As shown in FIG. 2, the three-dimensional coordinates are defined with the vehicle width direction as the X axis, the vehicle length direction as the Y axis, and the vehicle height direction as the Z axis. The in-vehicle camera 13, the in-vehicle camera controller 17, and the viewpoint recognizer 21 measure the position of the driver's viewpoint in the three-dimensional coordinates.

運転者の視点位置を測定する方法を詳しく説明する。図3に示すのは、視点認識器21が行なう制御のフローチャートである。視点認識器21は、運転席に運転者が着席しているか否かを着座センサ25の出力を検出することによりチェックする(S1)。運転者が運転席に着席している場合、車内カメラ13を作動させる命令を車内カメラ制御器17に出力する(S11)。この命令出力を機に、視点認識器21および車内カメラ制御器17は、運転者を撮像するモードに移る(S12)。   A method for measuring the viewpoint position of the driver will be described in detail. FIG. 3 is a flowchart of control performed by the viewpoint recognizer 21. The viewpoint recognizer 21 checks whether the driver is seated in the driver seat by detecting the output of the seating sensor 25 (S1). When the driver is seated in the driver's seat, a command for operating the in-vehicle camera 13 is output to the in-vehicle camera controller 17 (S11). Taking this command output as an opportunity, the viewpoint recognizer 21 and the in-vehicle camera controller 17 shift to a mode for imaging the driver (S12).

運転者撮像モードに移ると、運転者の動作が安定しているかどうかをチェックする(S13)。たとえば、着座センサ25を荷重センサで構成し、運転者がシート34に及ぼす圧力変動を見るようにすれば、運転者が静止しているか否かをある程度正確に判断することができる。また、シートベルト着用を以って運転者が静止したと判断するようにしてもよい。このように、運転者の動作が安定したかどうかの判断は、予め基準を設定しておくことで行なえる。   When the driver imaging mode is entered, it is checked whether the driver's operation is stable (S13). For example, if the seating sensor 25 is composed of a load sensor and the driver sees the pressure fluctuation exerted on the seat 34, it can be determined to some extent whether or not the driver is stationary. Further, it may be determined that the driver is stationary by wearing the seat belt. As described above, it is possible to determine whether or not the driver's operation is stable by setting a reference in advance.

運転者の動作が設定時間以上安定しないとき、視点認識器21は、対話制御器27(エージェント)に、運転者に動作を安定させるための指示出力を依頼する(S17)。この依頼に応じて対話制御器27は、運転者へ音声案内等による問いかけを行ない、しばらくの間静止するように促す。たとえば、「視点位置を測定するのでしばらく静止してください」といった音声案内を行なうことにより、運転者の視点位置を高精度に測定できるようになる。   When the driver's motion is not stable for the set time or longer, the viewpoint recognizer 21 requests the dialog controller 27 (agent) to output an instruction for stabilizing the motion to the driver (S17). In response to this request, the dialogue controller 27 asks the driver by voice guidance or the like and prompts the driver to remain stationary for a while. For example, by performing voice guidance such as “Please stop for a while because the viewpoint position is measured”, the viewpoint position of the driver can be measured with high accuracy.

また、運転者に対し、見たいディスプレイ(視界を遮られたくない位置にあるディスプレイ)が、ダッシュボードディスプレイ31、左右のピラーディスプレイ32,33、前部ドアディスプレイ34,36、後部ドアディスプレイ35,37、後部座席ディスプレイ38のいずれであるのか選択する入力を対話制御器27からの音声案内によって促すようにしてもよい。運転者から入力を受け付けることによって画像データ処理装置23は、有効化する(運転者の死角の画像を表示する)ディスプレイと、無効化する(画像を表示しない)ディスプレイとを区別して認識し、有効化されたディスプレイにのみ車外カメラ11で得られた画像を加工して表示させる。   In addition, the display that the driver wants to see (the display in a position where the view is not obstructed) is the dashboard display 31, left and right pillar displays 32 and 33, front door displays 34 and 36, rear door display 35, 37 and an input for selecting the rear seat display 38 may be prompted by voice guidance from the dialogue controller 27. By receiving an input from the driver, the image data processing device 23 recognizes and distinguishes between a display to be activated (displaying an image of the blind spot of the driver) and a display to be invalidated (not displaying an image). The image obtained by the outside camera 11 is processed and displayed only on the converted display.

このようにして、運転者の動作が安定すると車内カメラ13によって運転者が正面から撮像され、図4(a)(b)に示すような運転者画像が得られる。求めるべき運転者の視点位置Eは、たとえば両目の中心とする。この視点位置Eの座標は、次のようにして特定することができる。まず、図4で示した運転者画像の解析を行なう。運転者画像の解析では、運転者の複数の特徴点(両目、関節など)を得る。一方、視点認識器21には、図4に示す運転席のシート43の形状データを表すものとして複数の測定基準点が記憶されている。そして、それら測定基準点と運転者画像の解析で得られる運転者の特徴点とから、視点位置Eの座標(x,y,z)が算出されて記録される(S15,S16)。   In this way, when the driver's operation is stabilized, the driver is imaged from the front by the in-vehicle camera 13, and a driver image as shown in FIGS. 4 (a) and 4 (b) is obtained. The viewpoint position E of the driver to be obtained is, for example, the center of both eyes. The coordinates of the viewpoint position E can be specified as follows. First, the driver image shown in FIG. 4 is analyzed. In the analysis of the driver image, a plurality of feature points (both eyes, joints, etc.) of the driver are obtained. On the other hand, the viewpoint recognizer 21 stores a plurality of measurement reference points as representing the shape data of the seat 43 of the driver's seat shown in FIG. Then, the coordinates (x, y, z) of the viewpoint position E are calculated and recorded from the measurement reference points and the driver feature points obtained by analyzing the driver image (S15, S16).

視点位置Eの座標(x,y,z)の算出手順をさらに詳しく説明する。図4(a)に示すように、測定基準点A(ヘッドレストの角)や測定基準点B(シートの角)の座標は予め分かっているので、これら測定基準点と特徴点の差を求めれば、視点位置Eの座標(x,y,z)を求めることができる。まず、測定基準点Aの実座標を(x1,y1)、測定基準点Bの実座標を(x2,y2)とする。測定基準点Aと測定基準点Bとの間で形成される長方形の高さ方向の画素数をNy、横方向の画素数をNxとし、測定基準点Aの画素を(1,1)とすると、測定基準点Bの画素は(Nx,Ny)である。   The calculation procedure of the coordinates (x, y, z) of the viewpoint position E will be described in more detail. As shown in FIG. 4A, since the coordinates of the measurement reference point A (headrest corner) and the measurement reference point B (sheet corner) are known in advance, the difference between these measurement reference points and feature points can be obtained. The coordinates (x, y, z) of the viewpoint position E can be obtained. First, the actual coordinates of the measurement reference point A are (x1, y1), and the actual coordinates of the measurement reference point B are (x2, y2). If the number of pixels in the height direction of the rectangle formed between the measurement reference point A and the measurement reference point B is Ny, the number of pixels in the horizontal direction is Nx, and the pixel at the measurement reference point A is (1, 1). The pixel at the measurement reference point B is (Nx, Ny).

一方、車内カメラ13の撮影画像から左目の位置Elを目の虹彩位置で測定し、そのElの座標を画素A点から右、下方向に数えて(Elx,Ely)(ここでElxとElyは整数)を求める。右目も同様にして(Erx,Ery)である。すると、視点位置Eは、((Elx+Erx)/2,(Ely+Ery)/2)となる。これを画素数Nx,Nyで正規化すると((Elx+Erx)/(2Nx),(Ely+Ery)/(2Ny))となる。さらに、これを実座標に変換することにより視点位置Eの座標(Ex,Ey)が求まる。
Ex=x1+(x2−x1)(Elx+Erx)/(2Nx)
Ey=y1+(y2−y1)(Ely+Ery)/(2Ny)
On the other hand, the position El of the left eye is measured from the captured image of the in-vehicle camera 13 at the iris position of the eye, and the coordinates of the El are counted to the right and down from the pixel A point (Elx, Ely) (where Elx and Ely are (Integer). The same applies to the right eye (Erx, Ery). Then, the viewpoint position E becomes ((Elx + Erx) / 2, (Ely + Ery) / 2). When this is normalized by the number of pixels Nx and Ny, ((Elx + Erx) / (2Nx), (Ely + Ery) / (2Ny)) is obtained. Furthermore, the coordinates (Ex, Ey) of the viewpoint position E are obtained by converting this into real coordinates.
Ex = x1 + (x2-x1) (Elx + Erx) / (2Nx)
Ey = y1 + (y2-y1) (Ely + Ery) / (2Ny)

あるいは、次のような手順も採用できる。まず、図4の運転者画像の解析(パターン認識等)を行ない、運転者の視点位置EのX−Z平面内での位置を特定する。一方、運転席のシート43には前後方向の移動量、背もたれの角度を計測する変位センサ(図示省略)が取り付けられている。この変位センサによってシート移動量、背もたれ角などのシート姿勢が検出され、視点認識器21に入力される。変位センサの検出結果から、シート43の位置・姿勢を知ることができ、運転者の頭が前後方向(Y軸方向)のどのあたりに位置するのか概ね正確に特定できる。すなわち、視点位置EのY座標を特定することができる。このようにして、視点位置Eの3次元座標が既知となる。求めた視点位置Eの座標は、車外カメラ11で得られる画像を、運転者の視点から見た画像に変換するための(視点の変換のための)データとして用いられる。   Alternatively, the following procedure can also be adopted. First, the driver image in FIG. 4 is analyzed (pattern recognition or the like), and the position of the driver's viewpoint position E in the XZ plane is specified. On the other hand, a displacement sensor (not shown) for measuring the amount of movement in the front-rear direction and the angle of the backrest is attached to the seat 43 of the driver's seat. A seat posture such as a seat movement amount and a backrest angle is detected by the displacement sensor and input to the viewpoint recognizer 21. From the detection result of the displacement sensor, the position / posture of the seat 43 can be known, and the position in the front-rear direction (Y-axis direction) where the driver's head is located can be identified almost accurately. That is, the Y coordinate of the viewpoint position E can be specified. In this way, the three-dimensional coordinates of the viewpoint position E are known. The obtained coordinates of the viewpoint position E are used as data for converting an image obtained by the vehicle exterior camera 11 into an image viewed from the viewpoint of the driver (for viewpoint conversion).

また、上記のごとく運転者の視点を測定する際に、対話制御器27(エージェント)を使って運転者に対し、「左ピラーを見てください」「右ピラーを見てください」というように、各ディスプレイ31〜38の方向を個別に向かせ、運転者の視線方向に応じた複数の視点位置Eを測定することも可能である。運転者が右ピラー方向を見るとき、左ピラー方向を見るとき、後部ドア方位を見るときなど、目の向く方向によって視点位置Eは変化すると考えられる。したがって、ディスプレイ31〜38に個別に対応する形で、視点位置Eの座標データを記憶しておき、車外カメラ11から得られる画像の切り取りを行なう際には、各ディスプレイ31〜38に対応した視点位置Eの座標データを使用するとよい。このようにすれば、全てのディスプレイ31〜38にズレの少ない死角画像を映せるようになる。   In addition, when measuring the driver's viewpoint as described above, the dialog controller 27 (agent) is used to ask the driver to "Look at the left pillar" or "Look at the right pillar" It is also possible to measure the plurality of viewpoint positions E according to the driver's line-of-sight direction by directing the directions of the displays 31 to 38 individually. When the driver looks at the right pillar direction, when looking at the left pillar direction, when looking at the rear door orientation, the viewpoint position E is considered to change depending on the direction in which the eyes are facing. Therefore, when coordinate data of the viewpoint position E is stored in a form corresponding to each of the displays 31 to 38 and an image obtained from the outside camera 11 is cut out, the viewpoint corresponding to each of the displays 31 to 38 is stored. The coordinate data of the position E may be used. In this way, a blind spot image with little deviation can be displayed on all the displays 31 to 38.

たとえば、左右のそれぞれの目の虹彩の位置を測定することにより、視線をより詳細に計測できる。運転者が首を左右に振った場合、目の位置は正面を向いた場合に比べ目の位置は左右対称からずれる。両目がまっすぐ前を向いた場合と、首を曲げた場合の目の位置のずれの量から、首(顔)の回転角を計算する。次に、顔のほぼ正面方向に設置したカメラにて左右のそれぞれの黒目の位置を測定し、首を曲げた状態で、目がどちらの方向を見ているかを計測する。通常、黒目が中央にあれば、視線方向は正面にあり、黒目が右にずれると視線は右方向、逆の場合は視線は左方向になる。なお、視線位置は個人差があるため、首を曲げた状態で見る位置にある複数のディスプレイ(ピラーディスプレイ32,33やドアディスプレイ34,36)にマーカやエージェント等のキャラクタを表示し、運転者が首を曲げてそれらのキャラクタを注視するときの視線のキャリブレーションを行ない、そのキャリブレーション結果を各ディスプレイに映し出す画像の加工・生成に反映させてもよい。   For example, the line of sight can be measured in more detail by measuring the iris positions of the left and right eyes. When the driver swings his / her head to the left or right, the eye position deviates from the left / right symmetry as compared to when the driver faces the front. The rotation angle of the neck (face) is calculated from the amount of shift of the eye position when both eyes are facing straight forward and when the neck is bent. Next, the positions of the left and right black eyes are measured with a camera installed almost in front of the face, and the direction in which the eyes are looking with the neck bent is measured. Normally, if the black eye is in the center, the line-of-sight direction is in front, and if the black eye is shifted to the right, the line of sight is in the right direction, and vice versa. Since the line-of-sight position varies from person to person, characters such as markers and agents are displayed on a plurality of displays (pillar displays 32 and 33 and door displays 34 and 36) that are viewed with the neck bent. May calibrate the line of sight when bending the neck and gazing at those characters, and reflect the calibration results in the processing and generation of images displayed on each display.

また、運転者がどのような動作で左右のピラーディスプレイ32,33を見るかを画像として記録しておくことも好適である。この画像データから、運転者が正面から左右や後方を向くタイミングを予測すれば、そのタイミングに応じて運転者が向いた方向のディスプレイにのみ選択的に、車外カメラ11で得た画像を表示するといった制御を行なえるようになる。   It is also preferable to record as an image how the driver views the left and right pillar displays 32 and 33. If it is predicted from this image data that the driver will turn to the left, right, or rear from the front, the image obtained by the outside camera 11 is selectively displayed only on the display in the direction that the driver faces according to the timing. Can be controlled.

以上のようにして運転者の視点位置Eを測定したら、その視点位置Eの座標データと、ディスプレイ31〜38の設置位置データおよび形状データから、車外カメラ11から得られる画像のうち、ディスプレイ31〜38に表示すべき部分の切り取り範囲が決定される。以下、画像データ処理装置23の詳細な制御について、図5のフローチャートを参照しつつ説明する。   When the viewpoint position E of the driver is measured as described above, among the images obtained from the vehicle exterior camera 11 from the coordinate data of the viewpoint position E and the installation position data and shape data of the displays 31 to 38, the displays 31 to 31 are displayed. The cutout range of the portion to be displayed at 38 is determined. Hereinafter, detailed control of the image data processing device 23 will be described with reference to the flowchart of FIG.

画像データ処理装置23は、車外カメラ制御器15から車外カメラ11の画像データが送られてきたか否かを判断する(S1)。画像データが送られてきたらその画像データを記憶する(S2)。次に、運転者の視点位置を示すデータ(視点位置データ)が視点認識器21に記憶されているかチェックする(S3)。先に説明したように、視点認識器21は、視点位置Eの座標データを記憶している。画像データ処理装置23は、視点位置Eの座標データを視点認識器21から取得して記憶する(S4)。あるいは、視点位置Eの測定の際に、視点認識器21から画像データ処理装置23へ視点位置Eの座標データを渡すようにしておくこともできる。   The image data processing device 23 determines whether or not the image data of the outside camera 11 is sent from the outside camera controller 15 (S1). When the image data is sent, the image data is stored (S2). Next, it is checked whether data indicating the driver's viewpoint position (viewpoint position data) is stored in the viewpoint recognizer 21 (S3). As described above, the viewpoint recognizer 21 stores the coordinate data of the viewpoint position E. The image data processing device 23 acquires the coordinate data of the viewpoint position E from the viewpoint recognizer 21 and stores it (S4). Alternatively, the coordinate data of the viewpoint position E may be passed from the viewpoint recognizer 21 to the image data processing device 23 when the viewpoint position E is measured.

なお、先に説明したごとく、視点位置Eは単一とは限らず、右ピラー方向、左ピラー方向、後部左方向、後部右方向…というように、ディスプレイ31〜38に個別に対応する形で測定できる。したがってこの場合には、画像データ処理装置23には、ディスプレイ31〜38と視点位置Eとの対応関係が記憶される。   Note that, as described above, the viewpoint position E is not limited to a single point, and is individually associated with the displays 31 to 38, such as the right pillar direction, the left pillar direction, the rear left direction, the rear right direction, and so on. It can be measured. Therefore, in this case, the image data processing device 23 stores the correspondence between the displays 31 to 38 and the viewpoint position E.

次に、ディスプレイ31〜38の属性データを読み出す。ここでいう属性データは、ディスプレイ31〜38の設置位置(設置範囲)を特定する座標データであり、画像データ処理装置23に予め設定されている。たとえば、ディスプレイがサイドピラーにあわせた4角形であれば、その4隅の3次元座標を属性データとして設定する。また、ディスプレイ31〜38は、ID、表示サイズ、ディスプレイ形状といった属性データも持っている。IDは、各ディスプレイにユニークなIDと車両に紐付けされたローカルなIDとを含む。ユニークなIDを属性データとして持つことで、複数のディスプレイ31〜38に異なる画像を表示させることができる。また、表示サイズを選択できる場合は、複数の表示サイズを属性データとして持つようにしてもよい。ディスプレイの位置や形状は、運転者の視点位置Eと同じ3次元座標上の複数の点で表すことができる。   Next, the attribute data of the displays 31 to 38 is read out. The attribute data here is coordinate data for specifying the installation positions (installation ranges) of the displays 31 to 38 and is set in advance in the image data processing device 23. For example, if the display is a quadrangle matched to the side pillar, the three-dimensional coordinates of the four corners are set as attribute data. The displays 31 to 38 also have attribute data such as ID, display size, and display shape. The ID includes an ID unique to each display and a local ID linked to the vehicle. By having a unique ID as attribute data, different images can be displayed on the plurality of displays 31 to 38. When the display size can be selected, a plurality of display sizes may be provided as attribute data. The position and shape of the display can be represented by a plurality of points on the same three-dimensional coordinates as the driver's viewpoint position E.

図5のフローチャートのS5で、ディスプレイの属性データを読み出した後、ディスプレイの属性データと、運転者の視点位置Eの座標データとから、サイドピラー等の遮蔽物に取り付けられたディスプレイ31〜38を運転者が見る場合に、それら遮蔽物によって車外のどの領域が隠されるかが計算される。そして、その隠される部分を表す多角形(たとえば4角形)の領域が記録される。こうして運転者の死角となる領域を求める。   In S5 of the flowchart of FIG. 5, after the display attribute data is read, the displays 31 to 38 attached to the shielding such as a side pillar are displayed from the display attribute data and the coordinate data of the driver's viewpoint position E. When the driver sees, it is calculated which areas outside the vehicle are hidden by the shielding. A polygonal area (for example, a quadrangular area) representing the hidden portion is recorded. In this way, the area that becomes the blind spot of the driver is obtained.

一方、車外カメラ11で得られる画像をディスプレイ31〜38の形にあわせて表示するために必要な変換を行なう(S6)。図7に示すごとく、魚眼レンズの結像イメージは、左右が縮小されたものとなる。実際の3次元座標は、図7中の式によって魚眼レンズのX,Y座標に変換される。ここでX,Yは−1から1までの範囲をとるようにしている。物体までの距離zがわかっていれば、X,Yからx、yが計算できる。   On the other hand, the conversion necessary for displaying the image obtained by the outside camera 11 in accordance with the shape of the displays 31 to 38 is performed (S6). As shown in FIG. 7, the image formed by the fisheye lens is reduced in the left and right direction. The actual three-dimensional coordinates are converted into the X and Y coordinates of the fisheye lens by the formula in FIG. Here, X and Y take a range from -1 to 1. If the distance z to the object is known, x and y can be calculated from X and Y.

上記のようにして車外カメラ11からの画像データの座標変換を行なって歪みをなくした画像を得たのち、先に求めた死角となる領域のみを残す形で画像データの切り取り操作を行ない、切り取った画像(ピクセルデータ)を表示制御装置29に送る(S6,S7)。この結果、表示制御装置29の受け取る画像データがグラフィックメモリにセットされ、ディスプレイ31に表示する画像が生成される。   After obtaining the image without the distortion by performing the coordinate conversion of the image data from the vehicle camera 11 as described above, the image data is cut out in such a manner that only the area where the blind spot is obtained previously is left. The transmitted image (pixel data) is sent to the display control device 29 (S6, S7). As a result, the image data received by the display control device 29 is set in the graphic memory, and an image to be displayed on the display 31 is generated.

なお、座標変換を行なった画像データを運転者の死角となる領域を示す座標データとともに表示制御装置29に送り、表示制御装置29で死角以外の領域の切り取り操作を行ない、切り取った画像(ピクセルデータ)をディスプレイ31〜38のグラフィックメモリにセットするようにしてもよい。表示制御装置29は、ディスプレイ31〜38の描画性能に応じてデータセットタイミングを調整する。本実施形態のように、運転者の死角を減ずるためのディスプレイ31〜38が複数設けられている場合には、各ディスプレイについてこうした処理を行なうことになる。   The coordinate-converted image data is sent to the display control device 29 together with the coordinate data indicating the region that is the driver's blind spot, and the display control device 29 performs a cropping operation for regions other than the blind spot, and the cropped image (pixel data). ) May be set in the graphic memory of the displays 31-38. The display control device 29 adjusts the data set timing according to the drawing performance of the displays 31 to 38. When a plurality of displays 31 to 38 for reducing the driver's blind spot are provided as in this embodiment, such a process is performed for each display.

なお、魚眼レンズイメージから直接画像を切り取る方法としては、運転者の視点位置Eに対応する画素を直接ディスプレイに送るようにしてもよい。この方法によれば、表示が高速化できる。運転者の視点に応じて対応する画素は、運転者の目の高さによって変化するようになっている。   In addition, as a method of cutting out an image directly from a fisheye lens image, a pixel corresponding to the driver's viewpoint position E may be sent directly to the display. According to this method, display speed can be increased. The corresponding pixel according to the driver's viewpoint changes according to the height of the driver's eyes.

図6に、車両用表示装置100の動作状況と、その状況に対応した運転席のイメージを示す。上図に示すごとく、車両41が上方向に向かって停止、あるいは徐行しているとき前方を物体1が横切り、物体2が車両の右側方に存在する状況を仮定している。このとき、運転席のイメージは下図に示すようになる。右ピラーディスプレイ32とダッシュボードディスプレイ31には、運転者の視点から見た物体1が表示され、透過像表示イメージになる。また、物体2もドアディスプレイ34に表示された像により透過したように見える。   FIG. 6 shows an operation state of the vehicle display device 100 and an image of the driver's seat corresponding to the state. As shown in the upper diagram, it is assumed that the object 1 crosses the front and the object 2 exists on the right side of the vehicle when the vehicle 41 is stopped or slowed upward. At this time, the image of the driver's seat is as shown in the figure below. The right pillar display 32 and the dashboard display 31 display the object 1 viewed from the driver's viewpoint and become a transmission image display image. The object 2 also appears to be transmitted through the image displayed on the door display 34.

このように、ダッシュボードディスプレイ31によって車両前部の死角を見渡せるようにすれば、安全確認に威力を発揮する。特に、トラック、バス、ワゴン車など、ボンネットの突出が無い若しくは小さい車両の場合には、ボンネットの突出が大きい乗用車に比べ、運転者に違和感を生じさせることなく視界を広くすることが可能である。   In this way, if the dashboard display 31 can be used to look over the blind spot at the front of the vehicle, it is effective for safety confirmation. In particular, in the case of a vehicle having no bonnet protrusion or a small vehicle such as a truck, bus, wagon car, etc., it is possible to widen the field of view without causing the driver to feel uncomfortable compared to a passenger car having a large bonnet protrusion. .

次に、本発明の応用例を説明する。図8に示すように、運転席と後部座席とを隔てるようにディスプレイ39を設け、そのディスプレイ39の一方の面側には(前部座席側)後方視点の画像を表示するとともに、他方の面側(後部座席側)には映画等のエンターテイメント情報を表示する。この場合、後部座席のドア下部のディスプレイ35,37等にもエンターテイメント情報を表示すれば、大画面の臨場感のある表示が行なえる。また、運転者には説明してきたように、周囲が見えるため安全な運転支援が行なえる。なお、大画面スクリーンの役割を持つディスプレイ39を天井に収納できるようにすれば、後部座席の搭乗者と運転者とがコミュニケーションを図るのに便利である。   Next, application examples of the present invention will be described. As shown in FIG. 8, a display 39 is provided so as to separate the driver's seat and the rear seat, and an image of the rear viewpoint is displayed on one surface side of the display 39 (the front seat side), and the other surface Entertainment information such as movies is displayed on the side (rear seat side). In this case, if the entertainment information is displayed on the displays 35 and 37 below the doors of the rear seats, a large screen can be displayed with a sense of presence. In addition, as described above, the driver can provide safe driving assistance because the surroundings can be seen. If the display 39 having the role of a large screen can be stored on the ceiling, it is convenient for communication between the passenger in the rear seat and the driver.

本発明の車両用表示装置の構成を示すブロック図。The block diagram which shows the structure of the display apparatus for vehicles of this invention. 図1の車両用表示装置の設置例を示す車両模式図。The vehicle schematic diagram which shows the example of installation of the display apparatus for vehicles of FIG. 視点認識器の制御フローチャート。The flowchart of control of a viewpoint recognizer. 車内カメラによって撮像される運転者のイメージ図。The image figure of the driver imaged with the camera in a car. 画像データ処理部の制御フローチャート。5 is a control flowchart of the image data processing unit. 運転席のイメージ図。An image of the driver's seat. 魚眼レンズの結像イメージ図。The image image figure of a fisheye lens. 本発明の車両用表示装置の別設置例を示す車両模式図。The vehicle schematic diagram which shows another example of installation of the display apparatus for vehicles of this invention.

符号の説明Explanation of symbols

11 車外カメラ
13 車内カメラ
21 視点認識器
23 画像データ処理装置
27 対話制御器
29 表示制御装置
31〜39 ディスプレイ
41,51 車両
43 シート
100 車両用表示装置
DESCRIPTION OF SYMBOLS 11 Out-of-vehicle camera 13 In-vehicle camera 21 Viewpoint recognition device 23 Image data processing device 27 Dialogue controller 29 Display control devices 31-39 Display 41, 51 Vehicle 43 Seat 100 Display device for vehicles

Claims (6)

車両の周辺を撮像する撮像手段と、
運転席に着席した運転者の視点の空間的な位置を認識する視点認識手段と、
前記運転者の視界を遮るピラーやドア等の遮蔽物が透明であるとした場合に前記運転者の目に映るべき車外の景色の画像を、前記撮像手段によって得られた周辺画像データを前記視点認識手段の認識結果に応じて加工することにより生成する画像生成手段と、
前記画像生成手段が生成する画像を前記遮蔽物の位置に表示する表示手段と、
を備えたことを特徴とする車両用表示装置。
Imaging means for imaging the periphery of the vehicle;
Viewpoint recognition means for recognizing the spatial position of the driver's viewpoint seated in the driver's seat;
When an obstacle such as a pillar or a door that blocks the driver's field of view is transparent, an image of a scenery outside the vehicle that should be seen by the driver's eyes, and the peripheral image data obtained by the imaging unit are the viewpoint. Image generating means for generating by processing according to the recognition result of the recognition means;
Display means for displaying an image generated by the image generation means at a position of the shield;
A vehicle display device comprising:
前記視点認識手段は、前記運転者を正面から撮像するために車室内に設けられた車内カメラと、その車内カメラが取得する画像データから前記運転者の視点の3次元座標における位置を算出する視点認識器と、を含むものである請求項1記載の車両用表示装置。   The viewpoint recognizing means calculates a position of the driver's viewpoint in three-dimensional coordinates from an in-vehicle camera provided in a vehicle interior for imaging the driver from the front and image data acquired by the in-vehicle camera. The vehicle display device according to claim 1, comprising a recognizer. 前記視点認識手段は、前記車内カメラを作動して前記運転者を撮像する際に、前記視点認識器から前記運転者に視点を安定させるための指示を取得し、音声等の識別情報によって前記運転者に視点を安定させるための案内を行なう対話制御器を備えた請求項2記載の車両用表示装置。   The viewpoint recognizing means acquires an instruction for stabilizing the viewpoint from the viewpoint recognizer to the driver when the in-vehicle camera is operated to image the driver, and the driving is performed based on identification information such as voice. The vehicle display device according to claim 2, further comprising a dialogue controller that provides guidance to the person to stabilize the viewpoint. 前記遮蔽物は複数あり、前記表示手段はそれら遮蔽物に個別に取り付けられたディスプレイであり、前記視点認識手段は、前記運転者が一つ一つの前記ディスプレイに視線を移すときの動作または移した後の姿勢を視線移動時の画像データとして収集する処理を行なうように構成され、その画像データを記憶する記憶部が設けられる請求項1ないし3のいずれか1項に記載の車両用表示装置。   There are a plurality of shielding objects, and the display means is a display individually attached to the shielding objects, and the viewpoint recognition means operates or moves when the driver moves his / her line of sight to each of the displays. The vehicle display device according to any one of claims 1 to 3, wherein the vehicle display device is configured to perform a process of collecting a later posture as image data when the line of sight is moved, and is provided with a storage unit that stores the image data. 前記表示手段は、前記遮蔽物に取り付けられたディスプレイとされ、
前記画像生成手段は、前記ディスプレイの設置位置を3次元座標上で特定する設置位置データと、前記ディスプレイの形状を特定する形状データとを予め記憶しておく記憶部を有し、前記視点認識手段によって求められた前記運転者の視点位置と、前記記憶部から読み出される前記設置位置データと、同じく前記形状データとから、前記運転者から見たときに前記遮蔽物によって遮られる像のみを抽出する形で、前記撮像手段によって得られた前記周辺画像データの切り取り加工を行なうように構成される請求項1ないし3のいずれか1項に記載の車両用表示装置。
The display means is a display attached to the shield,
The image generation means includes a storage unit that preliminarily stores installation position data for specifying the installation position of the display on three-dimensional coordinates and shape data for specifying the shape of the display, and the viewpoint recognition means Only the image that is obstructed by the obstruction when viewed from the driver is extracted from the viewpoint position of the driver obtained by the above, the installation position data read from the storage unit, and the shape data. The vehicle display device according to any one of claims 1 to 3, wherein the vehicle display device is configured to cut out the peripheral image data obtained by the imaging means.
前記撮像手段は、魚眼レンズを備えたデジタル方式の車外カメラとされ、前記画像生成手段は、前記車外カメラから得られる画像を座標変換によって変形する処理を行なうとともに、前記遮蔽物によって視界が遮られる範囲を算出し、その遮られる範囲のピクセルデータを前記車外カメラから得られる画像から抽出して前記ディスプレイ用のグラフィックメモリにセットする処理を行なう請求項5記載の車両用表示装置。   The imaging means is a digital outside camera provided with a fisheye lens, and the image generating means performs a process of transforming an image obtained from the outside camera by coordinate transformation, and a range in which a field of view is blocked by the shielding object. The vehicle display device according to claim 5, wherein the pixel data of the blocked range is extracted from an image obtained from the outside camera and set in the graphic memory for display.
JP2004231833A 2004-08-09 2004-08-09 Display device for vehicle Withdrawn JP2006044596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004231833A JP2006044596A (en) 2004-08-09 2004-08-09 Display device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004231833A JP2006044596A (en) 2004-08-09 2004-08-09 Display device for vehicle

Publications (1)

Publication Number Publication Date
JP2006044596A true JP2006044596A (en) 2006-02-16

Family

ID=36023642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004231833A Withdrawn JP2006044596A (en) 2004-08-09 2004-08-09 Display device for vehicle

Country Status (1)

Country Link
JP (1) JP2006044596A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287035A (en) * 2006-04-19 2007-11-01 Fujifilm Corp Video recording system and video recording apparatus
JP2007329611A (en) * 2006-06-07 2007-12-20 Denso Corp Vehicle perimeter monitoring apparatus, vehicle perimeter monitoring system, and vehicle perimeter monitoring method
JP2008141578A (en) * 2006-12-04 2008-06-19 Auto Network Gijutsu Kenkyusho:Kk Visual recognizing apparatus for vehicle surrounding
EP1939040A2 (en) 2006-12-20 2008-07-02 Aisin AW Co., Ltd. Driving support method and driving support apparatus
EP1961613A2 (en) 2007-02-23 2008-08-27 Aisin AW Co., Ltd. Driving support method and driving support device
JP2008262458A (en) * 2007-04-13 2008-10-30 Denso Corp Vehicle visual field determination device and program therefor
JP2009006893A (en) * 2007-06-28 2009-01-15 Aisin Aw Co Ltd Drive assisting device and computer program
KR20110067683A (en) * 2009-12-15 2011-06-22 두산인프라코어 주식회사 Apparatus and method for displaying dead zone of construction equipment
CN103171489A (en) * 2011-12-20 2013-06-26 奥迪股份公司 Method for controlling a display device of a motor vehicle
JP2014534697A (en) * 2011-10-14 2014-12-18 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Virtual display system for vehicles
WO2016020808A1 (en) * 2014-08-07 2016-02-11 株式会社半導体エネルギー研究所 Display device and driving assistance system
JPWO2015125243A1 (en) * 2014-02-19 2017-03-30 三菱電機株式会社 Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system
CN107161083A (en) * 2017-06-01 2017-09-15 北京汽车研究总院有限公司 A kind of automotive rear-view shows system, method for displaying image and automobile
JP2019073091A (en) * 2017-10-13 2019-05-16 トヨタ自動車株式会社 Vehicular display apparatus
CN110494311A (en) * 2017-04-14 2019-11-22 堺显示器制品株式会社 Solar protection devices and image display
KR20200110033A (en) * 2019-03-15 2020-09-23 김필재 Image display system and method thereof
JP2020152179A (en) * 2019-03-19 2020-09-24 ヤマハ発動機株式会社 Marine vessel and maneuvering support device
CN112112202A (en) * 2019-06-21 2020-12-22 纳博特斯克有限公司 Steering assist system, steering assist method, and construction machine
WO2022181767A1 (en) 2021-02-26 2022-09-01 京セラ株式会社 Image display device
WO2022230824A1 (en) 2021-04-28 2022-11-03 京セラ株式会社 Image display device and image display method
WO2022255424A1 (en) 2021-06-02 2022-12-08 京セラ株式会社 Video display device

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287035A (en) * 2006-04-19 2007-11-01 Fujifilm Corp Video recording system and video recording apparatus
JP2007329611A (en) * 2006-06-07 2007-12-20 Denso Corp Vehicle perimeter monitoring apparatus, vehicle perimeter monitoring system, and vehicle perimeter monitoring method
JP2008141578A (en) * 2006-12-04 2008-06-19 Auto Network Gijutsu Kenkyusho:Kk Visual recognizing apparatus for vehicle surrounding
EP1939040A3 (en) * 2006-12-20 2010-10-06 Aisin AW Co., Ltd. Driving support method and driving support apparatus
EP1939040A2 (en) 2006-12-20 2008-07-02 Aisin AW Co., Ltd. Driving support method and driving support apparatus
US8094192B2 (en) 2006-12-20 2012-01-10 Aisin Aw Co., Ltd. Driving support method and driving support apparatus
EP1961613A3 (en) * 2007-02-23 2010-11-03 Aisin AW Co., Ltd. Driving support method and driving support device
US9126533B2 (en) 2007-02-23 2015-09-08 Aisin Aw Co., Ltd. Driving support method and driving support device
EP1961613A2 (en) 2007-02-23 2008-08-27 Aisin AW Co., Ltd. Driving support method and driving support device
JP2008262458A (en) * 2007-04-13 2008-10-30 Denso Corp Vehicle visual field determination device and program therefor
JP2009006893A (en) * 2007-06-28 2009-01-15 Aisin Aw Co Ltd Drive assisting device and computer program
KR101640602B1 (en) * 2009-12-15 2016-07-18 두산인프라코어 주식회사 Apparatus and method for displaying dead zone of construction equipment
KR20110067683A (en) * 2009-12-15 2011-06-22 두산인프라코어 주식회사 Apparatus and method for displaying dead zone of construction equipment
JP2014534697A (en) * 2011-10-14 2014-12-18 コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. Virtual display system for vehicles
CN103171489A (en) * 2011-12-20 2013-06-26 奥迪股份公司 Method for controlling a display device of a motor vehicle
EP2607171A3 (en) * 2011-12-20 2013-11-13 Audi Ag Method for controlling a display device of a motor vehicle and vehicle with a display controlled accordingly
US9221384B2 (en) 2011-12-20 2015-12-29 Audi Ag Method for controlling a display device of a motor vehicle
JPWO2015125243A1 (en) * 2014-02-19 2017-03-30 三菱電機株式会社 Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system
US9785235B2 (en) 2014-02-19 2017-10-10 Mitsubishi Electric Corporation Display control apparatus, display control method of display control apparatus, and eye gaze direction detection system
JP2020194179A (en) * 2014-08-07 2020-12-03 株式会社半導体エネルギー研究所 Driving support system
US11837112B2 (en) 2014-08-07 2023-12-05 Semiconductor Energy Laboratory Co., Ltd. Display device and driving support system
JPWO2016020808A1 (en) * 2014-08-07 2017-07-06 株式会社半導体エネルギー研究所 Display device and driving support system
WO2016020808A1 (en) * 2014-08-07 2016-02-11 株式会社半導体エネルギー研究所 Display device and driving assistance system
US10434847B2 (en) 2014-08-07 2019-10-08 Semiconductor Energy Laboratory Co., Ltd. Display device and driving support system
US11205356B2 (en) 2014-08-07 2021-12-21 Semiconductor Energy Laboratory Co., Ltd. Display device and driving support system
JP2020008870A (en) * 2014-08-07 2020-01-16 株式会社半導体エネルギー研究所 Operation supporting system
CN110494311A (en) * 2017-04-14 2019-11-22 堺显示器制品株式会社 Solar protection devices and image display
CN107161083A (en) * 2017-06-01 2017-09-15 北京汽车研究总院有限公司 A kind of automotive rear-view shows system, method for displaying image and automobile
CN107161083B (en) * 2017-06-01 2023-12-19 北京汽车集团越野车有限公司 Automobile rearview display system, image display method and automobile
JP2019073091A (en) * 2017-10-13 2019-05-16 トヨタ自動車株式会社 Vehicular display apparatus
KR20200110033A (en) * 2019-03-15 2020-09-23 김필재 Image display system and method thereof
KR102223852B1 (en) * 2019-03-15 2021-03-08 김필재 Image display system and method thereof
JP7257200B2 (en) 2019-03-19 2023-04-13 ヤマハ発動機株式会社 Ships and navigation aids
JP2020152179A (en) * 2019-03-19 2020-09-24 ヤマハ発動機株式会社 Marine vessel and maneuvering support device
CN112112202B (en) * 2019-06-21 2024-04-23 纳博特斯克有限公司 Steering assist system, steering assist method, and construction machine
CN112112202A (en) * 2019-06-21 2020-12-22 纳博特斯克有限公司 Steering assist system, steering assist method, and construction machine
WO2022181767A1 (en) 2021-02-26 2022-09-01 京セラ株式会社 Image display device
WO2022230824A1 (en) 2021-04-28 2022-11-03 京セラ株式会社 Image display device and image display method
WO2022255424A1 (en) 2021-06-02 2022-12-08 京セラ株式会社 Video display device

Similar Documents

Publication Publication Date Title
JP2006044596A (en) Display device for vehicle
JP5099451B2 (en) Vehicle periphery confirmation device
JP4573242B2 (en) Driving assistance device
JP4907883B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP4412380B2 (en) Driving support device, driving support method, and computer program
EP1961613B1 (en) Driving support method and driving support device
JP5013184B2 (en) Driving support device and computer program
JP5093611B2 (en) Vehicle periphery confirmation device
JP5619873B2 (en) Device for supporting driving of a vehicle
JP4475308B2 (en) Display device
US8576285B2 (en) In-vehicle image processing method and image processing apparatus
JP4583883B2 (en) Ambient condition display device for vehicles
JP5874920B2 (en) Monitoring device for vehicle surroundings
US20080198226A1 (en) Image Processing Device
JP6196444B2 (en) Peripheral vehicle position tracking apparatus and method
JP5092776B2 (en) Gaze direction detection device and gaze direction detection method
JP6453929B2 (en) Vehicle display system and method for controlling vehicle display system
JP2004064131A (en) Display for vehicle
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP2009113621A (en) Occupant picture photographing device, and driving assisting device
JP2008018760A (en) Driving support device
WO2019187283A1 (en) Image processing device, image display system, and image processing method
EP3772719B1 (en) Image processing apparatus, image processing method, and image processing program
JP2003339044A (en) Surrounding monitoring apparatus for vehicle
TW201526638A (en) Obstacle detection and display system for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081009

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20081024