JP6744064B2 - Automotive image display system - Google Patents

Automotive image display system Download PDF

Info

Publication number
JP6744064B2
JP6744064B2 JP2015219546A JP2015219546A JP6744064B2 JP 6744064 B2 JP6744064 B2 JP 6744064B2 JP 2015219546 A JP2015219546 A JP 2015219546A JP 2015219546 A JP2015219546 A JP 2015219546A JP 6744064 B2 JP6744064 B2 JP 6744064B2
Authority
JP
Japan
Prior art keywords
image
vehicle
eye image
driver
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015219546A
Other languages
Japanese (ja)
Other versions
JP2017092678A5 (en
JP2017092678A (en
Inventor
修一 田山
修一 田山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMAGE CO., LTD.
Original Assignee
IMAGE CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMAGE CO., LTD. filed Critical IMAGE CO., LTD.
Priority to JP2015219546A priority Critical patent/JP6744064B2/en
Priority to PCT/JP2016/081866 priority patent/WO2017082067A1/en
Publication of JP2017092678A publication Critical patent/JP2017092678A/en
Publication of JP2017092678A5 publication Critical patent/JP2017092678A5/ja
Application granted granted Critical
Publication of JP6744064B2 publication Critical patent/JP6744064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Navigation (AREA)

Description

本発明は、特に自動車等の車輌の運転を支援するために使用される自動車用画像表示システムに関する。 The present invention relates to an image display system for an automobile, which is used particularly for supporting driving of a vehicle such as an automobile.

従来より、自動車の安全な運転を支援するために様々な自動車用画像表示システムが開発されている。 BACKGROUND ART Conventionally, various vehicle image display systems have been developed to support safe driving of vehicles.

例えば、自車輌周辺の危険やナビゲーションをドライバーに直感的に分かり易く伝達するための車輌用情報伝達装置が知られている(例えば、特許文献1を参照)。この装置は、自車輌に搭載したカメラやレーダーセンサ等を用いて、前方周辺に存在する歩行者、自転車又は他車輌等の危険対象を検出し、それをインストルメントパネルの表示装置に図形で表示して、その存在をドライバーに認識させている。 For example, there is known a vehicle information transmission device for transmitting a danger and navigation around a vehicle to a driver in an intuitive manner (see Patent Document 1, for example). This device detects dangerous objects such as pedestrians, bicycles, and other vehicles in the vicinity of the front by using a camera, radar sensor, etc. mounted on the vehicle, and displays them graphically on the display device of the instrument panel. Then, the driver is made aware of its existence.

しかしながら、特許文献1に開示の装置は、検出した危険対象がインストルメントパネルの表示装置に表示されるため、それを見るのにドライバーは、運転中にフロントウインドシールド越しに前方に向けている視線を表示装置に移さなければならず、危険を瞬時に判断しなければならない状況においては認知が遅れることになる。 However, in the device disclosed in Patent Document 1, the detected dangerous object is displayed on the display device of the instrument panel, and therefore the driver looks at it while looking forward through the front windshield while driving. Must be transferred to the display device, and the recognition is delayed in the situation where the danger must be judged instantaneously.

同様に、自車輌との接触の可能性が高い検知対象物の存在及び種類を、HUD(ヘッドアップディスプレイ)からなる画像表示装置に表示して、ドライバーに通報する車輌周辺監視装置が知られている(例えば、特許文献2を参照)。このときの検知対象物は、その形状及びサイズに基づいて、歩行者、自転車、動物等の種類が判定され、その種類の違いに応じて異なる形態のマークと、検知対象物の位置にそれを囲む矩形状のフレームとがHUDに表示される。 Similarly, there is known a vehicle periphery monitoring device that displays the existence and type of a detection target object that is highly likely to contact the vehicle on an image display device including a HUD (head-up display) to notify the driver. (For example, see Patent Document 2). At this time, the type of the detection target object is determined based on its shape and size, such as a pedestrian, a bicycle, an animal, etc., and a mark having a different shape depending on the type and the position of the detection target object The surrounding rectangular frame is displayed on the HUD.

国際公開第2013/088535号International Publication No. 2013/088535 特開2010−108264号公報JP, 2010-108264, A

特許文献2の従来技術によれば、フロントウインドシールドに情報を表示するために、ドライバーにとっては視線を変更する必要がなく、特許文献1の場合よりも有利となる。 According to the conventional technique of Patent Document 2, it is not necessary for the driver to change the line of sight to display information on the front windshield, which is more advantageous than the case of Patent Document 1.

しかしながら、フロントウインドシールドに情報を表示する場合であっても、ドライバーの視線の先はフロントウインドシールド越しの前方にあるため、フロントウインドシールド面に表示された情報を視認するには目の焦点を変えなければならず、瞬時に認知できなかったり見落すこともある。 However, even if the information is displayed on the front windshield, the driver's line of sight is ahead of the front windshield, so the eyes should be focused to see the information displayed on the front windshield surface. It has to be changed, and sometimes it is impossible to recognize or overlook it.

本発明は、上記問題点を解消するためになされたもので、その目的は、ドライバーに対して分かりやすくフロントウインドシールドに向けて情報を表示することが可能な自動車用画像表示システムを提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an image display system for an automobile capable of displaying information toward a front windshield in an easy-to-understand manner for a driver. It is in.

本発明は、
1)自動車の乗員への提供情報を画像で表示する自動車用画像表示システムであって、
前記自動車の構造体が形成する死角にある周囲の状況を撮影して右目用画像と左目用画像とを出力するステレオカメラと、
ステアリングホイールの回転操作を検出する操舵角センサと、
前記ステレオカメラによる撮影画像を立体表示するのに立体画像を構成する前記右目用画像および前記左目用画像を前記自動車のフロントウインドシールドに向けて投影する表示手段と、
前記ステレオカメラによる検知対象の撮像画像の画像特徴である輪郭が予め登録されているパターンデータファイルを用いて、前記立体画像に含まれる輪郭情報をパターンマッチング処理して前記検知対象物を特定する手段と、
前記ステレオカメラの左右の両画像の視差から検知対象物までの距離を演算して、その距離が所定範囲内にあるか否かを判定する手段と、
を備えて、
前記操舵角センサが前記死角方向への前記ステアリングホイールの回転操作を検出したとき前記検知対象物が特定されその検知対象までの距離が所定の範囲内である場合は、前記右目用画像および前記左目用画像を前記自動車の前記フロントウインドシールドの前方の奥方向の焦点位置に立体画像で表示する自動車用画像表示システムを提供できる。
The present invention is
1) A vehicle image display system for displaying information provided to passengers of a vehicle as an image,
A stereo camera that outputs a right-eye image and a left-eye image by photographing a surrounding situation in a blind spot formed by the automobile structure,
A steering angle sensor that detects the rotating operation of the steering wheel,
Display means for projecting the right-eye image and the left-eye image forming a stereoscopic image for stereoscopically displaying the image captured by the stereo camera toward the front windshield of the automobile,
Using the pattern data file the contour which is the image feature of the captured image of the detection object by the stereo camera is registered in advance, specifying the sense target contour information included in the three-dimensional image pattern matching process to Means and
Means for calculating the distance to the detection target from the parallax of the left and right images of the stereo camera, and determining whether the distance is within a predetermined range,
With
When the steering angle sensor detects a rotation operation of the steering wheel in the blind spot direction, the detection target is specified and the distance to the detection target is within a predetermined range, the right eye image and the It is possible to provide an image display system for a vehicle, which displays a left-eye image as a stereoscopic image at a focal position in the back direction in front of the front windshield of the vehicle.

また、
2)前記距離が所定範囲内にあるときは前記自動車を停止状態とする停止制御部と、
をさらに備える請求項1に記載の自動車用画像表示システムを提供する。
Also,
2) A stop control unit that brings the vehicle into a stopped state when the distance is within a predetermined range,
The vehicle image display system according to claim 1, further comprising:

本発明によれば、乗員への提供情報を右目用画像と左目用画像とで投影するために、乗員は立体画像で提供情報を視認することができる。よって、乗員はフロントウインドシールド越しの前方に目の焦点を合せている状態で提供情報を視認することができるため、提供情報の確認のために目の焦点を切り変える必要がなく見落としがなくなる。 According to the present invention, since the information provided to the occupant is projected by the right-eye image and the left-eye image, the occupant can visually recognize the provided information in the stereoscopic image. Therefore, the occupant can visually recognize the provided information while the eyes are focused on the front side through the front windshield, and it is not necessary to change the focus of the eyes to check the provided information, and the oversight can be prevented.

本発明に係る自動車用画像表示システムの全体構成をブロック図で示す。1 is a block diagram showing the overall configuration of an automobile image display system according to the present invention. 本発明に係る自動車用画像表示システムにおけるカメラ及びセンサを配置した自動車の一例を平面図で示す。1 is a plan view showing an example of a vehicle in which a camera and a sensor are arranged in an image display system for a vehicle according to the present invention. 本発明に係る自動車用画像表示システムを備える自動車のフロントウインドシールド及びダッシュボードを運転席側から見た概念図で示す。FIG. 1 is a conceptual view of a front windshield and a dashboard of a vehicle including an image display system for a vehicle according to the present invention as seen from a driver's seat side. HUD装置による画像表示の模式的な説明図を示す。The schematic explanatory drawing of the image display by a HUD apparatus is shown. 本発明に係る自動車用画像表示システムのフロントウインドシールドでの表示の一例を説明する模式図を示す。The schematic diagram explaining an example of the display in the front windshield of the image display system for motor vehicles which concerns on this invention is shown. 本発明に係る自動車用画像表示システムのフロントウインドシールドでの表示の別の一例を説明する模式図を示す。The schematic diagram explaining another example of the display in the front windshield of the image display system for motor vehicles which concerns on this invention is shown. 本発明に係る自動車用画像表示システムを組み合わせた走行支援システムの全体構成をブロック図で示す。FIG. 1 is a block diagram showing the overall configuration of a driving support system in which an image display system for a vehicle according to the present invention is combined. 自動車用画像表示の動作の一例を説明するフローチャートを示す。The flowchart explaining an example of operation|movement of the image display for vehicles is shown. 走行支援システムにおけるフロントウインドシールドでの表示の一例を説明する模式図を示す。The schematic diagram explaining an example of the display in the front windshield in a driving assistance system is shown. 走行支援システムにおけるフロントウインドシールドでの表示の別の一例を説明する模式図を示す。The schematic diagram explaining another example of the display in the front windshield in a driving assistance system is shown. 走行支援システムにおけるフロントウインドシールドでの表示のさらに別の一例を説明する模式図を示す。The schematic diagram explaining another example of the display on the front windshield in a driving assistance system is shown. 走行支援システムにおけるフロントウインドシールドに表示される仮想車輌の車線変更を時間経過順に説明する模式図を示す。The schematic diagram explaining the lane change of the virtual vehicle displayed on the front windshield in a driving assistance system is shown in order of time progress.

図1は、本発明に係る自動車用画像表示システムの概略構成をブロック図で示している。図1が示すように、自動車用画像表示システム1は、検出部2と、表示制御部3と、表示手段であるヘッドアップディスプレイ(HUD)装置4とで構成される。 FIG. 1 is a block diagram showing a schematic configuration of an automobile image display system according to the present invention. As shown in FIG. 1, an automobile image display system 1 includes a detection unit 2, a display control unit 3, and a head-up display (HUD) device 4 which is a display unit.

検出部2は、自動車の周囲の状況を監視するカメラ部2A及びセンサ部2Bを備えている。カメラ部2Aによる撮影画像やセンサ部2Bによる検知情報は、自動車の乗員への提供情報となる。したがって、検出部2は、提供情報を検出する検出手段である。 The detection unit 2 includes a camera unit 2A and a sensor unit 2B that monitor the surroundings of the automobile. The image captured by the camera unit 2A and the detection information by the sensor unit 2B serve as the information provided to the occupants of the automobile. Therefore, the detection unit 2 is a detection unit that detects the provided information.

カメラ部2Aは、例えば、自動車の周囲の状況を撮影するために、図2に示すように3通りのカメラ17,18,19を配置している。 The camera unit 2A is provided with three types of cameras 17, 18, and 19 as shown in FIG. 2, for example, in order to capture an image of the surroundings of an automobile.

カメラ17は、フロントウインドシールド15の上部に設置されて自動車10の前方視界を撮影する。カメラ18は、バックウインドシールドに配置されて自動車10の後方視界を撮影する。 The camera 17 is installed on the upper part of the front windshield 15 and captures a forward view of the automobile 10. The camera 18 is arranged on the back windshield to capture the rear view of the automobile 10.

また、自動車10の内側から周囲の状況を目視する際、自動車の構造上、車内からの視線が遮られて外の状況を視認することができない死角を形成する構造体がある。例えば、車体の屋根を支持するピラー等の構造体であり、図2の例では、車体の屋根共にフロントウインドシールド15を保持するAピラー16による死角の視界を確保するために、Aピラー16の外側にカメラ19を配置している。 In addition, when visually observing the surroundings from the inside of the automobile 10, there is a structure that forms a blind spot where the line of sight from the inside of the automobile is blocked and the outside is not visible due to the structure of the automobile. For example, it is a structure such as a pillar that supports the roof of the vehicle body. In the example of FIG. 2, in order to secure the view of the blind spot by the A pillar 16 that holds the front windshield 15 on the roof of the vehicle body, A camera 19 is arranged outside.

センサ部2Bは、自動車の周囲における自動車、自転車、人又は動物等(以下、「検知対象物」という)の存在を検知するためのセンサ20,21を備えている。センサ20,21は、例えば、レーダーセンサであり、図3で示すように、センサ20は、左右のドアミラー35の下部に取り付けられて、左右後方における検知対象物の存在を検知する。センサ21は、自動車10の前部の車体の中央部に取り付けられて、前方に存在する検知対象物の存在を検知する。レーダーセンサとしては、ミリ波レーダー、マイクロ波レーダー、レーザーレーダー、赤外線センサ、超音波センサ等が用いられる。 The sensor unit 2B includes sensors 20 and 21 for detecting the presence of an automobile, a bicycle, a person, an animal, or the like (hereinafter, referred to as “detection target”) around the automobile. The sensors 20 and 21 are, for example, radar sensors, and as shown in FIG. 3, the sensor 20 is attached to the lower part of the left and right door mirrors 35 and detects the presence of a detection target object in the rear left and right. The sensor 21 is attached to the center of the vehicle body at the front of the automobile 10 and detects the presence of a detection target existing in front. As the radar sensor, a millimeter wave radar, a microwave radar, a laser radar, an infrared sensor, an ultrasonic sensor or the like is used.

さらに、自動車10の走行系に設けられている操舵角センサ24や車速センサ25、ギアポジションセンサ26等も、ここでの検出部2を構成している。 Further, the steering angle sensor 24, the vehicle speed sensor 25, the gear position sensor 26, etc. provided in the traveling system of the automobile 10 also constitute the detection unit 2 here.

表示制御部3は、検出部2が取得した情報を立体画像でHUD装置4に表示する。このとき、表示する画像には、カメラ17,18,19による撮影画像と、センサ20,21や操舵角センサ24、車速センサ25からの検知情報を図形やアイコン等の絵柄又は文字・数字で視覚的に表す描画画像との二種類がある。そして、表示制御部3は、これら各種の描画画像が予め格納されている画像メモリMを含む。 The display control unit 3 displays the information acquired by the detection unit 2 on the HUD device 4 as a stereoscopic image. At this time, the images to be displayed include the images taken by the cameras 17, 18, and 19 and the detection information from the sensors 20, 21, the steering angle sensor 24, and the vehicle speed sensor 25 in the form of pictures such as figures and icons, or letters and numbers. There are two types: a drawing image that is expressed as a target. Then, the display control unit 3 includes an image memory M in which these various drawn images are stored in advance.

撮影画像を立体表示するには、それぞれのカメラ17,18,19には、人間の左右の目に相当する両眼のレンズを一つの筐体に収めたステレオカメラを用いることで、表示制御部3は、ステレオカメラから入力される右目用画像及び左目画像をHUD装置4に出力する。カメラ17,18,19には、ステレオカメラに限らず、単眼のカメラであってもコンピュータ処理によってステレオ画像を撮影することができるカメラを用いることもできる。 In order to stereoscopically display a captured image, a stereo control camera in which lenses for both eyes corresponding to human left and right eyes are housed in one housing is used for each of the cameras 17, 18, and 19. 3 outputs the right-eye image and the left-eye image input from the stereo camera to the HUD device 4. The cameras 17, 18 and 19 are not limited to stereo cameras, and a monocular camera that can capture a stereo image by computer processing can also be used.

描画画像を表示するには、表示制御部3は、センサ20,21及び操舵角センサ24や車速センサ25、ギアポジションセンサ26からの検知情報を視覚的に表示するのに、適切な絵柄や文字・数字の描画画像を画像メモリMに予め記憶されている中から選択する。そして、選択した描画画像から右目用画像及び左目用画像を作成し、HUD装置4に出力する。したがって、この場合に表示制御部3は、前記提供情報を視覚的に表示可能な描画画像に変換する描画手段として機能する。 In order to display the drawn image, the display control unit 3 has an appropriate pattern or character for visually displaying the detection information from the sensors 20 and 21, the steering angle sensor 24, the vehicle speed sensor 25, and the gear position sensor 26. Select a drawing image of a number from those stored in the image memory M in advance. Then, a right-eye image and a left-eye image are created from the selected drawn image and output to the HUD device 4. Therefore, in this case, the display control unit 3 functions as a drawing unit that converts the provided information into a visually displayable drawing image.

ここでのHUD装置4には、従来から知られた構造や仕組みのものが使用され、例えば、図4で示すように、右目用画像表示部6と、左目用画像表示部7と、ミラー8とを備える構成となっている。そして、HUD装置4は、ダッシュボード39の上面に配置されて、フロントウインドシールド15に向けて画像を投影する。また、HUD装置4は、ダッシュボード39内に組み込むことや、運転席の天井部からフロントウインドシールド15に画像を投影してもよい。 The HUD device 4 here has a conventionally known structure and mechanism. For example, as shown in FIG. 4, a right-eye image display unit 6, a left-eye image display unit 7, and a mirror 8 are used. It is configured to include and. The HUD device 4 is arranged on the upper surface of the dashboard 39 and projects an image toward the front windshield 15. Further, the HUD device 4 may be incorporated in the dashboard 39, or an image may be projected from the ceiling portion of the driver's seat to the front windshield 15.

HUD装置4の右目用画像表示部6及び左目用画像表示部7は、それぞれ右目用画像RP及び左目用画像LPを表示するディスプレイであり、例えば、ELD(エレクトロ・ルミネッセンス・ディスプレイ)、蛍光表示管、FED(フィールド・エミッション・ディスプレイ)、LCD(液晶ディスプレイ)等の表示デバイスが用いられる。 The image display unit 6 for the right eye and the image display unit 7 for the left eye of the HUD device 4 are displays for displaying the image RP for the right eye and the image LP for the left eye, for example, an ELD (electroluminescence display), a fluorescent display tube. Display devices such as an FED (field emission display), and an LCD (liquid crystal display) are used.

そして、HUD装置4のミラー8は、右目用画像表示部6及び左目用画像表示部7と対向するように配置されて、右目用画像表示部6及び左目用画像表示部7がそれぞれ表示している右目用画像RPと左目用画像LPとを、フロントウインドシールド15に向けて反射する。また、ミラー8は、右目用画像表示部6や左目用画像表示部7が表示している右目用画像RPと左目用画像LPを、ミラー形状によって予め決定される倍率に拡大して投影する。 The mirror 8 of the HUD device 4 is arranged so as to face the right-eye image display unit 6 and the left-eye image display unit 7, and the right-eye image display unit 6 and the left-eye image display unit 7 display the images respectively. The right-eye image RP and the left-eye image LP that are present are reflected toward the front windshield 15. Further, the mirror 8 projects the right-eye image RP and the left-eye image LP displayed on the right-eye image display unit 6 or the left-eye image display unit 7 by enlarging them to a magnification predetermined by the mirror shape.

フロントウインドシールド15は、合わせガラス、IRカットガラス、UVカットガラス等を用いて、自動車10の外形に応じて縦方向及び横方向に湾曲した曲面形状に形成されている。そして、フロントウインドシールド15は、乗員のドライバーの視線を透過するとともに、HUD装置4から投射された右目用画像RPと左目用画像LPとは視線方向に反射する。 The front windshield 15 is formed of a laminated glass, an IR cut glass, a UV cut glass, or the like into a curved surface shape curved in the vertical direction and the horizontal direction according to the outer shape of the automobile 10. Then, the front windshield 15 transmits the line of sight of the driver of the occupant and reflects the right-eye image RP and the left-eye image LP projected from the HUD device 4 in the line-of-sight direction.

このように構成された自動車用画像表示システム1において、HUD装置4が表示制御部3から出力される右目用画像RPと左目用画像LPとを投影することで、右目用画像RPと左目用画像LPはフロントウインドシールド15にドライバーの両目にそれぞれ反射される。 In the image display system 1 for an automobile configured in this way, the HUD device 4 projects the right-eye image RP and the left-eye image LP output from the display control unit 3, whereby the right-eye image RP and the left-eye image RP. The LP is reflected by the front windshield 15 on both eyes of the driver.

これによりドライバーは、両眼視差によってフロントウインドシールド15を挟んだ自動車の前方の奥行き方向の視線上に立体画像TDを視認することができる。よって、ドライバーは、フロントウインドシールド15越しに自動車10の前方の状況を目視している状態で、検出部2が検出した提供情報を撮影画像や描画画像の立体画像で認識することができる。 As a result, the driver can visually recognize the stereoscopic image TD on the line of sight in the depth direction in front of the vehicle with the front windshield 15 sandwiched by the binocular parallax. Therefore, the driver can recognize the provided information detected by the detection unit 2 in a stereoscopic image such as a captured image or a drawn image while viewing the situation in front of the automobile 10 through the front windshield 15.

人の目の焦点は数メートル前に合せていれば、無限遠にある対象に対しても大きくピントがずれることはない。したがって、ドライバーが自動車10の前方の視界を確認するのに、フロントウインドシールド15の前方の奥行き方向に目の焦点を合せているとき、画像がフロントウインドシールド15上に写し出されると、これを見落とす可能性が高くなる。しかし、ドライバーが提供情報を立体視可能なように構成することで、フロントウインドシールド15の前方の奥行き方向に焦点を合せている状態で提供情報が視認可能となり、提供情報を容易に且つ確実に認知して見落とすことがなくなる。 As long as the human eye is focused several meters in front, it will not be significantly out of focus even for objects at infinity. Therefore, when the driver focuses his eyes in the depth direction in front of the front windshield 15 to confirm the field of view in front of the automobile 10, when the image is projected on the front windshield 15, it is overlooked. More likely. However, by configuring the driver so that the provided information can be viewed stereoscopically, the provided information can be visually recognized in the state of being focused in the depth direction in front of the front windshield 15, and the provided information can be easily and reliably obtained. No more recognizing and overlooking.

上記構成の自動車用画像表示システム1は、表示制御部3は、例えば、ドライバーが自動車10を右折させようと、ステアリングホイール22を操作するのを操舵角センサ24で検知したとき、そのときカメラ18が撮影した画像をHUD装置4に立体表示することができる。したがって、図4で示すように、ドライバーは、フロントウインドシールド15を通して前方の奥行き方向に目の焦点を合わせている状態で、立体画像TDを視認可能なことから、自動車10の右側を横断している歩行者の存在を認識してブレーキ操作を行うことができる。しかも、死角の光景は立体画像で表示されるため、フロントウインドシールド14を通して視認される自動車の前方の実際の光景と混同視される虞もなく、ドライバーは正確な状況把握を行うことが可能となる。 In the vehicle image display system 1 having the above-described configuration, the display control unit 3, for example, when the steering angle sensor 24 detects that the driver operates the steering wheel 22 to turn the vehicle 10 to the right, the camera 18 at that time is detected. The image taken by can be stereoscopically displayed on the HUD device 4. Therefore, as shown in FIG. 4, the driver can see the stereoscopic image TD while the eyes are focused in the front depth direction through the front windshield 15, so that the driver can cross the right side of the automobile 10. Brake operation can be performed by recognizing the presence of a pedestrian who is present. Moreover, since the blind spot scene is displayed as a stereoscopic image, there is no fear that it will be confused with the actual scene in front of the vehicle seen through the front windshield 14, and the driver can accurately grasp the situation. Become.

このとき、ドライバーによって視認される立体画像のフロントウインドシールド15からの奥行方向の深度は両眼視差によって決まるため、必要に応じて、表示制御部3は、この深度で立体画像が再現されるようカメラ18が撮影した右目用画像RPと左目用画像LPの加工処理を行うことができる。 At this time, since the depth of the stereoscopic image visually recognized by the driver in the depth direction from the front windshield 15 is determined by the binocular parallax, the display control unit 3 reproduces the stereoscopic image at this depth as necessary. The right-eye image RP and the left-eye image LP captured by the camera 18 can be processed.

同様に、自動車10を後退させるときには、ギアポジションセンサ24がリバースギアに入ったことを検出すると、表示制御部3は、カメラ18が撮影した右目用画像RPと左目用画像LPとをHUD装置4によって投影する。よって、ドライバーは、フロントウインドシールド15越しに自動車10の前方の状況を目視している状態で後方の歩行者等の存在を視認できる。 Similarly, when the vehicle 10 is moved backward, when the gear position sensor 24 detects that the gear position sensor 24 has entered the reverse gear, the display control unit 3 obtains the right-eye image RP and the left-eye image LP captured by the camera 18 from the HUD device 4. To project by. Therefore, the driver can visually recognize the presence of a pedestrian or the like in the rear while viewing the situation in front of the automobile 10 through the front windshield 15.

また、表示制御部3は、車速センサ25から現在の車速値を取得すると、これを視覚的に表示するための数字及び文字の画像を画像メモリMから読み出して、この画像から右目用画像RPと左目用画像LPを作成して、図5に示す速度表示34(図示の例では、「60km/h」)の描画画像を表示する。このとき、表示制御部3は、車速を示す描画画像のフロントウインドシールド15からの奥行方向の深度に応じた両眼視差が再現した立体画像が視認可能なよう、描画画像の右目用画像RP及び左目用画像LPを作成する。速度の表示以外にも、ギアポジションセンサ26が検知したギアの状態を表わす描画画像等も両眼視差に基づく立体画像で表示する。 Further, when the current vehicle speed value is acquired from the vehicle speed sensor 25, the display control unit 3 reads out an image of numbers and characters for visually displaying the current vehicle speed value from the image memory M, and uses this image as the right-eye image RP. The image LP for the left eye is created, and the drawn image of the speed display 34 (“60 km/h” in the illustrated example) shown in FIG. 5 is displayed. At this time, the display control unit 3 recognizes the right-eye image RP of the drawn image so that the stereoscopic image in which the binocular parallax according to the depth in the depth direction from the front windshield 15 of the drawn image indicating the vehicle speed is reproduced can be visually recognized. An image LP for the left eye is created. In addition to the display of the speed, a drawn image or the like showing the state of the gear detected by the gear position sensor 26 is also displayed as a stereoscopic image based on the binocular parallax.

そして、表示制御部3は、操舵角センサ24によってドライバーが車線を変更するためにステアリングホィール22を右又は左に切るのを検知すると、その方向の後方における検知対象物の存在をセンサ20からの情報で検知する。このとき、センサ20は、検知した検知対象物が所定以上の大きさであると、検知対象物が接近していると判別して、検知対象物の検知信号を表示制御部3に出力する。 Then, when the display control unit 3 detects by the steering angle sensor 24 that the driver turns the steering wheel 22 to the right or left in order to change the lane, the presence of an object to be detected in the rear of the direction is detected from the sensor 20. Detect with information. At this time, the sensor 20 determines that the detection target is approaching when the detected detection target is larger than a predetermined size, and outputs a detection signal of the detection target to the display control unit 3.

これにより、表示制御部3は、図6に示すように、車線変更には危険があることを表わす禁止マーク13の描画画像を描画メモリMから読み出して、HUD装置4によって立体表示する。図示の例では、左側のレーンに車線変更しようとして、左後方から接近する他車輛が存在するために、禁止マーク13を左側に表示している。 As a result, as shown in FIG. 6, the display control unit 3 reads the drawn image of the prohibition mark 13 indicating that there is a danger of changing lanes from the drawing memory M, and displays it stereoscopically by the HUD device 4. In the illustrated example, the prohibition mark 13 is displayed on the left side because there is another vehicle approaching from the left rear when trying to change the lane to the left lane.

よって、ドライバーは、禁止マーク13が立体表示されるため、フロントウインドシールド15を通して前方の奥行き方向に目の焦点を合わせて注視している状態で禁止マーク13を認識できるため、確実に車線変更の危険を察知することができる。また、左右後方の検知対象物を検知するセンサ20に代えてカメラを配置し、カメラが撮影した後方の他車輛をHUD装置4によって立体画像で表示することも可能である。 Therefore, since the prohibition mark 13 is displayed three-dimensionally, the driver can recognize the prohibition mark 13 while focusing on the front windshield 15 with the eyes focused in the front depth direction. Can detect danger. It is also possible to dispose a camera in place of the sensor 20 that detects the detection object on the rear left and right, and to display another vehicle behind the camera captured by the HUD device 4 as a stereoscopic image.

上記した本発明に係る自動車用画像表示システム1は、安全運転を支援するための走行支援システムを備えた自動車10に有効に適用される。以下、その実施形態を説明する。 The vehicle image display system 1 according to the present invention described above is effectively applied to the vehicle 10 including the driving support system for supporting safe driving. The embodiment will be described below.

先ず、走行支援システムについて述べると、我が国では、走行支援システムについて、その自動化レベルがレベル1からレベル4まで4段階に分けて定義されている。レベル1は、加速・操舵・制動のいずれかを自動車が行い、安全運転支援システムと呼ばれる。レベル2は、加速・操舵・制動の内複数の操作を同時に自動車が行い、準自動走行システムと呼ばれる。レベル3は、加速・操舵・制動を全て自動車が行い、緊急時のみドライバーが対応する状態で、これも準自動走行システムと呼ばれる。レベル4は、加速・操舵・制動を全てドライバー以外が行い、ドライバーが全く関与しない状態で完全自動走行システムと呼ばれる。本明細書においての「自動運転」とは、レベル3又は4のレベルでの走行を言う。 First, regarding the driving support system, in Japan, the automation level of the driving support system is defined in four stages from level 1 to level 4. Level 1 is called a safe driving assistance system in which the vehicle performs acceleration, steering or braking. Level 2 is called a semi-automatic driving system, where the car simultaneously performs a plurality of operations including acceleration, steering, and braking. Level 3 is a state in which the car performs all acceleration, steering, and braking, and the driver responds only in an emergency. This is also called a semi-automatic driving system. Level 4 is called a fully automated driving system in which all drivers, except the driver, perform acceleration, steering, and braking without any involvement. In the present specification, “automatic operation” refers to traveling at the level 3 or 4.

図7は、本実施形態の自動車用画像表示システム1を組み合わせた走行支援システム20の構成全体を概略的に示している。 FIG. 7 schematically shows the entire configuration of a driving support system 20 that is a combination of the vehicle image display system 1 of this embodiment.

走行支援システム20は、CPU、ROM、RAMから成る中央演算処理部21を備えて、この中央演算処理部21には、図1で説明した検出部2と、HMI(Human
Interface)部23と、走行制御装置25と、ナビゲーション装置33とがそれぞれ接続されている。
The traveling support system 20 includes a central processing unit 21 including a CPU, a ROM, and a RAM. The central processing unit 21 includes the detection unit 2 described in FIG. 1 and an HMI (Human).
The interface unit 23, the traveling control device 25, and the navigation device 33 are connected to each other.

HMI部23は、図1で説明したHUD装置4と共に、タッチパネル30及びモニター31(図3に図示)を有して構成される。モニター31は、例えば、自動車10の後退時にカメラ18が撮影した後方視界を表示する。また、タッチパネル30は、モニター31の画面上にソフトウェアで形成される。 The HMI unit 23 is configured to include the touch panel 30 and a monitor 31 (shown in FIG. 3) together with the HUD device 4 described in FIG. The monitor 31 displays, for example, the backward view taken by the camera 18 when the vehicle 10 moves backward. Further, the touch panel 30 is formed by software on the screen of the monitor 31.

走行制御装置25は、ブレーキ制御装置26及びアクセル制御装置27を備える。ブレーキ制御装置26は、ブレーキ作動装置(図示せず)を制御して自動車10を自動的に減速させる。アクセル制御装置27は、スロットル開度を調整するスロットル作動装置(図示せず)を制御して、自動車10を自動的に加速させる。 The travel control device 25 includes a brake control device 26 and an accelerator control device 27. The brake control device 26 controls a brake operating device (not shown) to automatically decelerate the automobile 10. The accelerator control device 27 controls a throttle operating device (not shown) that adjusts the throttle opening to automatically accelerate the automobile 10.

ナビゲーション装置33は、GPS(グローバル・ポジショニング・システム)32から受け取るGPS情報に基づいて、地図データベースから自動車10の周囲の地図データを読み出す。 The navigation device 33 reads out map data around the automobile 10 from the map database based on GPS information received from the GPS (Global Positioning System) 32.

中央演算処理部21は、前記CPUが前記ROMに格納されている制御プログラムを実行することにより、それぞれ実現されるパターンマッチング処理部21a、停止制御部21b、追従走行制御部21c、定速走行制御部21d、目標先行車輌決定部21e、自動運転制御部21f及び図1で説明した表示制御部3の各機能を有している。 The central processing unit 21 is realized by the CPU executing a control program stored in the ROM. The pattern matching processing unit 21a, the stop control unit 21b, the follow-up traveling control unit 21c, and the constant speed traveling control are realized. The unit 21d, the target preceding vehicle determination unit 21e, the automatic driving control unit 21f, and the display control unit 3 described in FIG.

パターンマッチング処理部21aは、カメラ17,18,19からそれぞれ送られてくる画像にパターンマッチング処理を行うことで、画像の中から歩行者や自転車、自動二輪車等の輪郭を検出することで、これらの存在を判別する。この処理を行うために、前記ROMには、これら検出対象の画像特徴である輪郭が予め登録されているパターンデータファイルFが含まれている。さらに、このROMには、表示制御部3がHUD装置4に表示する図形やアイコン等の絵柄又は文字・数字で視覚的に表す描画画像が予め格納されている前述の画像メモリMが含まれている。 The pattern matching processing unit 21a performs pattern matching processing on the images respectively sent from the cameras 17, 18, and 19 to detect the contours of a pedestrian, a bicycle, a motorcycle, etc. from the images, and Determine the presence of. In order to perform this processing, the ROM includes a pattern data file F in which contours, which are image characteristics of these detection targets, are registered in advance. Further, the ROM includes the above-mentioned image memory M in which a drawing image visually represented by a picture such as a figure or an icon displayed by the display control unit 3 on the HUD device 4 or a character/number is stored in advance. There is.

そして、パターンマッチング処理部21aは、パターンマッチング処理と同時に、画像の輝度情報を基にして、白線又は黄線による車線ラインの検出も行う。 Then, the pattern matching processing unit 21a also detects the lane line based on the white line or the yellow line based on the brightness information of the image at the same time as the pattern matching process.

停止制御部21bは、パターンマッチング処理部21aが画像の中から歩行者や自転車、自動二輪車等の検知対象物を検出したとき、カメラ17の左右の両画像の視差から検知対象物までの距離を演算して、その距離に応じて自動車10の停止を制御する停止制御手段である。 When the pattern matching processing unit 21a detects a detection target object such as a pedestrian, a bicycle, or a motorcycle from the image, the stop control unit 21b determines the distance from the parallax between the left and right images of the camera 17 to the detection target object. It is a stop control unit that calculates and controls the stop of the automobile 10 according to the distance.

追従走行制御部21cは、追従走行モードにおいて、自動車10が先行車輌に追従走行させるために、先行車輌との車間距離を演算して、予め設定した車間距離と比較した結果のデータを走行制御装置25に出力する。 In the follow-up running mode, the follow-up running control unit 21c calculates the inter-vehicle distance to the preceding vehicle in order for the vehicle 10 to follow the preceding vehicle, and compares the result data with a preset inter-vehicle distance to provide the running control device. Output to 25.

定速走行制御部21dは、定速走行モードにおいて、自車輌を定速走行させるために、現在の速度と予め設定した車速と差を演算して走行制御装置25に出力する。 In the constant-speed traveling mode, the constant-speed traveling control unit 21d calculates the difference between the current speed and a preset vehicle speed and outputs it to the traveling control device 25 in order to drive the vehicle at a constant speed.

目標先行車輌決定部21eは、追従走行モードの目標となる先行車輌を決定する。 The target preceding vehicle determination unit 21e determines the preceding vehicle that is the target of the following traveling mode.

自動運転制御部21fは、上記レベル3又は4のレベルでの自動車10を自動走行するための制御を行なう。 The automatic driving control unit 21f performs control for automatically driving the automobile 10 at the level 3 or 4 described above.

上記の走行支援システム20において、自動車10が右折する際に、人の存在を検知したときに自動停止する場合の具体的な動作について、図8のフローチャートに基づいて説明する。この自動停止は、上記したレベル1からレベル4までの全ての走行支援は勿論、ドライバーによるマニュアル運転時の安全支援においても適用できる。 In the driving support system 20 described above, a specific operation when the vehicle 10 turns right and automatically stops when the presence of a person is detected will be described based on the flowchart of FIG. 8. This automatic stop can be applied not only to all the driving support from level 1 to level 4 described above, but also to the safety support during manual driving by the driver.

中央演算処理部21は、ドライバーが自動車10を右折させるためのステアリング操作が行われたか否かを判定する(ステップS1)。このとき中央演算処理部21は、ステアリングホイール22が回転操作されたかを操舵角センサ24によって検出する。右折のステアリング操作が行われておらず「NO」の場合には、死角となっている光景の画像を表示する動作は行われない。 The central processing unit 21 determines whether or not the driver has performed a steering operation for turning the automobile 10 to the right (step S1). At this time, the central processing unit 21 detects whether the steering wheel 22 is rotationally operated by the steering angle sensor 24. When the steering operation for right turn is not performed and the result is “NO”, the operation of displaying the image of the scene that is a blind spot is not performed.

右折のステアリング操作が行われて「YES」の場合には、中央演算処理部21のパターンマッチング処理部21aは、このときカメラ19から送られてくる画像を取得し(ステップS2)、次に、カメラ19が撮影した右目用画像RPと左目用画像LPとをHUD装置4によって表示する。したがって、画像が両眼視差によって立体表示されることで、ドライバーは自動車の前方のドライバーの視線上のフロントウインドシールド15を挟んだ奥行き方向の位置に画像を視認できる(ステップS3)。 When the right turn steering operation is performed and “YES”, the pattern matching processing unit 21a of the central processing unit 21 acquires the image sent from the camera 19 at this time (step S2), and then, The HUD device 4 displays the right-eye image RP and the left-eye image LP captured by the camera 19. Therefore, the image is stereoscopically displayed by the binocular parallax, so that the driver can visually recognize the image at the position in the depth direction across the front windshield 15 on the driver's line of sight in front of the vehicle (step S3).

そして、中央演算処理部21は、取得した画像とパターンデータファイルFに登録されている検知対象物の輪郭とのパターンマッチング処理を行い、画像の中に歩行者や自転車、自動二輪車等の検知対象物の画像特徴が含まれているか否かを検出することで、その存在を判別する(ステップS4)。検知対象物が含まれていない「NO」の場合は、死角となっている光景の画像を表示する動作を終了する。 Then, the central processing unit 21 performs pattern matching processing between the acquired image and the contour of the detection target registered in the pattern data file F, and the detection target such as a pedestrian, a bicycle, or a motorcycle is included in the image. By detecting whether or not the image feature of the object is included, the existence thereof is determined (step S4). In the case of "NO" in which the detection target object is not included, the operation of displaying the image of the scene that is a blind spot is terminated.

中央演算処理部21は、画像に検知対象物が含まれていると(ステップS4の「YES」)、停止制御部21bによって、カメラ19の左右の両画像の視差から検知対象物までの距離を演算して、その距離が所定範囲内にあるか否かを判断する(ステップS5)。そして、検知対象物までの距離が、例えば、10メートルの範囲を超えているときには(ステップS5の「NO」)、死角となっている光景の画像を表示する動作を終了する。 When the image includes a detection target object (“YES” in step S4), the central processing unit 21 determines the distance from the parallax between the left and right images of the camera 19 to the detection target object by the stop control unit 21b. It is calculated to determine whether or not the distance is within a predetermined range (step S5). Then, when the distance to the detection target exceeds the range of, for example, 10 meters (“NO” in step S5), the operation of displaying the image of the scene that is a blind spot is ended.

一方、検知対象物までの距離が10メートルの範囲内であると(ステップS5の「YES」)、中央演算処理部21は、ブレーキ制御装置26により自動車10を停止させる制御を行う(ステップS6)。その後、中央演算処理部21は、ステップ2からの処理を繰り返して、当該検知対象物や他の検知対象物が存在しなくなるか(ステップ4の「NO」)、又は存在していてもそれらとの距離が10メートルを超えるようになると(ステップS5の「NO」)、死角となっている光景の画像を表示する動作を終了する。この場合、停止制御部21bは、ブレーキ制御装置26による自動車10の停止状態を解除する。 On the other hand, when the distance to the detection target is within the range of 10 meters (“YES” in step S5), the central processing unit 21 controls the brake control device 26 to stop the automobile 10 (step S6). .. After that, the central processing unit 21 repeats the process from step 2 to determine whether the detection target object or another detection target object does not exist (“NO” in step 4), or even if they exist, When the distance exceeds 10 meters (“NO” in step S5), the operation of displaying the image of the blind scene is terminated. In this case, the stop control unit 21b releases the stopped state of the vehicle 10 by the brake control device 26.

これにより、カメラ19が検知対象物を所定範囲内の距離で検出されている間、自動車10は停止状態に維持される。よって、この安全運転支援システム20によれば、ドライバーの目が届かない死角の範囲の状況に応じて自動停止を制御するために、右折時のドライバーの安全運転を確実に支援することができる。 As a result, the vehicle 10 is maintained in the stopped state while the camera 19 is detecting the detection target at a distance within the predetermined range. Therefore, according to the safe driving support system 20, since the automatic stop is controlled according to the situation in the blind spot range where the driver's eyes cannot reach, it is possible to reliably support the safe driving of the driver when making a right turn.

本発明に係る自動車用画像表示システム1を統合した走行支援システム20は、Aピラー6に代表されるようなピラー部分以外にも、他のフレームやアウター部材等の自動車の構造体も車内から死角を形成する場合があり、これらの表面にカメラを取り付けて、そのステレオ画像をHUD装置4によりフロントウインドシールド15で表示させることもできる。 The driving support system 20 in which the image display system 1 for an automobile according to the present invention is integrated includes a pillar portion typified by the A-pillar 6 and other automobile structures such as frames and outer members from the inside of the vehicle. In some cases, a camera may be attached to these surfaces and a stereo image thereof may be displayed on the front windshield 15 by the HUD device 4.

走行支援システム20は、上記のAピラー6により死角の画像以外にも、種々の情報を撮影画像や描画画像でドライバーに立体画像により表示するが、以下、幾つかの表示例を説明する。 The driving support system 20 displays various information other than the blind spot image by the A-pillar 6 as a stereoscopic image on the driver as a photographed image or a drawn image, but some display examples will be described below.

[定速走行・車間距離制御を行なっているときの表示]
走行支援システム20による自動車10の定速走行・車間距離制御について説明する。本実施形態での定速走行・車間距離制御は、例えば以下のように行われるが、当然ながら、これに限定されるものではない。
[Display when running at constant speed or controlling the distance between vehicles]
The constant-speed traveling/inter-vehicle distance control of the automobile 10 by the traveling support system 20 will be described. The constant-speed traveling/inter-vehicle distance control in the present embodiment is performed as follows, for example, but is not limited to this, as a matter of course.

中央演算処理部21は、ドライバーが走行支援スイッチ(図示せず)をオンにすることによって、自車輌の定速走行・車間距離制御を開始する。定速走行の車速及び先行車輌との車間距離は、ドライバーが走行支援スイッチをオンにする直前に、HMI部23のタッチパネル30に所望の値を入力して設定してもよいし、走行支援システム20のメモリ(図示せず)に記憶されている前回の設定値をそのまま使用することもできる。定速走行・車間距離制御は、先行車輌が検知されているときは追従走行モードで、先行車輌が検知されていないときは定速走行モードで、互いに切り換えて行われる。 The central processing unit 21 starts constant-speed traveling/inter-vehicle distance control of the own vehicle when the driver turns on a traveling support switch (not shown). The vehicle speed for constant speed traveling and the inter-vehicle distance to the preceding vehicle may be set by inputting desired values to the touch panel 30 of the HMI unit 23 immediately before the driver turns on the traveling support switch. The previously set value stored in the memory 20 (not shown) can be used as it is. The constant speed traveling/inter-vehicle distance control is performed by switching between the following traveling modes when the preceding vehicle is detected and the constant traveling mode when the preceding vehicle is not detected.

最初に、目標先行車輌決定部21eがフロント側のカメラ17とセンサ21とにより、先行する全ての他車輌を検知する。そして、目標先行車輌決定部21eは、検知された全ての先行車輌との車間距離、相対速度、自車輌に対する方向等を検出して記憶すると共に、その中で自車輌と同じ車線を走行している先行車両の内、自車輌に最も近いものを追従走行するための目標の先行車輌に決定する。先行車両が自車両と同じ車線を走行しているか否かは、パターンマッチング処理部21aが車線を検出することで判別できる。 First, the target preceding vehicle determination unit 21e detects all the preceding other vehicles using the camera 17 and the sensor 21 on the front side. Then, the target preceding vehicle determination unit 21e detects and stores the detected inter-vehicle distances, relative speeds, directions with respect to the own vehicle, etc., with respect to all the preceding vehicles, and runs in the same lane as the own vehicle among them. Among the preceding vehicles that are present, the one that is closest to the own vehicle is determined as the target preceding vehicle for following the vehicle. Whether or not the preceding vehicle is traveling in the same lane as the own vehicle can be determined by detecting the lane by the pattern matching processing unit 21a.

センサ21は、前記走行支援スイッチのオン/オフに拘わらず、常時走査させていることが好ましい。それにより、前記走行支援スイッチのオン操作に対して、目標先行車輌の決定を素早くできるだけでなく、先行車輌の検知を追突防止機能にも利用することができる。 It is preferable that the sensor 21 always scans regardless of whether the driving support switch is on or off. This makes it possible not only to quickly determine the target preceding vehicle with respect to the ON operation of the travel support switch, but also to detect the preceding vehicle for the rear-end collision prevention function.

先行車輌の存在は、先行車輌との間で近距離無線通信を行うことによって入手することもできる。このような先行車輌との車両間における情報通信によって行われる所謂、車車間通信により入手した情報を、センサ21及びフロントカメラ17による検出結果に加えることによって、先行車輌検知部11は、先行車輌の位置情報の精度を更に高めることができる。 The presence of the preceding vehicle can also be obtained by performing near field communication with the preceding vehicle. By adding the information obtained by so-called vehicle-to-vehicle communication, which is performed by the vehicle-to-vehicle information communication with the preceding vehicle, to the detection result by the sensor 21 and the front camera 17, the preceding vehicle detection unit 11 causes the preceding vehicle detection. The accuracy of position information can be further improved.

先行車輌の存在は、車両と道路周辺設備間等における各種情報通信、すなわち道路上に設置されたセンサやアンテナ等の通信装置と直接又はその周辺エリアのサーバーを介した無線通信によって行われる所謂、路車間通信によっても、入手可能である。かかる車車間通信及び/又は路車間通信のために、走行支援システム20は、外部と通信するための通信装置を備える。よって、車車間通信や路車間通信によって、周囲の車輛の位置情報や走行状況を取得する通信装置は、ドライバーへの提供情報を検出する検出手段となる。 The presence of the preceding vehicle is carried out by various information communication between the vehicle and equipment around the road, that is, by so-called wireless communication directly with a communication device such as a sensor or an antenna installed on the road or through a server in the surrounding area, It is also available through road-to-vehicle communication. For such vehicle-to-vehicle communication and/or road-to-vehicle communication, the driving support system 20 includes a communication device for communicating with the outside. Therefore, the communication device that acquires the position information and the traveling condition of the surrounding vehicles through the vehicle-to-vehicle communication and the road-to-vehicle communication serves as a detection unit that detects the information provided to the driver.

中央演算処理部21は、追従走行モードにおいては、追従走行制御部21cにより、決定した目標先行車輌との車間距離を設定車間距離に維持するように、走行制御装置25を制御する。すなわち、目標先行車輌との現在の実際の車間距離が設定車間距離よりも長ければ、自動車10の車速を上げて目標先行車輌との車間距離を縮めるようにアクセル制御装置27を制御し、短ければ、自車輌の車速を下げて目標先行車輌との車間距離を伸ばすようにブレーキ制御装置26を制御し、同じであれば、現在の自車輌の車速を維持するようにブレーキ制御装置26とアクセル制御装置27とを制御する。 In the following traveling mode, the central processing unit 21 controls the traveling control device 25 so that the following traveling control unit 21c maintains the determined inter-vehicle distance with the target preceding vehicle at the set inter-vehicle distance. That is, if the current actual inter-vehicle distance to the target preceding vehicle is longer than the set inter-vehicle distance, the accelerator control device 27 is controlled so as to increase the vehicle speed of the automobile 10 to reduce the inter-vehicle distance to the target preceding vehicle. , The brake control device 26 is controlled so as to reduce the vehicle speed of the own vehicle to increase the inter-vehicle distance to the target preceding vehicle, and if the same, the brake control device 26 and the accelerator control are performed so as to maintain the current vehicle speed of the own vehicle. And the device 27.

図9は、追従走行モードにおけるHUD装置4の画面表示の一例を示している。この例では、追従している先行車41をマーキング42の描画で表示している。フロントウインドシールド15を通して見える現実風景40の道路上の自車輌の前方には、自車輌と同じ追越し車線43に1台の先行車輌41が、更に隣の走行車線44には別の1台の先行車輌45が走行している。この場面において、センサ21やカメラ17によって両方の先行車輌42,45が検知されているが、目標先行車輌決定部21eは、自車輌と同じ車線43上で自車輌に最も近い先行車輌41を目標先行車輌に決定する。したがって、この場合、先行車輌41が現実風景において、ドライバーが特に注視する検知対象物となる。 FIG. 9 shows an example of the screen display of the HUD device 4 in the following traveling mode. In this example, the preceding vehicle 41 that is following is displayed by drawing the marking 42. In front of the vehicle on the road of the real landscape 40 seen through the front windshield 15, one preceding vehicle 41 is in the same overtaking lane 43 as the own vehicle, and another preceding vehicle 41 is in the adjacent traveling lane 44. The vehicle 45 is running. In this scene, both the preceding vehicles 42 and 45 are detected by the sensor 21 and the camera 17, but the target preceding vehicle determination unit 21e targets the preceding vehicle 41 that is closest to the own vehicle on the same lane 43 as the own vehicle. It is decided to be the preceding vehicle. Therefore, in this case, the preceding vehicle 41 is a detection target that the driver particularly gazes in a real scene.

このとき、目標先行車輌決定部21eは、検出した目標先行車輌42との車間距離、相対速度、方向等のデータは、メモリに記憶すると共に、センサ21及びカメラ17が継続して連続的に走査することによって、目標先行車輛42を自動追尾し、それとの車間距離、相対速度、方向等のデータを連続的に収集して記憶する。 At this time, the target preceding vehicle determination unit 21e stores the detected data such as the inter-vehicle distance, the relative speed, and the direction with respect to the target preceding vehicle 42 in the memory, and the sensor 21 and the camera 17 continuously scan continuously. By doing so, the target preceding vehicle 42 is automatically tracked, and data such as the inter-vehicle distance, relative speed, and direction with respect to the target preceding vehicle 42 are continuously collected and stored.

そして、表示制御部3は、目標先行車輌決定により、先行車輛41が追従対象車両であることを表すマーキング42の画像を表示する。マーキング42は、図9に示すように、先行車輛41の後部輪郭と概ね重なるような枠の絵柄であり、表示制御部3は、画像メモリMから枠の描画画像を読み出して、これを立体画像で表示するよう右目用画像RP及び左目用画像LPの作成処理を行う。 Then, the display control unit 3 displays the image of the marking 42 indicating that the preceding vehicle 41 is the following target vehicle by the target preceding vehicle determination. As shown in FIG. 9, the marking 42 is a picture of a frame that substantially overlaps with the rear contour of the preceding vehicle 41, and the display control unit 3 reads the drawn image of the frame from the image memory M and uses this as a stereoscopic image. The creation processing of the image RP for the right eye and the image LP for the left eye is performed so as to be displayed at.

このときの処理について説明する。フロントウインドシールド15の上部に固定で据え付けられているカメラ17が撮影する範囲とフロントウインドシールド15の面とが重なる領域は一定であり、表示制御部3にはこの重なる領域が予め設定されている。よって、表示制御部3は、目標先行車輌が決定されたとき、フロントウインドシールド15の中心点Oを通るX−Y軸を基準にして、カメラが撮影した画像の中から、先行車輛41の輪郭の中心点Pの座標位置を演算する。このとき先行車輛41の大きさは、その輪郭が画像に占める割合から判別できるため、その大きさに見合ったサイズのマーキング42の描画画像を画像メモリMから読み出す。 The processing at this time will be described. The area where the camera 17 fixedly installed on the upper part of the front windshield 15 and the surface of the front windshield 15 overlap is fixed, and the display controller 3 presets this overlapping area. .. Therefore, when the target preceding vehicle is determined, the display control unit 3 uses the XY axis passing through the center point O of the front windshield 15 as a reference, and selects the contour of the preceding vehicle 41 from the image captured by the camera. The coordinate position of the center point P of is calculated. At this time, the size of the preceding vehicle 41 can be determined from the ratio of its contour to the image, and thus the drawn image of the marking 42 having a size corresponding to the size is read from the image memory M.

そして、表示制御部3は、このマーキング42の描画画像から両眼視差を有する右目用画像RP及び左目用画像LPを作成してHUD装置4で表示する。この場合、表示制御部3は、ドライバーがマーキング42をその中心が演算で求めた前述の座標位置で、且つフロントウインドシールド15から先行車輛41までの奥行き方向の深度で視認できるような両眼視差を有する右目用画像RP及び左目用画像LPを作成する。 Then, the display control unit 3 creates a right-eye image RP and a left-eye image LP having binocular parallax from the drawn image of the marking 42 and displays them on the HUD device 4. In this case, the display control unit 3 allows the driver to visually recognize the marking 42 at the above-described coordinate position whose center is calculated and at the depth in the depth direction from the front windshield 15 to the preceding vehicle 41. An image RP for the right eye and an image LP for the left eye having

よって、ドライバーは、フロントウインドシールド15を通して先行車輛41に目の焦点を合せている状態でマーキング42も同時に視認できる。これにより、ドライバーは、目標先行車輛42を実際に枠で囲ったように目に映るため、自車輛が追尾の対象としている目標先行車輛を確実に視認することができる。 Therefore, the driver can visually recognize the marking 42 at the same time while the eyes of the preceding vehicle 41 are focused through the front windshield 15. As a result, the driver sees the target preceding vehicle 42 as if the target preceding vehicle 42 is actually surrounded by a frame, so that the driver can surely visually recognize the target preceding vehicle that is the target of tracking by the own vehicle.

本実施形態でのマーキング42の画像は、図示するように、目標先行車輛41の輪郭を囲むような四角い太枠線で形成されているが、四角い太枠線以外の様々な形や表示を用いることができる。例えば、円形の太枠線や、枠で囲むのではなく矢印で示してもよく、さらには、ドライバーの注意をさらに喚起するために、例えば、赤又は橙等の目立つ色で表示することもできる。 As shown in the figure, the image of the marking 42 in the present embodiment is formed by a thick square frame line surrounding the outline of the target preceding vehicle 41, but various shapes and displays other than the thick square frame line are used. be able to. For example, it may be indicated by an arrow instead of being surrounded by a thick circular frame line or a frame, and may be displayed in a prominent color such as red or orange to further draw the driver's attention. ..

そして、定速走行制御部21dの制御による定速走行時には、表示制御部3は、HMI部23のタッチパネル30への入力により設定された走行速度を数字の描画画像によって立体表示する。さらに、表示制御部3は、定速走行速度を変更する場合には、設定速度に到達するまでの途中段階での車速を車速センサ25から取得して、逐次表示していく。 Then, at the time of constant speed traveling under the control of the constant speed traveling control unit 21d, the display control unit 3 stereoscopically displays the traveling speed set by the input to the touch panel 30 of the HMI unit 23 by a drawing image of a number. Further, when changing the constant speed traveling speed, the display control unit 3 acquires the vehicle speed in the middle stage until reaching the set speed from the vehicle speed sensor 25 and sequentially displays the acquired vehicle speed.

[ナビゲーションの表示]
自動車10がナビゲーション装置33によって、目的地までへの経路案内が設定されているときには、HUD装置4によってナビゲーション情報を立体表示する。
Show navigation
When the navigation device 33 sets the route guidance to the destination of the automobile 10, the HUD device 4 stereoscopically displays the navigation information.

HUD装置4により表示されるナビゲーション情報は、例えば、自動車10の進行方向に沿った矢印であり、交差点において真っ直ぐに進むときには直線の矢印、左折又は右折のときにはその方向に応じた屈折した矢印を表示する。 The navigation information displayed by the HUD device 4 is, for example, an arrow along the traveling direction of the automobile 10, and a straight arrow is displayed when going straight at an intersection, and a bent arrow corresponding to the direction when turning left or right is displayed. To do.

図10は、ナビゲーション走行時において、経路を左折する案内時のHUD装置4による画面表示の一例を示している。表示制御部3は、左折を表示する矢印46の描画画像を画像メモリMから読み出してきてHUD装置4に立体表示する。このとき、表示制御部3は、ナビゲーション装置33から左折する交差点47までの距離情報が送信されてくると、その距離に基づきフロントウインドシールド15の面上に設定しているY軸での座標位置を決定して、その位置に矢印46が立体表示されるような両眼視差を有する右目用画像RP及び左目用画像LPを作成し表示する。 FIG. 10 shows an example of a screen display by the HUD device 4 at the time of guidance for turning left on the route during navigation traveling. The display control unit 3 reads out the drawn image of the arrow 46 indicating the left turn from the image memory M and stereoscopically displays it on the HUD device 4. At this time, when the information on the distance from the navigation device 33 to the intersection 47 that makes a left turn is transmitted, the display control unit 3 sets the coordinate position on the Y-axis set on the surface of the front windshield 15 based on the distance. Is determined, and a right-eye image RP and a left-eye image LP having binocular parallax such that the arrow 46 is stereoscopically displayed at that position are created and displayed.

よって、ドライバーは、フロントウインドシールド15を通して交差点47に目の焦点を合せている状態で、矢印46も視認することができる。これにより、ドライバーは、交差点47に重ねて左折の矢印が視認されるため、左折の準備を執ることができる。したがって、この場合、交差点47が現実風景において、ドライバーが特に注視する検知対象物となる。 Therefore, the driver can also see the arrow 46 while the eyes are focused on the intersection 47 through the front windshield 15. As a result, the driver can prepare for the left turn because the left turn arrow is visually recognized in an overlapping manner at the intersection 47. Therefore, in this case, the intersection 47 is a detection object that the driver particularly gazes in the real landscape.

[自動運転を行っているときの表示]
本発明に係る自動車用画像表示システムは、ドライバーが直接には運転に関与しない完全自動運転車においては、ドライバーは、HUD装置4によって投影される立体画像によって自動運転状況を監視することができる。このような、自動運転中での本発明に係る自動車用画像表示システムによる表示の例を説明する。
[Display during automatic operation]
In the vehicle image display system according to the present invention, in a fully autonomous vehicle in which the driver is not directly involved in driving, the driver can monitor the autonomous driving situation by the stereoscopic image projected by the HUD device 4. An example of display by the vehicle image display system according to the present invention during automatic driving will be described.

自動運転は、ナビゲーション装置33が事前に乗員から入力された目的地までの走行ルートの候補を1つ又は複数演算し、ドライバーの確認又は承認により決定された走行ルートに沿って、自動運転制御部21fが走行制御装置25を制御することで行われる。 In the automatic driving, the navigation device 33 calculates one or a plurality of driving route candidates to the destination input in advance by the occupant, and the automatic driving control unit follows the driving route determined by the driver's confirmation or approval. 21f is performed by controlling the traveling control device 25.

この自動運転中に表示制御部3は、図11で示すように、自車輌の走行コースを表す矢印48による描画画像の右目用画像RPと左目用画像LPとを作成して、HUD装置4で表示する。この場合、表示制御部3は、パターンマッチング処理部21aによるカメラ17が撮影した画像の処理により自車両の走行路49の座標位置を検出し、その座標位置にドライバーが両眼視差で矢印48を立体画像で視認可能なよう右目用画像RP及び左目用画像LPを作成する。 During this automatic driving, the display control unit 3 creates the right-eye image RP and the left-eye image LP of the drawn image by the arrow 48 representing the traveling course of the vehicle, as shown in FIG. indicate. In this case, the display control unit 3 detects the coordinate position of the traveling path 49 of the own vehicle by processing the image captured by the camera 17 by the pattern matching processing unit 21a, and the driver shows the arrow 48 with the binocular parallax at the coordinate position. The right-eye image RP and the left-eye image LP are created so that they can be visually recognized as a stereoscopic image.

よって、ドライバーは、フロントウインドシールド15を通してその奥行き方向に目の焦点を合せている状態で矢印48を視認できるため、ドライバーには、あたかもフロントウインドシールド15を通して見える現実風景36の道路49上に、矢印48が示されているように認識できる。 Therefore, the driver can see the arrow 48 through the front windshield 15 while focusing his/her eyes on the depth direction, so that the driver can see on the road 49 of the real scenery 36 as if he/she sees through the front windshield 15. It can be recognized as the arrow 48 is shown.

さらに、表示制御部3は、自動運転中の自動車10が現在の走行コースから逸れたり車線変更の走行行動をする前に、その執ろうとしている次の走行行動を、ドライバー及び他の乗員に直感的かつ瞬間的に分かり易く表示することで予告する。本実施形態において、予定の走行行動と異なる走行行動を取るべきか、又はどのように行動するかの判断は、中央演算処理部21が自動運転制御部21fを実現するために実行する自動運転の制御プログラムに従って決定する。 Further, the display control unit 3 allows the driver and other occupants to intuitively understand the next driving action to be taken before the automatically driving vehicle 10 deviates from the current driving course or changes the lane. A notice will be given by displaying clearly and instantaneously. In the present embodiment, the determination of whether or not to take a traveling behavior different from the planned traveling behavior is performed by the central processing unit 21 in order to realize the automatic driving control unit 21f. Determine according to the control program.

図12は、自車輌が自動運転中に、追越車線52から走行車線53へ車線変更する場合に、それに先立ってHUD装置4にそれぞれ表示される予告のための画面を模式的に示している。このときの表示には、予定走行コースを示す矢印50による描画画像に加えて、車線変更の走行コースを矢印51による描画画像が表示される。 FIG. 12 schematically shows a screen for notice displayed on the HUD device 4 prior to changing the lane from the overtaking lane 52 to the driving lane 53 while the vehicle is in automatic driving. .. At this time, in addition to the drawn image by the arrow 50 indicating the planned traveling course, the drawn image by the arrow 51 indicating the traveling course for changing lanes is displayed.

矢印51は、現実風景36の追越車線38上の位置から、移動先の隣接する走行車線45上の位置まで、自車輌が自動走行すると予測される軌跡に沿って湾曲する形状となっている。これらの矢印50,51も画像メモリMから読み出されて、立体画像で表示されることで、ドライバーは、前方の車両に目の焦点を併せている状態で矢印が視認できる。よって、ドライバーは、現在走行中の追越車線52から、走行車線53へ車線変更の運転操作が行われようとしていることを、より明確に、直感的かつ具体的に認識することができる。 The arrow 51 has a shape that curves from a position on the overtaking lane 38 of the real landscape 36 to a position on the adjacent traveling lane 45 of the destination along a trajectory predicted to automatically travel by the vehicle. .. These arrows 50 and 51 are also read from the image memory M and displayed as a stereoscopic image, so that the driver can visually recognize the arrows while the eyes of the vehicle ahead are focused. Therefore, the driver can more clearly, intuitively and concretely recognize that the driving operation for changing the lane is about to be performed from the overtaking lane 52 that is currently traveling to the traveling lane 53.

さらに、図12の例では、矢印50,51による描画画像と共に自車輌を仮想させるアイコン54による描画画像を表示している。そして、表示制御部3は、自車輛がこれから行おうとする車線変更の経過をアイコン54の動きでHUD装置4によって仮想表示する。図12の(a)から(d)までは、このときの表示を時間順に模式的に示している。 Further, in the example of FIG. 12, the drawn images by the icons 54 for virtualizing the own vehicle are displayed together with the drawn images by the arrows 50, 51. Then, the display control unit 3 virtually displays the progress of the lane change that the vehicle is going to perform by the movement of the icon 54 by the HUD device 4. 12A to 12D, the displays at this time are schematically shown in time order.

先ず、図12(a)では、アイコン54は、自車輛がフロントウインドシールド15の直前を走行しているかの如き状態を示している。このとき、表示制御部3は、アイコン54がドライバーによって視認される位置が、同じ車線52の先行車輛55の後方であるかのような両目視差が得られるように右目用画像RP及び左目用画像LPを作成して、HUD装置4で表示する。 First, in FIG. 12A, the icon 54 indicates a state as if the own vehicle is traveling just in front of the front windshield 15. At this time, the display control unit 3 obtains the right-eye image RP and the left-eye image so that the position where the icon 54 is visually recognized by the driver is a visual difference as if the position is behind the preceding vehicle 55 in the same lane 52. An LP is created and displayed on the HUD device 4.

そして、表示制御部3は、以下、図12(b),(c),(d)の仮想画像で順次示すように、アイコン54が追越車線52から走行車線53へと車線変更して離れていく様子をそれぞれ立体画像でドライバーが視認できるように、右目用画像RP及び左目用画像LPを作成して、HUD装置4で表示する。このとき、車線変更の経過に伴い自車両の外観形状も変化することになるが、表示制御部3は、その経過時に応じた自車両の外観形状を表わすアイコン54の描画画像を描画メモリMから読み出して表示する。 Then, the display control unit 3 changes the lane of the icon 54 from the overtaking lane 52 to the driving lane 53 and separates from the overtaking lane 52, as sequentially shown in the virtual images of FIGS. An image RP for the right eye and an image LP for the left eye are created and displayed on the HUD device 4 so that the driver can visually recognize each of the moving states as a stereoscopic image. At this time, the appearance shape of the host vehicle also changes as the lane is changed, but the display control unit 3 draws from the drawing memory M a drawing image of the icon 54 representing the appearance shape of the own vehicle according to the elapsed time. Read and display.

このような仮想車輌のアイコン54による車線変更のシミュレーション表示は、自車輌の実際の走行速度よりも高速で表示することが好ましい。それにより、車線変更を予告した後、自動運転制御部21fが予定している車線変更のタイミングまでの間に、ドライバーに車線変更の中止や手動運転への切換を判断させ、必要があれば準備させる時間的余裕を持たせることができる。 It is preferable that the simulation display of the lane change by the icon 54 of the virtual vehicle is displayed at a speed higher than the actual traveling speed of the vehicle. As a result, after notifying the lane change, before the timing of the lane change scheduled by the automatic driving control unit 21f, the driver is made to decide whether to stop the lane change or switch to the manual driving, and prepare if necessary. It is possible to have a time allowance.

また、アイコン54は、仮想での車線変更の終了後直ちに消滅させることができ、又はそれぞれフロントウインドシールド15の同じ位置に表示させた状態で、或る短い時間維持することもできる。また、図12の(a)乃至(d)までの動画を繰り返して表示させることもできる。 Further, the icon 54 can be disappeared immediately after the virtual lane change is completed, or can be maintained for a certain short time while being displayed at the same position on the front windshield 15. Further, the moving images in (a) to (d) of FIG. 12 can be repeatedly displayed.

以上、詳述したように、本発明に係る自動車用画像表示システムは、ドライバーによって運転操作が直接行われる場合や走行支援システムで実現されるレベル1からレベル4までの何れの段階での自動運転においても、安全走行に必要な情報を表示によりドライバーに提供することができる。 As described above in detail, the vehicle image display system according to the present invention is capable of performing automatic driving at any stage from level 1 to level 4 when a driving operation is directly performed by a driver or a driving support system. Also in this case, the information necessary for safe driving can be provided to the driver by displaying.

1 自動車用画像表示システム
2 検出部(検出手段)
3 表示制御部(描画手段)
4 HUD装置(表示手段)
17、18、19 カメラ
20、21 センサ
1 Automotive image display system 2 Detection unit (detection means)
3 Display control unit (drawing means)
4 HUD device (display means)
17, 18, 19 Camera 20, 21 Sensor

Claims (2)

自動車の乗員への提供情報を画像で表示する自動車用画像表示システムであって、
前記自動車の構造体が形成する死角にある周囲の状況を撮影して右目用画像と左目用画像とを出力するステレオカメラと、
ステアリングホイールの回転操作を検出する操舵角センサと、
前記ステレオカメラによる撮影画像を立体表示するのに立体画像を構成する前記右目用画像および前記左目用画像を前記自動車のフロントウインドシールドに向けて投影する表示手段と、
前記ステレオカメラによる検知対象の撮像画像の画像特徴である輪郭が予め登録されているパターンデータファイルを用いて、前記立体画像に含まれる輪郭情報をパターンマッチング処理して前記検知対象物を特定する手段と、
前記ステレオカメラの左右の両画像の視差から前記検知対象物までの距離を演算して、その距離が所定範囲内にあるか否かを判定する手段と、
を備えて、
前記操舵角センサが前記死角方向への前記ステアリングホイールの回転操作を検出したとき前記検知対象物が特定されその検知対象までの距離が所定の範囲内である場合は、前記右目用画像および前記左目用画像を前記自動車の前記フロントウインドシールドの前方の奥方向の焦点位置に立体画像で表示する自動車用画像表示システム。
A vehicle image display system for displaying information provided to passengers of a vehicle in an image,
A stereo camera that outputs a right-eye image and a left-eye image by photographing a surrounding situation in a blind spot formed by the structure of the automobile,
A steering angle sensor that detects the rotating operation of the steering wheel,
Display means for projecting the right-eye image and the left-eye image forming a stereoscopic image for stereoscopically displaying the image captured by the stereo camera, toward the front windshield of the automobile,
Using the pattern data file the contour which is the image feature of the captured image of the detection object by the stereo camera is registered in advance, specifying the sense target contour information included in the three-dimensional image pattern matching process to Means and
Said parallax between the images of the left and right stereo cameras calculates the distance to the detection object, and means for determining whether the distance is within a predetermined range,
With
When the steering angle sensor detects a rotation operation of the steering wheel in the blind spot direction, the detection target is specified and the distance to the detection target is within a predetermined range, the right-eye image and the image An image display system for a vehicle, which displays a left-eye image as a stereoscopic image at a focus position in the back direction in front of the front windshield of the vehicle.
前記距離が所定範囲内にあるときは前記自動車を停止状態とする停止制御部をさらに備える請求項1に記載の自動車用画像表示システム。 The vehicle image display system according to claim 1, further comprising a stop control unit that sets the vehicle to a stopped state when the distance is within a predetermined range.
JP2015219546A 2015-11-09 2015-11-09 Automotive image display system Active JP6744064B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015219546A JP6744064B2 (en) 2015-11-09 2015-11-09 Automotive image display system
PCT/JP2016/081866 WO2017082067A1 (en) 2015-11-09 2016-10-27 Image display system for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015219546A JP6744064B2 (en) 2015-11-09 2015-11-09 Automotive image display system

Publications (3)

Publication Number Publication Date
JP2017092678A JP2017092678A (en) 2017-05-25
JP2017092678A5 JP2017092678A5 (en) 2018-12-13
JP6744064B2 true JP6744064B2 (en) 2020-08-19

Family

ID=58695212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015219546A Active JP6744064B2 (en) 2015-11-09 2015-11-09 Automotive image display system

Country Status (2)

Country Link
JP (1) JP6744064B2 (en)
WO (1) WO2017082067A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083547B1 (en) * 2017-05-23 2018-09-25 Toyota Jidosha Kabushiki Kaisha Traffic situation awareness for an autonomous vehicle
JP6958252B2 (en) 2017-11-07 2021-11-02 トヨタ自動車株式会社 Remote monitoring system, autonomous vehicle and remote monitoring method
JP2019177726A (en) * 2018-03-30 2019-10-17 コニカミノルタ株式会社 Virtual rear view mirror device
JP7064688B2 (en) * 2018-04-20 2022-05-11 日本精機株式会社 Vehicle display devices, vehicle display systems, and vehicle display programs
CA3113596A1 (en) * 2018-09-21 2020-03-26 Honda Motor Co., Ltd. Vehicle inspection system
EP4024856A4 (en) * 2019-08-28 2022-11-09 Konica Minolta, Inc. Head-up display device, display system, and display method
CN111521414A (en) * 2020-06-19 2020-08-11 上海机动车检测认证技术研究中心有限公司 Projection measurement system
DE102020214843A1 (en) * 2020-11-26 2022-06-02 Volkswagen Aktiengesellschaft Method for representing a virtual element
JP2022126240A (en) * 2021-02-18 2022-08-30 トヨタ自動車株式会社 Display device for vehicle
JP7447039B2 (en) 2021-03-10 2024-03-11 矢崎総業株式会社 Vehicle display device
JP2022148856A (en) * 2021-03-24 2022-10-06 本田技研工業株式会社 Vehicle display device, display control method, and program

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3194024B2 (en) * 1993-10-04 2001-07-30 本田技研工業株式会社 Information display device for vehicles
JP2004284417A (en) * 2003-03-19 2004-10-14 Sumitomo Electric Ind Ltd Image display method and image display system
JP4033081B2 (en) * 2003-08-27 2008-01-16 株式会社デンソー Vehicle display device
JP4715325B2 (en) * 2005-06-20 2011-07-06 株式会社デンソー Information display device
JP2007168670A (en) * 2005-12-22 2007-07-05 Fujitsu Ten Ltd On-vehicle display device
JP2009132259A (en) * 2007-11-30 2009-06-18 Denso It Laboratory Inc Vehicle surrounding-monitoring device
JP2009276994A (en) * 2008-05-14 2009-11-26 Nissan Motor Co Ltd Method for acquiring vehicle information and vehicle drive supporting system
JP2010030524A (en) * 2008-07-30 2010-02-12 Toyota Motor Corp Blind side indicator
JP2010137697A (en) * 2008-12-11 2010-06-24 Honda Motor Co Ltd Drive assisting device for vehicle
JP2011081141A (en) * 2009-10-06 2011-04-21 Seiko Epson Corp Lens array unit, electrooptical apparatus and electric apparatus
JP2014010418A (en) * 2012-07-03 2014-01-20 Yazaki Corp Stereoscopic display device and stereoscopic display method
JP2014089510A (en) * 2012-10-29 2014-05-15 Toyota Motor Corp Preceding vehicle display device
JP6337418B2 (en) * 2013-03-26 2018-06-06 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device

Also Published As

Publication number Publication date
JP2017092678A (en) 2017-05-25
WO2017082067A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6744064B2 (en) Automotive image display system
JP5160564B2 (en) Vehicle information display device
JP6254554B2 (en) Information presentation system
CN108973682B (en) Vehicle control system, vehicle control method, and storage medium
KR102206272B1 (en) Parking assistance method and parking assistance device
JP6252365B2 (en) Safety confirmation support system, safety confirmation support method
JP6495971B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6699646B2 (en) Vehicle display control device
CN110730740B (en) Vehicle control system, vehicle control method, and storage medium
JP6459205B2 (en) Vehicle display system
WO2016186039A1 (en) Automobile periphery information display system
JP2018203007A (en) Vehicle control system, vehicle control method and vehicle control program
CN108973988B (en) Vehicle control system, vehicle control method, and storage medium
WO2018220826A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP2018092291A (en) Vehicle display device
JP2018203008A (en) Vehicle control system, vehicle control method and program
JP6827378B2 (en) Vehicle control systems, vehicle control methods, and programs
JP2006284458A (en) System for displaying drive support information
CN108973989B (en) Vehicle control system, vehicle control method, and storage medium
JP2009184554A (en) Safe travel assisting system
CN110603166A (en) Vehicle control system, vehicle control method, and vehicle control program
JP6840035B2 (en) Vehicle control system
JP6589991B2 (en) Human interface
KR102303362B1 (en) Display method and display device of the surrounding situation
JP2016197312A (en) Drive support display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200729

R150 Certificate of patent or registration of utility model

Ref document number: 6744064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250