JP2020144877A - Collision reducing device and vehicle - Google Patents

Collision reducing device and vehicle Download PDF

Info

Publication number
JP2020144877A
JP2020144877A JP2020071253A JP2020071253A JP2020144877A JP 2020144877 A JP2020144877 A JP 2020144877A JP 2020071253 A JP2020071253 A JP 2020071253A JP 2020071253 A JP2020071253 A JP 2020071253A JP 2020144877 A JP2020144877 A JP 2020144877A
Authority
JP
Japan
Prior art keywords
vehicle
image
display
data
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020071253A
Other languages
Japanese (ja)
Other versions
JP7236656B2 (en
Inventor
薫 木戸
Kaoru Kido
薫 木戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADC Technology Inc
Original Assignee
ADC Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADC Technology Inc filed Critical ADC Technology Inc
Priority to JP2020071253A priority Critical patent/JP7236656B2/en
Publication of JP2020144877A publication Critical patent/JP2020144877A/en
Priority to JP2021178818A priority patent/JP7308465B2/en
Priority to JP2022045123A priority patent/JP2022075859A/en
Application granted granted Critical
Publication of JP7236656B2 publication Critical patent/JP7236656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To enable a driver to safety drive a vehicle by accuracy reproducing a situation around the vehicle as an image and displaying the image on an inner side surface in a cabin.SOLUTION: In an on-vehicle image display apparatus 5 for provision in a vehicle, a detection unit 80 detects a surrounding view, surrounding persons or vehicles, or an aspect of an object such as an obstacle as a surrounding situation of the vehicle. Detection data representing its detection result is transmitted to an on-vehicle unit 90. In the on-vehicle unit 90, an image representing the surrounding situation of the vehicle is generated by a drawing processor 39 on the basis of the detection data. The image representing the surround situation of the vehicle is displayed on a display glass panel 40, that is, an inner side surface such as a window or a pillar of the vehicle.SELECTED DRAWING: Figure 2

Description

本発明は、バス、タクシー、或いは自家用車等の車両の窓部を含む車室内に画像を表示する車載用画像表示装置に関する。 The present invention relates to an in-vehicle image display device that displays an image in a vehicle interior including a window of a vehicle such as a bus, a taxi, or a private car.

従来より、車両同士の事故や車両と通行人との事故等、車両に関係した事故が起こる原因として、例えば、天候(雨や雪など)により視界が悪化したり、或いは目の疲労等で運転手の視力が一時的に低下したりすることにより、運転手が、車両の周囲の通行人、他の車両、或いは障害物等を見落としてしまうことや、見間違えてしまうというようなことが考えられる。すなわち、運転手が車両の周囲の状況を正確に把握できず、危険回避が遅れて事故につながってしまうのである。逆に言うと、運転手が車両の周囲の状況を正確に把握できれば、事故の発生が防止される。 Conventionally, the causes of vehicle-related accidents such as vehicle-to-vehicle accidents and vehicle-passenger accidents include, for example, poor visibility due to weather (rain, snow, etc.), or driving due to eye fatigue. It is conceivable that the driver may overlook passersby, other vehicles, obstacles, etc. around the vehicle or make a mistake due to the temporary deterioration of the eyesight of the hand. Be done. That is, the driver cannot accurately grasp the situation around the vehicle, which delays the avoidance of danger and leads to an accident. Conversely, if the driver can accurately grasp the situation around the vehicle, the occurrence of an accident can be prevented.

ところで、従来より、車両の窓ガラスに、外の状況や風景を映写することのできる画像表示装置が知られている(例えば、特許文献1参照)。
この特許文献1に記載の画像表示装置は、車両の状態(位置や速度等)を観測する観測装置と、外の風景の画像情報を予め蓄積しておく蓄積装置とを備えており、観測装置により観測された車両の位置を表す情報に基づき、その観測された位置において車両の外に見えるであろう風景の画像情報を蓄積装置より取得し、その画像情報が表す画像を、窓ガラスに表示させる。なお、地名や河川名、山岳名等の地図情報を表示させることもできる。また、車両の速度情報に基づいて、速度に合わせて表示させる画像を順次切り換えることもできる。このように、車両の周囲の風景画像を車両の窓ガラスに表示させることのできるものがある。
By the way, conventionally, an image display device capable of projecting an outside situation or a landscape on a window glass of a vehicle has been known (see, for example, Patent Document 1).
The image display device described in Patent Document 1 includes an observation device for observing the state of the vehicle (position, speed, etc.) and a storage device for accumulating image information of the outside scenery in advance. Based on the information indicating the position of the vehicle observed by, the image information of the scenery that will be visible outside the vehicle at the observed position is acquired from the storage device, and the image represented by the image information is displayed on the window glass. Let me. It is also possible to display map information such as place names, river names, and mountain names. It is also possible to sequentially switch the images to be displayed according to the speed based on the speed information of the vehicle. In this way, there are some that can display a landscape image around the vehicle on the window glass of the vehicle.

特開2004−20223号公報Japanese Unexamined Patent Publication No. 2004-20223

ところで、上述したような従来の画像表示装置においては、蓄積装置に予め蓄積された風景画像が車両の窓ガラスに表示されるのであり、走行中現在の車両の外の風景画像は表示させることができない。そして、前述したように、天候により視界が悪化したり、或いは運転手の視力が一時的に低下したりすると、運転手は周囲の状況を正確に把握できなくなり、運転の危険度、言い換えると、事故が生じる確率が増大する。よって、事故を防止するためには、走行中における車両の周囲の画像を、リアルタイムに表示させることが必要である。 By the way, in the conventional image display device as described above, the landscape image stored in advance in the storage device is displayed on the window glass of the vehicle, and the landscape image outside the current vehicle while traveling can be displayed. Can not. Then, as described above, if the visibility deteriorates due to the weather or the driver's eyesight temporarily deteriorates, the driver cannot accurately grasp the surrounding situation, and the degree of danger of driving, in other words, The probability of an accident increases. Therefore, in order to prevent accidents, it is necessary to display an image of the surroundings of the vehicle while traveling in real time.

本発明は、こうした問題に鑑みなされたもので、車両の周囲の状況を画像で正確に再現して車両の窓部に表示することで、運転手が安全に車両を運転できるようにすることを目的とする。 The present invention has been made in view of these problems, and it is intended that the driver can drive the vehicle safely by accurately reproducing the situation around the vehicle with an image and displaying it on the window of the vehicle. The purpose.

本開示の一態様に係る車載用画像表示装置は、車両に用いられ、表示手段と、画像生成手段と、表示制御手段とを備える。表示手段は、車両の窓部を少なくとも含む車室内の面である内側面に画像を表示可能に構成されている。画像生成手段は、車両の周囲の状況を検出する検出状況手段による検出結果、あるいは画像情報が予め記録されている記録媒体
から読み出された画像情報の少なくとも何れかに基づいて、表示手段に表示させるための画像データを生成するように構成されている。表示制御手段は、画像生成手段により生成された画像データが表す画像を、表示手段に表示させるように構成されている。
The vehicle-mounted image display device according to one aspect of the present disclosure is used in a vehicle and includes a display means, an image generation means, and a display control means. The display means is configured to be able to display an image on the inner surface, which is a surface of the vehicle interior including at least the window portion of the vehicle. The image generation means displays on the display means based on at least one of the detection result by the detection status means for detecting the situation around the vehicle or the image information read from the recording medium in which the image information is recorded in advance. It is configured to generate image data for this purpose. The display control means is configured to cause the display means to display an image represented by the image data generated by the image generation means.

本開示の車載用画像表示装置において、更に次のように構成されていてもよい。すなわち、表示手段は、複数の窓部と、複数の窓部の間に設けられているピラーとを少なくとも含む範囲である内側面に画像を表示可能に構成されている。 The in-vehicle image display device of the present disclosure may be further configured as follows. That is, the display means is configured to be able to display an image on the inner surface, which is a range including at least a plurality of windows and pillars provided between the plurality of windows.

本開示の車載用画像表示装置によれば、車両の周囲の状況を表す画像が表示手段に表示されるため、運転手が車両の周囲の状況を確実に把握できるようになる。すなわち、状況検出手段の検出結果に基づいて、例えば移動物を強調表示するなど、運転手が見やすい画像を表示するように構成することができるため、運転手は、画像の内容、つまり周囲の状況を容易に認識できる。また、車両の遠方の状況であっても、その状況を表す画像が表示されることになるため、運転手にとって見やすいものとなり、その遠方の状況も容易に把握できるようになる。このように、運転手は車両の周囲の状況を確実に把握できるようになり、危険回避が遅れて事故が発生するということを確実に防止できるようになる。なお、少なくとも周囲に存在する物体が状況検出手段により検出されるように構成できる。 According to the in-vehicle image display device of the present disclosure, an image showing the situation around the vehicle is displayed on the display means, so that the driver can surely grasp the situation around the vehicle. That is, based on the detection result of the situation detecting means, the driver can be configured to display an image that is easy for the driver to see, such as highlighting a moving object, so that the driver can display the content of the image, that is, the surrounding situation. Can be easily recognized. Further, even if the situation is far away from the vehicle, an image showing the situation is displayed, which makes it easy for the driver to see and easily grasps the situation far away. In this way, the driver can surely grasp the situation around the vehicle, and can surely prevent the danger avoidance from being delayed and the accident from occurring. It should be noted that at least the surrounding objects can be configured to be detected by the situation detecting means.

また、この車載用画像表示装置においては、前記表示手段は、車両の内部及び外部からの光を透過させることにより、当該表示手段を挟んで車両の内部及び外部の景色が視認可能となる窓状態と、車両の内部及び外部からの光を遮断するとともに、前記表示制御手段により画像が表示されるようになる表示状態と、に切り換え可能に構成され、前記表示制御手段は、前記表示手段の状態を前記表示状態に切り換えた後、前記画像生成手段が生成した画像データが表す画像をその表示手段に表示させてもよい。 Further, in this in-vehicle image display device, the display means transmits light from the inside and the outside of the vehicle so that the inside and outside scenery of the vehicle can be visually recognized across the display means. The display control means is configured to be switchable between a display state in which light from the inside and the outside of the vehicle is blocked and an image is displayed by the display control means, and the display control means is a state of the display means. After switching to the display state, the display means may display the image represented by the image data generated by the image generation means.

この車載用画像表示装置においては、表示手段は、通常の窓のように対向側の景色が視認できるような窓状態と、画像が表示される表示状態とに切り換えられる。 In this in-vehicle image display device, the display means is switched between a window state in which the scenery on the opposite side can be visually recognized like a normal window and a display state in which an image is displayed.

この車載用画像表示装置によれば、車両の周囲の画像を表示させる時のみ、表示手段を表示状態に切り換え、また、画像を表示しない時には、通常の窓のような窓状態に切り換えるように構成することができる。したがって、運転手、或いは搭乗者にとって使いやすいものとなる。 According to this in-vehicle image display device, the display means is switched to the display state only when displaying an image around the vehicle, and when the image is not displayed, the display means is switched to a window state like a normal window. can do. Therefore, it is easy for the driver or the passenger to use.

車載用画像表示装置においては、車両の前方、側面及び後方の窓部に表示手段が設けられることが考えられる。そして特に、表示手段の状態が切り換えられる場合は、各窓部において、表示手段の状態を前記窓状態と前記表示状態とに切り換え可能に構成されることが好ましい。 In an in-vehicle image display device, it is conceivable that display means are provided on the front, side, and rear windows of the vehicle. In particular, when the state of the display means can be switched, it is preferable that the state of the display means can be switched between the window state and the display state in each window portion.

この車載用画像表示装置によれば、車両の全ての窓部に情報を表示させることができる。よって、車両の全ての窓部に車両の周囲の状況を表す画像を表示させることができるため、前述したような理由により、運転手はより安全に車両を運転できるようになる。しかも、その各窓部の表示手段は、通常の窓のような窓状態と、画像が表示される表示状態とに切り換え可能になっている。よって、例えば搭乗者が本物の風景を楽しめるように窓部毎に表示手段の状態を通常の窓状態に切り換えることもでき、本物の風景を楽しみたいという搭乗者のニーズにも応えることができる。 According to this in-vehicle image display device, information can be displayed on all windows of the vehicle. Therefore, since an image showing the situation around the vehicle can be displayed on all the windows of the vehicle, the driver can drive the vehicle more safely for the reason described above. Moreover, the display means of each window portion can be switched between a window state like a normal window and a display state in which an image is displayed. Therefore, for example, the state of the display means can be switched to the normal window state for each window so that the passenger can enjoy the real scenery, and it is possible to meet the needs of the passenger who wants to enjoy the real scenery.

また、車載用画像表示装置においては、前記表示制御手段は、車両の搭乗者の入力に基づき、前記表示手段の状態を前記窓状態と前記表示状態とに切り換えることが好ましい。 Further, in the vehicle-mounted image display device, it is preferable that the display control means switches the state of the display means between the window state and the display state based on the input of the passenger of the vehicle.

この車載用画像表示装置によれば、搭乗者は、車両の窓部の表示手段の状態を自由に表
示状態と窓状態とに切り換ることができるため、搭乗者にとって使い勝手が良い。
According to this in-vehicle image display device, the passenger can freely switch the state of the display means of the window portion of the vehicle between the display state and the window state, which is convenient for the passenger.

また、車載用画像表示装置は、車両の速度、進行方向、或いは制動状態の少なくとも何れかを検出する運転状態検出手段を備え、
前記表示制御手段は、前記運転状態検出手段の検出結果に基づき、前記表示手段の状態を前記窓状態と前記表示状態とに切り換えるように構成することもできる。
Further, the in-vehicle image display device includes a driving state detecting means for detecting at least one of the speed, the traveling direction, and the braking state of the vehicle.
The display control means may be configured to switch the state of the display means between the window state and the display state based on the detection result of the operation state detection means.

この車載用画像表示装置によれば、運転手が意図しなくても、車両の運転状態に合わせて、表示手段の状態が切り換えられる。そして例えば、車両の速度が一定の速度以上となった時に、窓部の表示手段の状態が表示状態に切り換えられるとともに、その表示手段に周囲の画像が表示されるように構成することが考えられる。また、車両が停止した際に、窓部の表示手段の状態が通常の窓状態に切り換えられるように構成することが考えられる。 According to this in-vehicle image display device, the state of the display means can be switched according to the driving state of the vehicle even if the driver does not intend. Then, for example, when the speed of the vehicle exceeds a certain speed, the state of the display means of the window portion may be switched to the display state, and the display means may be configured to display the surrounding image. .. Further, it is conceivable to configure the display means of the window portion to be switched to the normal window state when the vehicle is stopped.

すなわち、例えば前述したように車両の速度が一定速度以上になると運転手が周囲の状況を把握しにくくなることが考えられるが、その時に窓部に周囲の画像が表示されて運転手が周囲の状況を把握できるようにすることができる。よって、運転手はより安全に車両を運転できるようになる。また、車両が停止した時に窓部の状態が通常の窓状態に切り換えられるようにすれば、搭乗者は本物の風景を十分に楽しむことができるようになる。 That is, for example, as described above, when the speed of the vehicle exceeds a certain speed, it may be difficult for the driver to grasp the surrounding situation, but at that time, an image of the surroundings is displayed on the window and the driver is in the surroundings. You can be able to grasp the situation. Therefore, the driver can drive the vehicle more safely. In addition, if the state of the window can be switched to the normal window state when the vehicle is stopped, the passenger can fully enjoy the real scenery.

また、車載用画像表示装置においては、前記表示制御手段は、車両がバックする際には、その車両における後方の周囲の画像を、前記表示手段に表示させることが好ましい。 Further, in an in-vehicle image display device, it is preferable that the display control means causes the display means to display an image of the surroundings behind the vehicle when the vehicle backs up.

この車載用画像表示装置によれば、運転手が車両をその後方にバックさせる際には、窓部に車両の後方の画像が表示されるため、運転手はより安全に車両を運転できるようになる。なお、車両の後方の画像を表示させる窓部としては、車両の前方の窓部でもよいし、後方の窓部でもよい。さらには、側面の窓部でもよい。また、全ての窓部に表示させるようにしてもよい。 According to this in-vehicle image display device, when the driver backs the vehicle to the rear, an image of the rear of the vehicle is displayed on the window, so that the driver can drive the vehicle more safely. Become. The window portion for displaying the image behind the vehicle may be the window portion in front of the vehicle or the window portion in the rear. Further, it may be a side window portion. Further, it may be displayed on all windows.

また、車載用画像表示装置においては、前記状況検出手段の検出結果に基づき、車両の周囲の音を出力する音出力手段を備えていることが好ましい。 Further, it is preferable that the in-vehicle image display device is provided with sound output means for outputting the sound around the vehicle based on the detection result of the situation detection means.

この車載用画像表示装置によれば、車両の周囲の画像に加えて音が音出力手段により出力されるので、よりリアルに車両の周囲の状況が再現され、運転手がより正確に車両の周囲の状況を把握できるようになる。 According to this in-vehicle image display device, sound is output by the sound output means in addition to the image of the surroundings of the vehicle, so that the situation around the vehicle can be reproduced more realistically and the driver can more accurately surround the vehicle. You will be able to grasp the situation of.

また、車載用画像表示装置においては、前記画像生成手段が生成した画像データを記憶する記憶手段を備えていることが好ましい。 Further, it is preferable that the in-vehicle image display device is provided with a storage means for storing the image data generated by the image generation means.

この車載用画像表示装置によれば、記憶手段に画像データが記憶されるため、運転後においてもその画像データを読み出し、その画像データが表す画像を見ることができるようになる。よって、搭乗者にとっては使い勝手がよい。 According to this in-vehicle image display device, since the image data is stored in the storage means, the image data can be read out even after the operation, and the image represented by the image data can be viewed. Therefore, it is convenient for passengers.

また、車載用画像表示装置においては、前記画像生成手段は、車両の周囲の通行人或いは他の車両が前記表示手段にて強調表示されるように画像データを生成することが好ましい。 Further, in an in-vehicle image display device, it is preferable that the image generation means generate image data so that a passerby or another vehicle around the vehicle is highlighted by the display means.

この車載用画像表示装置によれば、車両の周囲の通行人や他の車両等については、運転手が容易にそれらを認識できるようにその画像が生成されるため、運転手はその通行人や他の車両に対して注意を促されるようになる。すなわち、運転手の注意力を喚起できるよ
うになる。
According to this in-vehicle image display device, images of passersby and other vehicles around the vehicle are generated so that the driver can easily recognize them, so that the driver can easily recognize the passersby and other vehicles. You will be alerted to other vehicles. That is, the driver's attention can be aroused.

また、車載用画像表示装置においては、前記表示手段は、車両の内側と外側とにおける両面に情報を表示可能であり、
前記表示制御手段は、前記表示手段の外側の面には、前記画像生成手段が生成した画像データが表す画像とは異なる画像を表示させることが好ましい。
Further, in an in-vehicle image display device, the display means can display information on both the inside and the outside of the vehicle.
It is preferable that the display control means display an image different from the image represented by the image data generated by the image generation means on the outer surface of the display means.

この車載用画像表示装置によれば、表示手段の両面に画像を表示することができるため、例えば内側面には、前述したように周囲の画像を表示させ、外側面には他の車両の運転者や通行人へのメッセージ等を表示させるようにすることができる。このようにメッセージを表示させて周囲とのコミュニケーションを図ることで、ひいては交通の円滑化も図ることができる。なお、外側面に広告を表示するように構成することも考えられる。 According to this in-vehicle image display device, images can be displayed on both sides of the display means. Therefore, for example, the surrounding image is displayed on the inner surface as described above, and the driving of another vehicle is displayed on the outer surface. It is possible to display a message or the like to a person or a passerby. By displaying a message in this way and communicating with the surroundings, it is possible to facilitate traffic. It is also conceivable to configure the advertisement to be displayed on the outer surface.

また、車載用画像表示装置においては、記録媒体に記録された画像データを読み取る読取手段を備え、
前記表示制御手段は、前記読取手段が前記記録媒体から読み取った画像データが表す画像を、前記表示手段に表示させるように構成されることが好ましい。
Further, the in-vehicle image display device is provided with a reading means for reading the image data recorded on the recording medium.
It is preferable that the display control means is configured so that the display means displays an image represented by image data read from the recording medium by the reading means.

この車載用画像表示装置によれば、記録媒体に記録された画像データが表す画像も窓部に表示させることができるため、搭乗者にとって使いやすいものとなる。 According to this in-vehicle image display device, the image represented by the image data recorded on the recording medium can also be displayed on the window portion, which is easy for the passenger to use.

また、車載用画像表示装置においては、前記状況検出手段の検出結果に基づき、車両が他の車両との衝突を回避不能か否かを判定する衝突判定手段と、
前記衝突判定手段により、前記他の車両との衝突が回避不能と判定された場合に、前記状況検出手段の検出結果に基づき、前記他の車両以外の静止物のうち、衝突可能な静止物が有るか否かを判定する可能性判定手段と、
前記可能性判定手段により衝突可能な静止物が有ると判定されると、その静止物に衝突するように車両を制御する車両制御手段と、
を備えていることが好ましい。
Further, in the vehicle-mounted image display device, a collision determination means for determining whether or not a vehicle cannot avoid a collision with another vehicle based on the detection result of the situation detection means, and a collision determination means.
When the collision determination means determines that a collision with the other vehicle is unavoidable, the collision-possible stationary object among the stationary objects other than the other vehicle is based on the detection result of the situation detection means. Possibility judgment means to judge whether or not there is,
When it is determined by the possibility determination means that there is a stationary object capable of colliding, the vehicle control means for controlling the vehicle so as to collide with the stationary object and the vehicle control means.
It is preferable to have.

そして特に、車両制御手段は、車両のブレーキ、動力源(例えば、内燃機関やモータ等)の出力、及び舵角を制御することが考えられる。
このような車載用画像表示装置が備えられた車両においては、仮に周囲の他の車両との衝突が避けられないという状況となった場合に、その他の車両の他に衝突の可能性のある対象物が検索され、もしそのような対象物があった場合には、その対象物に衝突するように車両が制御される。すなわち、他の車両以外の対象物に衝突してでも、他の車両との衝突を回避して被害を抑えるようにされる。よって、この車載用画像表示装置によれば、衝突の被害を最小限に抑えることができるようになる。
In particular, the vehicle control means may control the vehicle brake, the output of a power source (for example, an internal combustion engine, a motor, etc.), and the steering angle.
In a vehicle equipped with such an in-vehicle image display device, if a collision with another vehicle in the vicinity is unavoidable, an object that may collide with the other vehicle. An object is searched, and if there is such an object, the vehicle is controlled to collide with the object. That is, even if the vehicle collides with an object other than the other vehicle, the collision with the other vehicle is avoided and the damage is suppressed. Therefore, according to this in-vehicle image display device, the damage caused by the collision can be minimized.

車載用画像表示装置が備えられた車両の外観を表す外観図である。It is an external view which shows the appearance of the vehicle provided with the in-vehicle image display device. 車載用画像表示装置の構成を表すブロック図である。It is a block diagram which shows the structure of an in-vehicle image display device. 車載用画像表示装置のCPUが実行する処理の流れを表すフローチャートである。It is a flowchart which shows the flow of the process executed by the CPU of the in-vehicle image display device. 車載用画像表示装置の描画プロセッサが実行する処理の流れを表すフローチャートである。It is a flowchart which shows the flow of the process executed by the drawing processor of an in-vehicle image display device. 車載用画像表示装置のCPUが実行する衝突軽減処理の流れを表すフローチャートである。It is a flowchart which shows the flow of the collision mitigation processing executed by the CPU of an in-vehicle image display device. 車両の窓部に画像が表示された状態を表す図である。It is a figure which shows the state which the image is displayed on the window part of a vehicle. 第2実施形態の車載用画像表示装置の構成を表すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image display device of 2nd Embodiment. 車両の窓部に画像が表示された状態を表す図である(第2実施形態)。It is a figure which shows the state which the image is displayed on the window part of a vehicle (second embodiment). 第3実施形態の車載用画像表示装置の構成を表すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image display device of 3rd Embodiment.

以下に、本発明の一実施形態を図面に基づき説明する。
[実施形態1]
図1は、本実施形態の車載用画像表示装置5(図2参照)が備えられた車両1の外観を表す外観図である。図1に示すように、車両1のボディーの外部における複数箇所に、車載用画像表示装置5のうち、車両1の周囲の状況を検出するための検出ユニット80が設けられている。この検出ユニット80により、車両1の周囲の状況として、周囲の景色や、周囲の人、他の車両(以下、他車両とも言う)、或いは障害物等の態様が検出される。また、図1には図示しないが、車載用画像表示装置5を構成する車載ユニット90(図2参照)が、検出ユニット80とは別に車両1内部に備えられている。そして、検出ユニット80の検出結果に基づいて、車載ユニット90により車両1の周囲の状況を表す画像が生成されるようになっている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[Embodiment 1]
FIG. 1 is an external view showing the appearance of the vehicle 1 provided with the in-vehicle image display device 5 (see FIG. 2) of the present embodiment. As shown in FIG. 1, detection units 80 for detecting the surrounding situation of the vehicle 1 among the vehicle-mounted image display devices 5 are provided at a plurality of locations outside the body of the vehicle 1. The detection unit 80 detects the surrounding scenery, surrounding people, other vehicles (hereinafter, also referred to as other vehicles), obstacles, and the like as the surrounding conditions of the vehicle 1. Further, although not shown in FIG. 1, an in-vehicle unit 90 (see FIG. 2) constituting the in-vehicle image display device 5 is provided inside the vehicle 1 separately from the detection unit 80. Then, based on the detection result of the detection unit 80, the vehicle-mounted unit 90 generates an image showing the surrounding situation of the vehicle 1.

そして特に、本実施形態においては、車両1の全ての窓部には、その窓部全体に画像を表示することのできる表示ガラスパネル40が設けられている。この表示ガラスパネル40は、液晶ディスプレイとして機能して画像が表示可能となる表示モードと、通常の窓のように透明な状態であって、窓を挟んだ対向側の景色が視認できる状態である通常モードとに切り換え可能に構成されている。そして、車載ユニット90により生成された車両1の周囲の画像は、表示ガラスパネル40に表示される。なお、車両1の周囲の画像は、車両1の内部から視認できるように、表示ガラスパネル40において車両1の内側に対応する面に表示されるようになっている。また、本実施形態では、車両1の外側に対応する面にも画像が表示可能なように構成されている。 In particular, in the present embodiment, all the windows of the vehicle 1 are provided with display glass panels 40 capable of displaying an image on the entire windows. The display glass panel 40 has a display mode in which an image can be displayed by functioning as a liquid crystal display, and a transparent state like a normal window in which the scenery on the opposite side across the window can be visually recognized. It is configured to be switchable to normal mode. Then, the image around the vehicle 1 generated by the vehicle-mounted unit 90 is displayed on the display glass panel 40. The image of the surroundings of the vehicle 1 is displayed on the surface of the display glass panel 40 corresponding to the inside of the vehicle 1 so that it can be visually recognized from the inside of the vehicle 1. Further, in the present embodiment, the image can be displayed on the surface corresponding to the outside of the vehicle 1.

次に、図2は、車載用画像表示装置5の構成を表すブロック図である。
この図2に示すように、本実施形態の車載用画像表示装置5は、前述した検出ユニット80、車載ユニット90、及び表示ガラスパネル40を含む入出力部95から構成されている。以下、各構成要素について詳述する。
Next, FIG. 2 is a block diagram showing the configuration of the in-vehicle image display device 5.
As shown in FIG. 2, the vehicle-mounted image display device 5 of the present embodiment includes the above-mentioned detection unit 80, the vehicle-mounted unit 90, and the input / output unit 95 including the display glass panel 40. Hereinafter, each component will be described in detail.

まず、車載ユニット90は、車両1の内部に搭載されるものであり、各種処理を実行するCPU30と、この車載ユニット90の起動時にCPU30が行う起動処理のプログラム(BIOS)等を記憶したROM32と、CPU30が各種処理を行う際に記憶領域として用いるRAM34と、情報を記憶させるハードディスク(以下、HDD)36と、CD−ROM/RAM,DVD−ROM/RAM等の記録媒体に記録された情報を読み取る読取装置37と、検出ユニット80から送信されるデータに基づいて、車両1の周囲の状況を表す画像データを生成する描画プロセッサ39と、描画プロセッサ39により生成された画像データが記憶されるフレームメモリ38と、検出ユニット80とデータを送受信するための入出力インタフェース(以下、I/O)20と、入出力部95とデータを送受信するためのI/O22と、を備えており、それらがバス50を介して相互に接続されている。 First, the vehicle-mounted unit 90 is mounted inside the vehicle 1, and includes a CPU 30 that executes various processes and a ROM 32 that stores a start processing program (BIOS) and the like performed by the CPU 30 when the vehicle-mounted unit 90 is started. , RAM 34 used as a storage area when the CPU 30 performs various processes, a hard disk (hereinafter, HDD) 36 for storing information, and information recorded on a recording medium such as a CD-ROM / RAM or a DVD-ROM / RAM. A reading device 37 to read, a drawing processor 39 that generates image data representing the surrounding situation of the vehicle 1 based on the data transmitted from the detection unit 80, and a frame in which the image data generated by the drawing processor 39 is stored. It includes a memory 38, an input / output interface (hereinafter, I / O) 20 for transmitting / receiving data to / from the detection unit 80, and an I / O 22 for transmitting / receiving data to / from the input / output unit 95. They are connected to each other via bus 50.

次に、検出ユニット80は、赤外線センサ10と、ミリ波レーダ12と、超音波センサ14と、マイクロフォン18とから構成されており、それぞれにおいて、後述する各種データが微小時間Δt毎に検出される。 Next, the detection unit 80 is composed of an infrared sensor 10, a millimeter wave radar 12, an ultrasonic sensor 14, and a microphone 18, in which various data described later are detected every minute time Δt. ..

検出ユニット80において、赤外線センサ10は、対象物から放射される赤外線を検出するものである。なお、赤外線はあらゆる物体から放射される。そして、この赤外線センサ10を用いて赤外線の放射源の範囲を特定することで、対象物のおおよその外形が分か
る。また、その放射されている赤外線の強弱(赤外線の強度は、対象物の温度、或いは熱伝導率等の物性値により異なる)から、その対象物のおおよその形状や素材等を推測することも可能である。そして、本実施形態においては、赤外線センサ10を構成する図示しないマイクロコンピュータにより、赤外線の強度から対象物の素材(例えば、金属であるかそうでないか)を予測する予測処理が実行される。なお、この予測処理は、赤外線センサにおいては従来より行われている処理であり、ここでは詳しい説明を省略する。そして、この予測結果を表すデータや、赤外線センサ10により検出された赤外線の放射源の範囲、及び赤外線の強度を表すデータは、車載ユニット90に送信される。
In the detection unit 80, the infrared sensor 10 detects infrared rays radiated from an object. Infrared rays are emitted from all objects. Then, by specifying the range of the infrared radiation source using the infrared sensor 10, the approximate outer shape of the object can be known. It is also possible to estimate the approximate shape and material of the object from the intensity of the emitted infrared rays (the intensity of infrared rays varies depending on the temperature of the object or physical property values such as thermal conductivity). Is. Then, in the present embodiment, a microcomputer (not shown) constituting the infrared sensor 10 executes a prediction process for predicting the material (for example, metal or not) of the object from the intensity of infrared rays. It should be noted that this prediction process is a process that has been conventionally performed in an infrared sensor, and detailed description thereof will be omitted here. Then, the data representing the prediction result, the range of the infrared radiation source detected by the infrared sensor 10, and the data representing the intensity of the infrared rays are transmitted to the in-vehicle unit 90.

ミリ波レーダ12は、ミリ波(周波数30〜300GHzの電波)を用いて、そのミリ波を照射する照射源(ここでは、車両1とする)と対象物との距離や、車両1と対象物との相対速度を検出するものである。すなわち、ミリ波を照射するとともに、その照射波が対象物に反射して返ってくるまでの時間から、対象物との距離を検出する。また、所定時間t毎(t<Δt)に対象物との距離を検出することで、対象物との相対速度も検出する。そして、このミリ波レーダ12により検出された対象物との距離、及び相対速度を表すデータは、車載ユニット90に送信される。 The millimeter wave radar 12 uses millimeter waves (radio waves having a frequency of 30 to 300 GHz) to irradiate the millimeter waves with the irradiation source (here, vehicle 1) and the distance between the object and the vehicle 1 and the object. It detects the relative speed with. That is, the millimeter wave is irradiated, and the distance to the object is detected from the time until the irradiation wave is reflected by the object and returned. Further, by detecting the distance to the object every predetermined time t (t <Δt), the relative speed to the object is also detected. Then, the data representing the distance to the object and the relative speed detected by the millimeter wave radar 12 is transmitted to the vehicle-mounted unit 90.

超音波センサ14は、超音波を周囲に照射するとともに、その照射した超音波の反射波から、対象物の位置、大きさ、形状、及び体積を計測するものである。なお、本実施形態においては、超音波センサ14として、3次元計測のできるものが用いられている。つまり、対象物の形状を3次元で表すことができるようになっている。そして、この超音波センサ14により計測された対象物の位置、外形、形状、及び体積を表すデータは、車載ユニット90に送信される。 The ultrasonic sensor 14 irradiates the surroundings with ultrasonic waves and measures the position, size, shape, and volume of the object from the reflected waves of the irradiated ultrasonic waves. In this embodiment, an ultrasonic sensor 14 capable of three-dimensional measurement is used. That is, the shape of the object can be represented in three dimensions. Then, the data representing the position, outer shape, shape, and volume of the object measured by the ultrasonic sensor 14 is transmitted to the vehicle-mounted unit 90.

マイクロフォン18は、車両1の周囲の音を検出する。例えば、人の話し声や動物の鳴き声、或いは他の車両の走行音等である。そして、その検出した音を表すデータは、車載ユニット90に送信される。 The microphone 18 detects the sound around the vehicle 1. For example, the voice of a person, the sound of an animal, or the running noise of another vehicle. Then, the data representing the detected sound is transmitted to the vehicle-mounted unit 90.

そして、検出ユニット80において検出され車載ユニット90に送信された各検出データは、車載ユニット90において、I/O20を介して受信されるとともにRAM34に格納される。そしてこの時、CPU30は、描画プロセッサ39に対して、検出データに基づいて画像データを生成するように指令する。すると、描画プロセッサ39は、RAM34から検出データを読み出して、その検出データに基づいて画像データを生成する。そして、その画像データにより表される画像は、表示ガラスパネル40に表示される。 Then, each detection data detected by the detection unit 80 and transmitted to the vehicle-mounted unit 90 is received by the vehicle-mounted unit 90 via the I / O 20 and stored in the RAM 34. At this time, the CPU 30 instructs the drawing processor 39 to generate image data based on the detected data. Then, the drawing processor 39 reads the detection data from the RAM 34 and generates image data based on the detection data. Then, the image represented by the image data is displayed on the display glass panel 40.

次に、入出力部95は、前述した表示ガラスパネル40と、音を出力するスピーカ42と、情報を入力するための操作部44と、から構成されている。
スピーカ42は、前述した検出データのうち、マイクロフォン18により検出された音を表すデータに基づいて、周囲の音をこのスピーカ42を介して出力するために設けられている。なお、車両1に通常設けられているオーディオ装置(図示せず)のスピーカを利用してもよい。
Next, the input / output unit 95 includes the display glass panel 40 described above, a speaker 42 that outputs sound, and an operation unit 44 for inputting information.
The speaker 42 is provided to output ambient sound through the speaker 42 based on the data representing the sound detected by the microphone 18 among the above-mentioned detection data. A speaker of an audio device (not shown) normally provided in the vehicle 1 may be used.

また、操作部44は、車両1の搭乗者が操作するものであり、搭乗者は、この操作部44を操作することで、表示ガラスパネル40のモードを、前述した表示モードと通常モードとに切り換えたりすることができる。なお、この切換は、窓部毎に行うことができる。 Further, the operation unit 44 is operated by the passenger of the vehicle 1, and the passenger operates the operation unit 44 to change the mode of the display glass panel 40 into the above-mentioned display mode and the normal mode. It can be switched. This switching can be performed for each window.

次に、車載ユニット90のCPU30が繰り返し実行する描画指令処理について、図3を用いて説明する。この処理は、描画プロセッサ39に画像データを生成させるために実行される処理である。 Next, the drawing command process repeatedly executed by the CPU 30 of the vehicle-mounted unit 90 will be described with reference to FIG. This process is a process executed to cause the drawing processor 39 to generate image data.

この描画指令処理では、まずS310にて、検出ユニット80から検出データを受信したか否かを判定する。受信したと判定すると、次にS320へ移行し、その受信した検出データをRAM34に記憶させる。また、この時、検出データに含まれる音のデータに基づいて、車両1の周囲の音をスピーカ42から出力させる。なお、検出データが表す対象物から発せられる音を予測して、その予測した音がスピーカ42から発せられるようにしてもよい。例えば、他の車両が検出された場合には、その他車両から発せられると予測されるエンジン音やクラクションの音を、スピーカ42から出力させてもよい。この場合、エンジン音やクラクションの音などの音を表す音データを、予めROM32やHDD36に記憶させておき、他の車両が検出された場合に、それらの音を表す音データをROM32或いはHDD36から読み出すようにすると良い。 In this drawing command processing, first, in S310, it is determined whether or not the detection data is received from the detection unit 80. When it is determined that the data has been received, the process proceeds to S320, and the received detection data is stored in the RAM 34. At this time, the sound around the vehicle 1 is output from the speaker 42 based on the sound data included in the detection data. The sound emitted from the object represented by the detection data may be predicted, and the predicted sound may be emitted from the speaker 42. For example, when another vehicle is detected, an engine sound or a horn sound predicted to be emitted from the other vehicle may be output from the speaker 42. In this case, sound data representing sounds such as engine sound and horn sound is stored in ROM 32 or HDD 36 in advance, and when another vehicle is detected, sound data representing those sounds is stored from ROM 32 or HDD 36. It is good to read it.

そして、次にS330へ移行し、描画プロセッサ39に、画像データを生成させる指令である描画指令を送信する。そして、再びS310へ戻る。
なお、S310にて検出データを受信していないと判定した場合も、再びS310の判定処理を繰り返すことになる。
Then, the process proceeds to S330, and a drawing command, which is a command for generating image data, is transmitted to the drawing processor 39. Then, it returns to S310 again.
Even if it is determined that the detection data has not been received in S310, the determination process of S310 is repeated again.

次に、描画プロセッサ39が繰り返し実行する描画処理について、図4を用いて説明する。
この描画処理においては、まずS410にて、描画指令をCPU30より受信したか否かを判定する。前述したように、描画指令は、この描画プロセッサ39に画像データを生成させるための指令であり、図2のS330の処理にてCPU30より送信される。S410にて描画指令を受信していないと判定すると、再びS410の処理を実行することになる。
Next, the drawing process repeatedly executed by the drawing processor 39 will be described with reference to FIG.
In this drawing process, first, in S410, it is determined whether or not a drawing command has been received from the CPU 30. As described above, the drawing command is a command for causing the drawing processor 39 to generate image data, and is transmitted from the CPU 30 in the process of S330 in FIG. If it is determined in S410 that the drawing command has not been received, the processing of S410 is executed again.

一方、S410にて描画指令を受信したと判定すると、次にS420へ移行し、RAM34から検出データを読み込む。この検出データは、検出ユニット80から送信され、S320の処理でRAM34に記憶されるものである。 On the other hand, if it is determined that the drawing command has been received in S410, the process proceeds to S420 and the detection data is read from the RAM 34. This detection data is transmitted from the detection unit 80 and stored in the RAM 34 in the process of S320.

そして、続くS430にて、S420でRAM34より読み出した検出データに基づいて、車両1の周囲の画像データを生成する。ここで、画像データを生成する方法について具体的に説明する。 Then, in the subsequent S430, image data around the vehicle 1 is generated based on the detection data read from the RAM 34 in S420. Here, a method for generating image data will be specifically described.

まず、前述したように、車載ユニット90には、ミリ波レーダ12から、車両1と対象物との距離(或いは対象物の位置)、及び相対速度を表す検出データが送信され、赤外線センサ10からは、対象物の外形、形状、及び素材を表す検出データが送信され、超音波センサ14からは、対象物の外形、形状、体積、及び位置を表す検出データが送信される。そして、それらの検出データはRAM34に記憶される。 First, as described above, the millimeter-wave radar 12 transmits detection data representing the distance (or the position of the object) between the vehicle 1 and the object and the relative velocity to the in-vehicle unit 90, and the infrared sensor 10 transmits the detection data. Is transmitted with detection data representing the outer shape, shape, and material of the object, and is transmitted from the ultrasonic sensor 14 with detection data representing the outer shape, shape, volume, and position of the object. Then, those detected data are stored in the RAM 34.

そして、描画プロセッサ39は、RAM34に記憶された前述したような検出データから、車両の周囲の画像データを生成するのであるが、その画像データを構成するデータのうち、対象物の外形及び形状を表すデータについては、赤外線センサ10及び超音波センサ14の両方から送信される検出データに基づいて生成する。すなわち、赤外線センサ10から送信される外形、或いは形状を表すデータと、超音波センサ14から送信される外形、或いは形状を表すデータとの平均をとり、その結果得られたデータを、対象物の外形、或いは形状を表すデータとする。また、対象物の位置のデータについても同様に、ミリ波レーダ12及び超音波センサ14の両方から送信される位置を表すデータの平均をとり、その結果得られたデータを、対象物の位置のデータとする。 Then, the drawing processor 39 generates image data around the vehicle from the detection data as described above stored in the RAM 34, and among the data constituting the image data, the outer shape and shape of the object are determined. The data to be represented is generated based on the detection data transmitted from both the infrared sensor 10 and the ultrasonic sensor 14. That is, the data representing the outer shape or shape transmitted from the infrared sensor 10 is averaged with the data representing the outer shape or shape transmitted from the ultrasonic sensor 14, and the data obtained as a result is used as the object. Data representing the outer shape or shape. Similarly, for the data on the position of the object, the data representing the position transmitted from both the millimeter wave radar 12 and the ultrasonic sensor 14 is averaged, and the data obtained as a result is used as the data on the position of the object. Let it be data.

ところで、例えば天候の影響など、外乱によって一方のセンサ(ここでは、赤外線センサ10、超音波センサ14、或いはミリ波レーダ)の検出精度が低下してしまうような場
合には、他方のセンサの検出データを採用する。なお、両方のセンサの検出精度が同時に低下する確率は小さくなっている。言い換えると、両方のセンサの検出精度が同時に低下するということは生じ難い。
By the way, when the detection accuracy of one sensor (here, the infrared sensor 10, the ultrasonic sensor 14, or the millimeter wave radar) is lowered due to disturbance such as the influence of the weather, the detection of the other sensor is performed. Adopt data. The probability that the detection accuracy of both sensors will decrease at the same time is small. In other words, it is unlikely that the detection accuracy of both sensors will decline at the same time.

そして、少なくとも、このようにして生成された対象物の外形、形状、及び位置のデータがあれば、そのデータに基づき、車両の周囲の状況が表される。
そして特に、本実施形態においては、描画プロセッサ39は、対象物の外形、及び形状のデータに加え、対象物の素材や体積のデータに基づいて、対象物が何であるかを予測する。例えば、対象物が人であるとか、木であるとか、或いは車両であるということを予測する。本実施形態では、ROM32には、対象物として例えば木や人、或いは車両について、その外形、形状、素材、体積、色彩等を表すデータが、複数種類(或いは複数タイプ)の木、人、車両について記憶されており、描画プロセッサ39は、自身が生成した対象物のデータと、ROM32に記憶された対象物のデータとにおいて、データの要素を対応させて比較するようになっている。すなわち、外形、形状、素材、及び体積のデータについてそれぞれ、自身が生成したデータとROM32に記憶されたデータとを比較する。そして、比較した結果、生成したそれぞれのデータが、ROM32に記憶された対応するデータの何れに近いか、すなわち、生成した対象物のデータがどのようなもの(人、木、或いは車両、又はそれらのタイプ)を表しているかを結論付ける。なお、木や人、車両等の対象物を表すデータは、データベースとしてHDD36に記憶させておいてもよい。
Then, at least, if there is data on the outer shape, shape, and position of the object generated in this way, the situation around the vehicle is represented based on the data.
In particular, in the present embodiment, the drawing processor 39 predicts what the object is based on the data of the material and volume of the object in addition to the data of the outer shape and shape of the object. For example, it predicts that the object is a person, a tree, or a vehicle. In the present embodiment, the ROM 32 contains data representing the outer shape, shape, material, volume, color, etc. of a tree, a person, or a vehicle as an object, for example, a tree, a person, or a vehicle of a plurality of types (or a plurality of types). The drawing processor 39 is adapted to compare the data of the object generated by itself with the data of the object stored in the ROM 32 in correspondence with each other. That is, the data generated by itself and the data stored in the ROM 32 are compared with respect to the outer shape, shape, material, and volume data, respectively. Then, as a result of comparison, which of the corresponding data stored in the ROM 32 is close to each of the generated data, that is, what kind of data of the generated object is (people, trees, vehicles, or them). Conclude that it represents the type of). Data representing an object such as a tree, a person, or a vehicle may be stored in the HDD 36 as a database.

このようにして対象物を予測することで、色彩が施された画像を生成することができる。例えば、生成したデータにより表される対象物が木であると結論付けた場合には、ROM32に記憶されている木についてのデータから色彩のデータを抽出し、その抽出した色彩のデータを生成した対象物のデータに付加することで、その対象物について、色彩を施した画像を表示させることができる。 By predicting the object in this way, it is possible to generate a colored image. For example, when it is concluded that the object represented by the generated data is a tree, the color data is extracted from the data about the tree stored in the ROM 32, and the extracted color data is generated. By adding to the data of the object, it is possible to display a colored image of the object.

なお、本実施形態においては、対象物が人や車両等などの移動体の場合には、その対象物の画像について、表示ガラスパネル40にて強調表示されて運転手がより認識しやすくなる色彩を施すようになっている。強調表示されて運転手が認識しやすくなる色としては、蛍光色や原色が考えられる。 In the present embodiment, when the object is a moving object such as a person or a vehicle, the image of the object is highlighted on the display glass panel 40 to make it easier for the driver to recognize. Is to be applied. Fluorescent colors and primary colors can be considered as the colors that are highlighted and easily recognized by the driver.

また、本実施形態においては、検出された対象物について、ミリ波レーダ12により検出される相対速度を表すデータに基づき、その対象物の所定時間後の外形(言い換えると、大きさ)及び位置についての予測のデータを生成することもできる。そして、対象物の画像を表示ガラスパネル40に表示させる際には、その予測のデータに基づく対象物の画像を表示させるようにすることもできる。 Further, in the present embodiment, regarding the detected object, the outer shape (in other words, the size) and the position of the detected object after a predetermined time are obtained based on the data representing the relative velocity detected by the millimeter wave radar 12. It is also possible to generate forecast data for. Then, when the image of the object is displayed on the display glass panel 40, the image of the object based on the prediction data can be displayed.

このように、検出ユニット80の検出データに基づき、車両1の周囲の状況について、いわゆるコンピュータグラフィック(CG)画像が生成される。
また、S430においては、前述したように画像データを生成するとともに、その画像データをフレームメモリ38に一時的に記憶させるようになっている。また、操作部44を介して車載ユニット90が所定の設定状態に設定されることにより、HDD36にも画像データが記憶される。
In this way, a so-called computer graphic (CG) image of the surrounding situation of the vehicle 1 is generated based on the detection data of the detection unit 80.
Further, in S430, the image data is generated as described above, and the image data is temporarily stored in the frame memory 38. Further, by setting the vehicle-mounted unit 90 to a predetermined setting state via the operation unit 44, the image data is also stored in the HDD 36.

HDD36に画像データを記憶させるように設定すれば、車両1の搭乗者は、そのHDD36に記憶された画像データを読み出して後から見ることもできるようになる。すなわち、例えばドライブ時の画像データを記憶させておくことにより、後からドライブ時の画像をみて楽しむことができる。また、走行経路が複雑で迷いやすいような目的地へいく時に周囲の画像を記憶しておけば、後から画像を見直して走行経路を確認することができる。そして、そのようにすれば次からはスムーズにその目的地に辿り着けるようになる。 If the HDD 36 is set to store the image data, the passenger of the vehicle 1 can read the image data stored in the HDD 36 and view it later. That is, for example, by storing the image data at the time of driving, the image at the time of driving can be viewed and enjoyed later. In addition, if the surrounding image is stored when going to a destination where the traveling route is complicated and it is easy to get lost, the image can be reviewed later and the traveling route can be confirmed. Then, if you do so, you will be able to reach the destination smoothly from the next time.

また、本実施形態においては、CD−ROM/RAM,DVD−ROM/RAM等の記録媒体に記録されたデータを読み取ることのできる読取装置37が設けられている。そして、この読取装置37により記録媒体に記録された画像データを読み出して、その画像データが表す画像を表示ガラスパネル40に表示できるようになっている。このため、地図データが記憶された記録媒体を利用して、表示ガラスパネル40に、周囲の画像とともに地図情報を表示できるようになる。よって、運転手にとって使い勝手がよい。また、映画やライブ映像が記録された記録媒体を利用して、その映画やライブ映像を表示ガラスパネル40に表示させることもできる。よって、搭乗者は、車両1において映画やライブ映像を楽しむことができる。 Further, in the present embodiment, a reading device 37 capable of reading data recorded on a recording medium such as a CD-ROM / RAM or a DVD-ROM / RAM is provided. Then, the image data recorded on the recording medium can be read by the reading device 37, and the image represented by the image data can be displayed on the display glass panel 40. Therefore, the map information can be displayed on the display glass panel 40 together with the surrounding image by using the recording medium in which the map data is stored. Therefore, it is easy for the driver to use. It is also possible to display the movie or live image on the display glass panel 40 by using a recording medium on which the movie or live image is recorded. Therefore, the passenger can enjoy a movie or a live image in the vehicle 1.

ところで、本実施形態においては、車両1の表示ガラスパネル40について、その状態を表示モードと通常モードとに切り換え可能になっており、さらに、その切り換えのモードとしては、自動で切り換えを行う自動モードと、操作部44からの入力に基づいて切り換えを行う手動モードとがある。なお、自動モード或いは手動モードの何れにするかは、操作部44を介して予め設定することができる。 By the way, in the present embodiment, the state of the display glass panel 40 of the vehicle 1 can be switched between the display mode and the normal mode, and further, the switching mode is an automatic mode for automatically switching. And there is a manual mode in which switching is performed based on the input from the operation unit 44. Whether to use the automatic mode or the manual mode can be set in advance via the operation unit 44.

そして、S430から続くS510では、切り換えのモードが自動モードであるか否かを判定する。自動モードであると判定すると、次にS520へ移行し、車両1は走行中であるか否かを判定する。具体的には、車両1に備えられた図示しない速度センサにより検出される検出結果に基づき、車両1の速度が0でないか否かを判定する。 Then, in S510 following from S430, it is determined whether or not the switching mode is the automatic mode. If it is determined that the vehicle is in the automatic mode, the next step is to move to S520, and it is determined whether or not the vehicle 1 is traveling. Specifically, it is determined whether or not the speed of the vehicle 1 is not 0 based on the detection result detected by a speed sensor (not shown) provided in the vehicle 1.

S520にて車両1が走行中であると判定すると、次にS530へ移行し、表示ガラスパネル40を表示モードに設定する。なお、本実施形態においては、車両1の全ての窓部の表示ガラスパネル40を表示モードに設定する。 When it is determined in S520 that the vehicle 1 is running, the process proceeds to S530 and the display glass panel 40 is set to the display mode. In this embodiment, the display glass panels 40 of all the windows of the vehicle 1 are set to the display mode.

そして、続くS540にて、表示ガラスパネル40に、S430にて生成した画像データが表す画像を表示させる(図6参照)。なお、図示はしないが、車両1が後方へバックしている場合には、車両1の後方の画像が前面の表示ガラスパネル40に表示される。なお、この時、車両1の後方の画像を車両1の後方の窓部(表示ガラスパネル40)に表示させるようにしてもよいし、側面の窓部に表示させるようにしてもよい。或いは、全ての窓部に表示させるようにしてもよい。 Then, in the subsequent S540, the display glass panel 40 displays the image represented by the image data generated in S430 (see FIG. 6). Although not shown, when the vehicle 1 is backed backward, an image of the rear of the vehicle 1 is displayed on the front display glass panel 40. At this time, the image behind the vehicle 1 may be displayed on the rear window portion (display glass panel 40) of the vehicle 1, or may be displayed on the side window portion. Alternatively, it may be displayed on all windows.

一方、S520にて走行中でないと判定すると、次にS550へ移行し、表示ガラスパネル40を通常モードに設定する。そして再び、S410へ戻る。
また、S510にて、切り換えのモードが自動モードでない、つまり手動モードであると判定すると、次にS560へ移行し、操作部44の入力に基づいて、表示モードへの切り換えがあるか否かを判定する。表示モードへの切り換えがあると判定すると、次にS530へ移行して、表示ガラスパネル40を表示モードに設定する。
On the other hand, if it is determined in S520 that the vehicle is not running, the process proceeds to S550 and the display glass panel 40 is set to the normal mode. Then, it returns to S410 again.
Further, if it is determined in S510 that the switching mode is not the automatic mode, that is, the manual mode, the mode is then shifted to S560, and whether or not there is a switching to the display mode based on the input of the operation unit 44 is determined. judge. When it is determined that there is a switch to the display mode, the process proceeds to S530 and the display glass panel 40 is set to the display mode.

一方、S560にて表示モードへの切り換えがないと判定すると、次にS570へ移行し、通常モードへの切り換えがあるか否かを判定する。
S570にて通常モードへの切り換えがあると判定すると、次にS550へ移行して、表示ガラスパネル40を通常モードに設定する。
On the other hand, if it is determined in S560 that there is no switch to the display mode, then the mode shifts to S570, and it is determined whether or not there is a switch to the normal mode.
When it is determined in S570 that there is a switch to the normal mode, the screen then shifts to S550 and the display glass panel 40 is set to the normal mode.

一方、S570にて通常モードへの切り換えがないと判定すると、次にS580へ移行し、現在のモードが表示モードであるか否かを判定する。表示モードであると判定すると、次にS540へ移行し、表示ガラスパネル40に画像を表示させる。 On the other hand, if it is determined in S570 that there is no switching to the normal mode, then the mode shifts to S580, and it is determined whether or not the current mode is the display mode. When it is determined that the display mode is set, the process proceeds to S540, and the display glass panel 40 displays the image.

一方、S580にて現在のモードが表示モードでない、つまり通常モードであると判定
すると、再びS410へ戻る。
なお、この描画処理において、車両が走行中か否か(S520)、つまり車両の速度に基づいて表示ガラスパネル40のモードが設定されるようになっているが、車両の進行方向や制動状態等を加味するようにしてもよい。例えば、車両1の側面の表示ガラスパネル40については、車両1が右へ旋回中の場合に、右側面の表示ガラスパネル40が表示モードに設定され、車両1が左へ旋回中の場合には、左側面の表示ガラスパネル40が表示モードに設定されるようにしてもよい。
On the other hand, if it is determined in S580 that the current mode is not the display mode, that is, the normal mode, the process returns to S410.
In this drawing process, the mode of the display glass panel 40 is set based on whether or not the vehicle is running (S520), that is, the speed of the vehicle, but the traveling direction of the vehicle, the braking state, etc. May be added. For example, regarding the display glass panel 40 on the side surface of the vehicle 1, when the vehicle 1 is turning to the right, the display glass panel 40 on the right side is set to the display mode, and when the vehicle 1 is turning to the left. , The display glass panel 40 on the left side may be set to the display mode.

また、前述したように、表示ガラスパネル40においては、その両面に画像を表示できるようになっている。そして、本実施形態においては、表示ガラスパネル40の外側の面には、例えば車両1に赤ちゃんが乗っていることを周囲に知らせるためのメッセージや、進路を譲ってもらった場合のお礼のメッセージ等が表示されるようになっている。このメッセージ等を表すデータは、ROM32に予め記憶されており、搭乗者により操作部44を介してメッセージの種類を表すメッセージ情報、及びメッセージを表示させる指令が入力されると、そのメッセージ情報に基づくメッセージが表示ガラスパネル40の外側の面に表示されるようになっている。なお、操作部44を介してメッセージの本文を入力できるようにしてもよい。 Further, as described above, the display glass panel 40 can display images on both sides thereof. Then, in the present embodiment, on the outer surface of the display glass panel 40, for example, a message for notifying the surroundings that the baby is on the vehicle 1, a message of gratitude when the course is given, etc. Is displayed. The data representing this message or the like is stored in the ROM 32 in advance, and when the passenger inputs the message information indicating the type of the message and the command for displaying the message via the operation unit 44, the data is based on the message information. The message is displayed on the outer surface of the display glass panel 40. The body of the message may be input via the operation unit 44.

このように他の車両の運転手等に対するメッセージを表示することで、互いにコミュニケーションが図られ、ひいては交通の円滑化も図ることができるため、事故の発生を防止できるようになる。なお、広告等を表示させるように構成することも考えられる。 By displaying a message to the driver or the like of another vehicle in this way, mutual communication can be achieved, and eventually traffic can be facilitated, so that the occurrence of an accident can be prevented. In addition, it is also conceivable to configure so as to display an advertisement or the like.

次に、図5は、CPU30において繰り返し実行される衝突軽減処理の流れを表すフローチャートである。
この衝突軽減処理においては、まずS610にて、車両1の状態が他の車両との衝突を避けられない状態であるか否かを判定する。具体的には、車両1に備えられた図示しない車載センサ(例えば速度センサ)により検出される車両1の速度、加速度や、検出ユニット80により検出される他の車両の位置、速度、或いは車両1との相対速度や、さらには、車両1の制動性能や旋回性能等の各種性能に基づき判定する。なお、車両1の性能を表す性能データは、ROM32に予め記憶されている。
Next, FIG. 5 is a flowchart showing the flow of collision mitigation processing that is repeatedly executed in the CPU 30.
In this collision mitigation process, first, in S610, it is determined whether or not the state of the vehicle 1 is a state in which a collision with another vehicle cannot be avoided. Specifically, the speed and acceleration of the vehicle 1 detected by an in-vehicle sensor (for example, a speed sensor) provided in the vehicle 1 and the position and speed of another vehicle detected by the detection unit 80, or the vehicle 1 Judgment is made based on the relative speed with the vehicle 1 and various performances such as braking performance and turning performance of the vehicle 1. Performance data representing the performance of the vehicle 1 is stored in the ROM 32 in advance.

そして、S610にて衝突を避けられない状態であると判定すると、次にS620へ移行する。一方、衝突が避けられると判定すると、そのまま当該処理を終了する。
S620では、衝突が避けられない状態である他車両の他に、衝突可能な対象物が周囲にあるか否かを判定する。そして、このS620の処理においては、衝突可能な対象物として、例えばガードレール等の静止物が対象にされる。
Then, when it is determined in S610 that the collision is inevitable, the process proceeds to S620. On the other hand, if it is determined that the collision can be avoided, the process is terminated as it is.
In S620, it is determined whether or not there is an object that can collide in the vicinity in addition to the other vehicle in which the collision is unavoidable. Then, in the processing of S620, a stationary object such as a guardrail is targeted as an object that can collide.

そして、衝突可能な静止物があると判定すると、次にS630へ移行する。一方、衝突可能な静止物がないと判定すると、そのまま当該処理を終了する。
S630では、衝突可能な静止物に衝突するように、車両1を制御する。具体的には、車両1のブレーキ及びスロットル開度(ひいては、エンジンの出力)を制御して車両1の速度を調整するとともに、舵角を制御して車両1の進行方向を調整する。そして、その静止物に車両1を衝突させるようにするのである。すなわち、この衝突軽減処理は、車両1を他の静止物に衝突させてでも、車両1と周囲の他の車両との衝突を回避させるべく実行される処理である。そして、このような処理により車両1と他の車両との衝突が回避されれば、仮に車両1が静止物と衝突したとしても、その被害は抑えられることになる。
Then, when it is determined that there is a stationary object capable of colliding, the process proceeds to S630. On the other hand, if it is determined that there is no stationary object that can collide, the process is terminated as it is.
In S630, the vehicle 1 is controlled so as to collide with a stationary object that can collide. Specifically, the brake and throttle opening degree (and thus the output of the engine) of the vehicle 1 are controlled to adjust the speed of the vehicle 1, and the steering angle is controlled to adjust the traveling direction of the vehicle 1. Then, the vehicle 1 is made to collide with the stationary object. That is, this collision mitigation process is a process executed so as to avoid a collision between the vehicle 1 and other vehicles in the vicinity even if the vehicle 1 collides with another stationary object. If the collision between the vehicle 1 and another vehicle is avoided by such a process, even if the vehicle 1 collides with a stationary object, the damage can be suppressed.

なお、本実施形態においては、検出ユニット80が状況検出手段に相当し、描画プロセッサ39が画像生成手段及び表示制御手段に相当し、表示ガラスパネル40が表示手段に相当し、CPU30が運転状態検出手段に相当し、スピーカ42が音出力手段に相当し、
HDD36が記憶手段に相当し、読取装置37が読取手段に相当し、S610の処理が衝突判定手段に相当し、S620の処理が可能性判定手段に相当し、S630の処理が車両制御手段に相当している。
In the present embodiment, the detection unit 80 corresponds to the situation detection means, the drawing processor 39 corresponds to the image generation means and the display control means, the display glass panel 40 corresponds to the display means, and the CPU 30 detects the operating state. Corresponding to the means, the speaker 42 corresponds to the sound output means,
The HDD 36 corresponds to the storage means, the reading device 37 corresponds to the reading means, the processing of S610 corresponds to the collision determination means, the processing of S620 corresponds to the possibility determination means, and the processing of S630 corresponds to the vehicle control means. are doing.

以上説明したように、本実施形態の車載用画像表示装置5においては、検出ユニット80により車両1の周囲の状況が検出され、その検出結果に基づいて、車載ユニット90の描画プロセッサ39により車両1の周囲の画像データが生成される(図4のS430)。そして、その生成された画像データが表す画像(コンピュータグラフィック画像)は、車両1の窓部に設けられた表示ガラスパネル40に表示される(図4のS540、及び図6参照)。よって、車両1の運転手は、窓部の表示ガラスパネル40に表示される画像を見ることで、車両1の周囲の状況を容易かつ確実に把握することができるため、運転手が、天候が悪化したり自身の視力が低下したりすることにより車両1の周囲の状況を正確に把握できなくなって危険回避が遅れ、事故を起こしてしまうということを防止することができる。 As described above, in the vehicle-mounted image display device 5 of the present embodiment, the situation around the vehicle 1 is detected by the detection unit 80, and the vehicle 1 is detected by the drawing processor 39 of the vehicle-mounted unit 90 based on the detection result. Image data around the environment is generated (S430 in FIG. 4). Then, the image (computer graphic image) represented by the generated image data is displayed on the display glass panel 40 provided in the window portion of the vehicle 1 (see S540 in FIG. 4 and FIG. 6). Therefore, the driver of the vehicle 1 can easily and surely grasp the surrounding situation of the vehicle 1 by looking at the image displayed on the display glass panel 40 of the window portion, so that the driver can easily and surely grasp the weather. It is possible to prevent the situation around the vehicle 1 from being unable to be accurately grasped due to deterioration or deterioration of one's own eyesight, delaying danger avoidance, and causing an accident.

また、本実施形態においては、車両1の窓部全てが表示ガラスパネル40として構成されている。つまり、車両1の窓部全てに周囲の画像を表示させることができる。よって、運転手は周囲の状況をより正確に把握できるようになり、前述したような理由から、事故が生じることをより確実に防止することができる。 Further, in the present embodiment, all the windows of the vehicle 1 are configured as the display glass panel 40. That is, the surrounding image can be displayed on all the windows of the vehicle 1. Therefore, the driver can grasp the surrounding situation more accurately, and can more surely prevent an accident from occurring for the reason described above.

また、本実施形態においては、表示ガラスパネル40の状態が、画像が表示可能な表示モードと、通常の窓のような状態である通常モードとに切り換えられるようになっている。そして、この切換は、車両1の運転状態により自動で行われる(自動モード)ようにすることもできるし、車両1の搭乗者の操作に基づいて行われる(手動モード)ようにすることもできる。自動モードにすれば、運転手が意図しなくても車両1の窓部に周囲の画像が表示されるようになり、運転手は周囲の状況を確実に把握できるようになる。また、手動モードにすれば、搭乗者は自由に本物の風景を楽しむことができるようになる。 Further, in the present embodiment, the state of the display glass panel 40 can be switched between a display mode in which an image can be displayed and a normal mode in which a state is like a normal window. Then, this switching can be automatically performed according to the driving state of the vehicle 1 (automatic mode), or can be performed based on the operation of the passenger of the vehicle 1 (manual mode). .. In the automatic mode, the surrounding image is displayed on the window of the vehicle 1 even if the driver does not intend to do so, and the driver can surely grasp the surrounding situation. In addition, the manual mode allows passengers to freely enjoy the real scenery.

また、本実施形態においては、車両1にスピーカが設けられており、検出ユニット80のマイクロフォン18にて検出された車両1の周囲の音が、そのスピーカ42から出力されるようになっている。よって、車両1の周囲の状況がよりリアルに再現されるようになるため、運転手はより正確に周囲の状況を把握できるようになる。
[実施形態2]
次に、第2実施形態の車載用画像表示装置5について、図7及び図8を用いて説明する。
Further, in the present embodiment, the vehicle 1 is provided with a speaker, and the sound around the vehicle 1 detected by the microphone 18 of the detection unit 80 is output from the speaker 42. Therefore, the surrounding situation of the vehicle 1 can be reproduced more realistically, so that the driver can grasp the surrounding situation more accurately.
[Embodiment 2]
Next, the vehicle-mounted image display device 5 of the second embodiment will be described with reference to FIGS. 7 and 8.

本第2実施形態の車載用画像表示装置5は、第1実施形態と比較して、車両1の窓部の表示ガラスパネル40は、スクリーンとして機能するスクリーン表示モードと、通常の窓のような通常モードとに切り換え可能に構成されている。このスクリーン表示モードにおいては、車両1の内部及び外部からの光を遮断させるようになっている。すなわち、表示ガラスパネル40が曇ったような状態となり、スクリーンとして機能するようになるのである。そして、スクリーン表示モード状態である表示ガラスパネル40には、プロジェクタ45(図7参照)により画像が投影されるようになっている。 In the vehicle-mounted image display device 5 of the second embodiment, as compared with the first embodiment, the display glass panel 40 of the window portion of the vehicle 1 has a screen display mode that functions as a screen and a normal window-like display. It is configured to be switchable to normal mode. In this screen display mode, the light from the inside and the outside of the vehicle 1 is blocked. That is, the display glass panel 40 becomes cloudy and functions as a screen. An image is projected onto the display glass panel 40 in the screen display mode by the projector 45 (see FIG. 7).

そして特に、本第2実施形態においては、スクリーン表示モードの表示ガラスパネル40の他、車両1のAピラー2の内側(図1及び図2参照)もスクリーンに見立てて画像を表示させる。このように、車両1の窓部及びAピラー2に周囲の画像を表示させると、あたかも車両1内部からの死角がなくなったかのようにできる(図8参照)。よって、運転手はより正確に車両1の周囲の状況を把握できるようになるため、事故の発生をより確実に防止できる。 In particular, in the second embodiment, in addition to the display glass panel 40 in the screen display mode, the inside of the A pillar 2 of the vehicle 1 (see FIGS. 1 and 2) is also displayed as if it were a screen. By displaying the surrounding image on the window portion of the vehicle 1 and the A pillar 2 in this way, it is possible to make it as if the blind spot from the inside of the vehicle 1 has disappeared (see FIG. 8). Therefore, since the driver can grasp the situation around the vehicle 1 more accurately, the occurrence of an accident can be prevented more reliably.

なお、本第2実施形態においては、プロジェクタ45及び表示ガラスパネル40が表示手段に相当している。
ところで、Aピラーだけでなく、Bピラー及びCピラー、つまり、車両1内部の全ての柱に、画像が投影されるようにしてもよい。また、第1実施形態において、各ピラー部分に液晶ディスプレイ等の表示パネルを設けるようにすれば、同様の効果が得られる。
[実施形態3]
次に、第3実施形態の車載用画像表示装置5について、図9を用いて説明する。
In the second embodiment, the projector 45 and the display glass panel 40 correspond to the display means.
By the way, the image may be projected not only on the A pillar but also on the B pillar and the C pillar, that is, all the pillars inside the vehicle 1. Further, in the first embodiment, if a display panel such as a liquid crystal display is provided on each pillar portion, the same effect can be obtained.
[Embodiment 3]
Next, the vehicle-mounted image display device 5 of the third embodiment will be described with reference to FIG.

本第3実施形態の車載用画像表示装置5は、第1実施形態と比較して、検出ユニット80のかわりにCCDカメラ16が使用されている点が異なっている。また、車載ユニット90において、I/O20の代わりにCCDカメラ16とデータをやり取りするためのCCDインタフェース(以下、CCDI/F)24が設けられている。 The in-vehicle image display device 5 of the third embodiment is different from the first embodiment in that a CCD camera 16 is used instead of the detection unit 80. Further, in the vehicle-mounted unit 90, a CCD interface (hereinafter referred to as CCDI / F) 24 for exchanging data with the CCD camera 16 is provided instead of the I / O 20.

そして、CCDカメラ16により撮像された画像を表す撮像データ(言い換えると、検出データ)は車載ユニット90に送信され、車載ユニット90のRAM34に記憶される。また、描画プロセッサ39は、図4のS430の処理において、RAM34に記憶された撮像データ(検出データ)に色彩のデータを付加して、コンピュータグラフィック画像を生成する。なお、CCDカメラ16により撮像された画像が、直接表示ガラスパネル40に表示されるようにしてもよい。 Then, the imaging data (in other words, the detection data) representing the image captured by the CCD camera 16 is transmitted to the vehicle-mounted unit 90 and stored in the RAM 34 of the vehicle-mounted unit 90. Further, the drawing processor 39 adds color data to the imaging data (detection data) stored in the RAM 34 in the process of S430 in FIG. 4 to generate a computer graphic image. The image captured by the CCD camera 16 may be directly displayed on the display glass panel 40.

本第3実施形態の車載用画像表示装置5によれば、CCDカメラ16により実際の周囲の状況が撮像されるため、周囲の状況を表すコンピュータグラフィック画像を生成することが容易となる。また、周囲の状況について、より正確にコンピュータグラフィック画像を生成できるため、その画像に基づいて、運転手はより正確に周囲の状況を把握できるようになる。したがって、事故の発生をより確実に防止できるようになる。 According to the vehicle-mounted image display device 5 of the third embodiment, since the actual surrounding situation is captured by the CCD camera 16, it becomes easy to generate a computer graphic image showing the surrounding situation. In addition, since a computer graphic image of the surrounding situation can be generated more accurately, the driver can grasp the surrounding situation more accurately based on the image. Therefore, the occurrence of an accident can be prevented more reliably.

なお、本第3実施形態においては、CCDカメラ16が状況検出手段に相当している。
以上、本発明の一実施形態について説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の技術範囲内において種々の形態を採ることができる。
In the third embodiment, the CCD camera 16 corresponds to the situation detecting means.
Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various forms can be adopted within the technical scope of the present invention.

例えば、本発明の車載用画像表示装置は、図1に示すような車両(自家用車等)に限らず、バスやタクシー、或いは鉄道車両に用いることもできる。
また、さらに、周囲の状況が音声で運転手に伝えられるようにしてもよい。この場合には、例えば、対象物が存在する場合にその対象物が何であるかという情報や、対象物の大きさ、距離等の情報、或いは対象物との衝突の危険性に関する情報を、音声にて運転手に伝えるように構成することが考えられる。
For example, the in-vehicle image display device of the present invention can be used not only for vehicles (private vehicles and the like) as shown in FIG. 1, but also for buses, taxis, and railway vehicles.
Further, the surrounding situation may be conveyed to the driver by voice. In this case, for example, when an object exists, information about what the object is, information such as the size and distance of the object, or information on the risk of collision with the object is voiced. It is conceivable to configure it to tell the driver at.

また、第1実施形態或いは第2実施形態において、検出ユニット80にCCDカメラを組み込むようにしてもよい。そして、この場合には、例えば昼の明るい時間帯には、CCDカメラの撮像データを利用してコンピュータグラフィック画像を生成するようにし、夜の暗い時間帯や天候が悪い時などには、CCDカメラ以外のセンサの検出データを利用するようにするとよい。 Further, in the first embodiment or the second embodiment, the CCD camera may be incorporated in the detection unit 80. Then, in this case, for example, a computer graphic image is generated using the image data of the CCD camera in the bright time zone of the day, and the CCD camera is used in the dark time zone of the night or when the weather is bad. It is advisable to use the detection data of sensors other than the above.

1…車両、2…フレーム部、5…車載用画像表示装置、10…赤外線センサ、12…ミリ波レーダ、14…超音波センサ、16…CCDカメラ、18…マイクロフォン、20,22…I/O、24…CCDI/F、30…CPU、32…ROM、34…RAM、36…HDD、37…読取装置、38…フレームメモリ、39…描画プロセッサ、40…表示ガラスパネル、42…スピーカ、44…操作部、45…プロジェクタ、50…バス、80…
検出ユニット、90…車載ユニット、95…入出力部。
1 ... Vehicle, 2 ... Frame, 5 ... In-vehicle image display device, 10 ... Infrared sensor, 12 ... Millimeter wave radar, 14 ... Ultrasonic sensor, 16 ... CCD camera, 18 ... Microphone, 20, 22 ... I / O , 24 ... CCDI / F, 30 ... CPU, 32 ... ROM, 34 ... RAM, 36 ... HDD, 37 ... reader, 38 ... frame memory, 39 ... drawing processor, 40 ... display glass panel, 42 ... speaker, 44 ... Operation unit, 45 ... Projector, 50 ... Bus, 80 ...
Detection unit, 90 ... In-vehicle unit, 95 ... Input / output unit.

Claims (3)

車両に用いられる車載用画像表示装置であって、
前記車両の窓部を少なくとも含む車室内の面である内側面に画像を表示可能に構成された表示手段と、
前記車両の周囲の状況を検出する検出状況手段による検出結果、あるいは画像情報が予め記録されている記録媒体から読み出された画像情報の少なくとも何れかに基づいて、前記表示手段に表示させるための画像データを生成するように構成された画像生成手段と、
前記画像生成手段により生成された画像データが表す画像を、前記表示手段に表示させるように構成された表示制御手段と、
を備える車載用画像表示装置。
An in-vehicle image display device used in a vehicle.
A display means configured to be able to display an image on an inner surface which is a surface of the vehicle interior including at least a window portion of the vehicle.
To display the image information on the display means based on at least one of the detection result by the detection status means for detecting the surrounding situation of the vehicle or the image information read from the recording medium in which the image information is recorded in advance. An image generating means configured to generate image data and
A display control means configured to display the image represented by the image data generated by the image generation means on the display means, and a display control means.
An in-vehicle image display device including.
前記表示手段は、複数の窓部と、前記複数の窓部の間に設けられているピラーとを少なくとも含む範囲である内側面に画像を表示可能に構成されている、
請求項1に記載の車載用画像表示装置。
The display means is configured to be able to display an image on an inner surface which is a range including at least a plurality of windows and pillars provided between the plurality of windows.
The vehicle-mounted image display device according to claim 1.
前記車両の速度、進行方向、あるいは制動状態の少なくとも何れかを検出するように構成された運転状態検出手段を更に備え、
前記窓部の表示手段は、当該窓を挟んで車両の内部及び外部の景色が視認可能となる窓状態と、車両の内部及び外部からの光を遮断すると共に、前記表示制御手段により画像が表示される表示状態とに切り換え可能に構成されており、
前記表示制御手段は、前記運転状態検出手段による検出結果に応じて、前記表示手段の状態を前記窓状態と前記表示状態との何れかに切り換えるように構成されている、
請求項1又は請求項2に記載の車載用画像表示装置。
Further comprising a driving state detecting means configured to detect at least one of the speed, direction of travel, or braking state of the vehicle.
The display means of the window portion blocks the window state in which the scenery inside and outside the vehicle can be visually recognized across the window, blocks the light from the inside and outside of the vehicle, and displays an image by the display control means. It is configured to be switchable to the display state that is displayed.
The display control means is configured to switch the state of the display means between the window state and the display state according to the detection result by the operation state detection means.
The vehicle-mounted image display device according to claim 1 or 2.
JP2020071253A 2020-04-10 2020-04-10 Collision mitigation device and vehicle Active JP7236656B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020071253A JP7236656B2 (en) 2020-04-10 2020-04-10 Collision mitigation device and vehicle
JP2021178818A JP7308465B2 (en) 2020-04-10 2021-11-01 In-vehicle image display device and vehicle
JP2022045123A JP2022075859A (en) 2020-04-10 2022-03-22 Vehicle control device and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020071253A JP7236656B2 (en) 2020-04-10 2020-04-10 Collision mitigation device and vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018138583A Division JP2018198071A (en) 2018-07-24 2018-07-24 On-vehicle image display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021178818A Division JP7308465B2 (en) 2020-04-10 2021-11-01 In-vehicle image display device and vehicle

Publications (2)

Publication Number Publication Date
JP2020144877A true JP2020144877A (en) 2020-09-10
JP7236656B2 JP7236656B2 (en) 2023-03-10

Family

ID=72353680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020071253A Active JP7236656B2 (en) 2020-04-10 2020-04-10 Collision mitigation device and vehicle

Country Status (1)

Country Link
JP (1) JP7236656B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0660300A (en) * 1992-08-04 1994-03-04 Takata Kk Collision prevention and prediction system by neural network
JPH11227624A (en) * 1998-02-16 1999-08-24 Toyota Central Res & Dev Lab Inc Emergency steering device for vehicle
US20040193374A1 (en) * 2003-03-28 2004-09-30 Hac Aleksander B. Collision avoidance with active steering and braking
JP2005178622A (en) * 2003-12-19 2005-07-07 Denso Corp Safety controller of vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0660300A (en) * 1992-08-04 1994-03-04 Takata Kk Collision prevention and prediction system by neural network
JPH11227624A (en) * 1998-02-16 1999-08-24 Toyota Central Res & Dev Lab Inc Emergency steering device for vehicle
US20040193374A1 (en) * 2003-03-28 2004-09-30 Hac Aleksander B. Collision avoidance with active steering and braking
JP2005178622A (en) * 2003-12-19 2005-07-07 Denso Corp Safety controller of vehicle

Also Published As

Publication number Publication date
JP7236656B2 (en) 2023-03-10

Similar Documents

Publication Publication Date Title
JP4933658B2 (en) In-vehicle image display device
JP2007052719A5 (en)
CN105989749B (en) System and method for prioritizing driver alerts
JP2018198071A (en) On-vehicle image display device
US20210362597A1 (en) Vehicle control device and vehicle including the same
US11285966B2 (en) Method and system for controlling an autonomous vehicle response to a fault condition
EP3836119A1 (en) Information processing device, mobile body, information processing method, and program
JP2017076431A (en) Vehicle control device
JP2009151566A (en) Display device for vehicle
JP6372556B2 (en) In-vehicle image display device
JP2014078271A (en) On-vehicle image display device
CN112455450A (en) Vehicle rear-end collision early warning method, device, storage medium and device
JP2016064829A (en) Vehicle control device
JP7236656B2 (en) Collision mitigation device and vehicle
JP7308465B2 (en) In-vehicle image display device and vehicle
JP6105513B2 (en) Vehicle control device and in-vehicle image display device
WO2023166982A1 (en) Information processing device, information processing method, and mobile object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210907

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211101

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220426

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220712

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221122

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230124

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230124

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230208

R150 Certificate of patent or registration of utility model

Ref document number: 7236656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350