JP2022075859A - Vehicle control device and vehicle - Google Patents

Vehicle control device and vehicle Download PDF

Info

Publication number
JP2022075859A
JP2022075859A JP2022045123A JP2022045123A JP2022075859A JP 2022075859 A JP2022075859 A JP 2022075859A JP 2022045123 A JP2022045123 A JP 2022045123A JP 2022045123 A JP2022045123 A JP 2022045123A JP 2022075859 A JP2022075859 A JP 2022075859A
Authority
JP
Japan
Prior art keywords
vehicle
image
display
data
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022045123A
Other languages
Japanese (ja)
Inventor
薫 木戸
Kaoru Kido
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADC Technology Inc
Original Assignee
ADC Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020071253A external-priority patent/JP7236656B2/en
Application filed by ADC Technology Inc filed Critical ADC Technology Inc
Priority to JP2022045123A priority Critical patent/JP2022075859A/en
Publication of JP2022075859A publication Critical patent/JP2022075859A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To correctly reproduce a surrounding situation of a vehicle by an image for display on an inner side surface of a cabin, thereby enabling a driver to safely drive the vehicle.
SOLUTION: In an on-vehicle image display device 5 provided for a vehicle, a detection unit 80 detects, as a surrounding situation of the vehicle, a surrounding landscape, a surrounding person or vehicle, or a mode of a target such as an obstacle. Then, detection data representing a detection result is transmitted to an on-vehicle unit 90. In the on-vehicle unit 90, a drawing processor 39 generates an image representing the surrounding situation of the vehicle based on the detection data. Then, the image representing the surrounding situation of the vehicle is displayed on a display glass panel 40, that is, an inner side surface such as a window or a pillar of the vehicle.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、バス、タクシー、或いは自家用車等の車両の窓部を含む車室内に画像を表示する車載用画像表示装置に関する。 The present invention relates to an in-vehicle image display device that displays an image in a vehicle interior including a window portion of a vehicle such as a bus, a taxi, or a private car.

従来より、車両同士の事故や車両と通行人との事故等、車両に関係した事故が起こる原因として、例えば、天候(雨や雪など)により視界が悪化したり、或いは目の疲労等で運転手の視力が一時的に低下したりすることにより、運転手が、車両の周囲の通行人、他の車両、或いは障害物等を見落としてしまうことや、見間違えてしまうというようなことが考えられる。すなわち、運転手が車両の周囲の状況を正確に把握できず、危険回避が遅れて事故につながってしまうのである。逆に言うと、運転手が車両の周囲の状況を正確に把握できれば、事故の発生が防止される。 Conventionally, as the cause of vehicle-related accidents such as accidents between vehicles and accidents between vehicles and passersby, for example, visibility deteriorates due to weather (rain, snow, etc.), or driving due to eye fatigue, etc. It is conceivable that the driver may overlook passersby, other vehicles, obstacles, etc. around the vehicle or make a mistake due to the temporary deterioration of the eyesight of the hand. Be done. That is, the driver cannot accurately grasp the situation around the vehicle, which delays the avoidance of danger and leads to an accident. Conversely, if the driver can accurately grasp the situation around the vehicle, the occurrence of an accident can be prevented.

ところで、従来より、車両の窓ガラスに、外の状況や風景を映写することのできる画像表示装置が知られている(例えば、特許文献1参照)。
この特許文献1に記載の画像表示装置は、車両の状態(位置や速度等)を観測する観測装置と、外の風景の画像情報を予め蓄積しておく蓄積装置とを備えており、観測装置により観測された車両の位置を表す情報に基づき、その観測された位置において車両の外に見えるであろう風景の画像情報を蓄積装置より取得し、その画像情報が表す画像を、窓ガラスに表示させる。なお、地名や河川名、山岳名等の地図情報を表示させることもできる。また、車両の速度情報に基づいて、速度に合わせて表示させる画像を順次切り換えることもできる。このように、車両の周囲の風景画像を車両の窓ガラスに表示させることのできるものがある。
By the way, conventionally, an image display device capable of projecting an outside situation or a landscape on a window glass of a vehicle has been known (see, for example, Patent Document 1).
The image display device described in Patent Document 1 includes an observation device for observing the state (position, speed, etc.) of the vehicle, and an observation device for accumulating image information of the outside landscape in advance. Based on the information indicating the position of the vehicle observed by, the image information of the scenery that will be visible outside the vehicle at the observed position is acquired from the storage device, and the image represented by the image information is displayed on the window glass. Let me. It is also possible to display map information such as place names, river names, and mountain names. Further, based on the speed information of the vehicle, the images to be displayed can be sequentially switched according to the speed. In this way, there is a device that can display a landscape image around the vehicle on the window glass of the vehicle.

特開2004-20223号公報Japanese Unexamined Patent Publication No. 2004-20223

ところで、上述したような従来の画像表示装置においては、蓄積装置に予め蓄積された風景画像が車両の窓ガラスに表示されるのであり、走行中現在の車両の外の風景画像は表示させることができない。そして、前述したように、天候により視界が悪化したり、或いは運転手の視力が一時的に低下したりすると、運転手は周囲の状況を正確に把握できなくなり、運転の危険度、言い換えると、事故が生じる確率が増大する。よって、事故を防止するためには、走行中における車両の周囲の画像を、リアルタイムに表示させることが必要である。 By the way, in the conventional image display device as described above, the landscape image stored in advance in the storage device is displayed on the window glass of the vehicle, and the landscape image outside the current vehicle while traveling can be displayed. Can not. And, as mentioned above, if the visibility deteriorates due to the weather or the driver's eyesight temporarily deteriorates, the driver cannot accurately grasp the surrounding situation, and the degree of danger of driving, in other words, The probability of an accident increases. Therefore, in order to prevent accidents, it is necessary to display an image of the surroundings of the vehicle while driving in real time.

本発明は、こうした問題に鑑みなされたもので、車両の周囲の状況を画像で正確に再現して車両の窓部に表示することで、運転手が安全に車両を運転できるようにすることを目的とする。 The present invention has been made in view of these problems, and it is intended that the driver can safely drive the vehicle by accurately reproducing the situation around the vehicle with an image and displaying it on the window of the vehicle. The purpose.

本開示の一態様に係る車載用画像表示装置は、車両に用いられ、表示手段と、画像生成手段と、表示制御手段とを備える。表示手段は、車両の窓部を少なくとも含む車室内の面である内側面に画像を表示可能に構成されている。画像生成手段は、車両の周囲の状況を検出する検出状況手段による検出結果、あるいは画像情報が予め記録されている記録媒体
から読み出された画像情報の少なくとも何れかに基づいて、表示手段に表示させるための画像データを生成するように構成されている。表示制御手段は、画像生成手段により生成された画像データが表す画像を、表示手段に表示させるように構成されている。
The vehicle-mounted image display device according to one aspect of the present disclosure is used in a vehicle and includes a display means, an image generation means, and a display control means. The display means is configured to be able to display an image on the inner surface, which is a surface of the vehicle interior including at least the window portion of the vehicle. The image generation means displays on the display means based on at least one of the detection result by the detection status means for detecting the situation around the vehicle or the image information read from the recording medium in which the image information is recorded in advance. It is configured to generate image data for this purpose. The display control means is configured to cause the display means to display an image represented by the image data generated by the image generation means.

本開示の車載用画像表示装置において、更に次のように構成されていてもよい。すなわち、表示手段は、複数の窓部と、複数の窓部の間に設けられているピラーとを少なくとも含む範囲である内側面に画像を表示可能に構成されている。 The vehicle-mounted image display device of the present disclosure may be further configured as follows. That is, the display means is configured to be able to display an image on the inner surface, which is a range including at least a plurality of windows and pillars provided between the plurality of windows.

本開示の車載用画像表示装置によれば、車両の周囲の状況を表す画像が表示手段に表示されるため、運転手が車両の周囲の状況を確実に把握できるようになる。すなわち、状況検出手段の検出結果に基づいて、例えば移動物を強調表示するなど、運転手が見やすい画像を表示するように構成することができるため、運転手は、画像の内容、つまり周囲の状況を容易に認識できる。また、車両の遠方の状況であっても、その状況を表す画像が表示されることになるため、運転手にとって見やすいものとなり、その遠方の状況も容易に把握できるようになる。このように、運転手は車両の周囲の状況を確実に把握できるようになり、危険回避が遅れて事故が発生するということを確実に防止できるようになる。なお、少なくとも周囲に存在する物体が状況検出手段により検出されるように構成できる。 According to the in-vehicle image display device of the present disclosure, an image showing the situation around the vehicle is displayed on the display means, so that the driver can surely grasp the situation around the vehicle. That is, the driver can be configured to display an image that is easy for the driver to see, such as highlighting a moving object, based on the detection result of the situation detecting means, so that the driver can see the content of the image, that is, the surrounding situation. Can be easily recognized. Further, even if the situation is far away from the vehicle, an image showing the situation is displayed, which makes it easy for the driver to see and easily grasps the situation far away. In this way, the driver can surely grasp the situation around the vehicle, and can surely prevent the danger avoidance from being delayed and the accident from occurring. It should be noted that at least the surrounding objects can be configured to be detected by the situation detecting means.

また、この車載用画像表示装置においては、前記表示手段は、車両の内部及び外部からの光を透過させることにより、当該表示手段を挟んで車両の内部及び外部の景色が視認可能となる窓状態と、車両の内部及び外部からの光を遮断するとともに、前記表示制御手段により画像が表示されるようになる表示状態と、に切り換え可能に構成され、前記表示制御手段は、前記表示手段の状態を前記表示状態に切り換えた後、前記画像生成手段が生成した画像データが表す画像をその表示手段に表示させてもよい。 Further, in this in-vehicle image display device, the display means transmits light from the inside and outside of the vehicle, so that the inside and outside scenery of the vehicle can be visually recognized across the display means. The display control means is configured to be switchable between a display state in which light from the inside and the outside of the vehicle is blocked and an image is displayed by the display control means, and the display control means is a state of the display means. After switching to the display state, the display means may display the image represented by the image data generated by the image generation means.

この車載用画像表示装置においては、表示手段は、通常の窓のように対向側の景色が視認できるような窓状態と、画像が表示される表示状態とに切り換えられる。 In this in-vehicle image display device, the display means is switched between a window state in which the scenery on the opposite side can be visually recognized like a normal window and a display state in which an image is displayed.

この車載用画像表示装置によれば、車両の周囲の画像を表示させる時のみ、表示手段を表示状態に切り換え、また、画像を表示しない時には、通常の窓のような窓状態に切り換えるように構成することができる。したがって、運転手、或いは搭乗者にとって使いやすいものとなる。 According to this in-vehicle image display device, the display means is switched to the display state only when displaying an image around the vehicle, and when the image is not displayed, the display means is switched to a window state like a normal window. can do. Therefore, it is easy for the driver or the passenger to use.

車載用画像表示装置においては、車両の前方、側面及び後方の窓部に表示手段が設けられることが考えられる。そして特に、表示手段の状態が切り換えられる場合は、各窓部において、表示手段の状態を前記窓状態と前記表示状態とに切り換え可能に構成されることが好ましい。 In an in-vehicle image display device, it is conceivable that display means are provided on the front, side, and rear windows of the vehicle. In particular, when the state of the display means can be switched, it is preferable that the state of the display means can be switched between the window state and the display state in each window portion.

この車載用画像表示装置によれば、車両の全ての窓部に情報を表示させることができる。よって、車両の全ての窓部に車両の周囲の状況を表す画像を表示させることができるため、前述したような理由により、運転手はより安全に車両を運転できるようになる。しかも、その各窓部の表示手段は、通常の窓のような窓状態と、画像が表示される表示状態とに切り換え可能になっている。よって、例えば搭乗者が本物の風景を楽しめるように窓部毎に表示手段の状態を通常の窓状態に切り換えることもでき、本物の風景を楽しみたいという搭乗者のニーズにも応えることができる。 According to this in-vehicle image display device, information can be displayed on all windows of the vehicle. Therefore, since an image showing the situation around the vehicle can be displayed on all the windows of the vehicle, the driver can drive the vehicle more safely for the reason described above. Moreover, the display means of each window portion can be switched between a window state like a normal window and a display state in which an image is displayed. Therefore, for example, the state of the display means can be switched to the normal window state for each window so that the passenger can enjoy the real scenery, and it is possible to meet the needs of the passenger who wants to enjoy the real scenery.

また、車載用画像表示装置においては、前記表示制御手段は、車両の搭乗者の入力に基づき、前記表示手段の状態を前記窓状態と前記表示状態とに切り換えることが好ましい。 Further, in the vehicle-mounted image display device, it is preferable that the display control means switches the state of the display means between the window state and the display state based on the input of the passenger of the vehicle.

この車載用画像表示装置によれば、搭乗者は、車両の窓部の表示手段の状態を自由に表
示状態と窓状態とに切り換ることができるため、搭乗者にとって使い勝手が良い。
According to this in-vehicle image display device, the passenger can freely switch the state of the display means of the window portion of the vehicle between the display state and the window state, which is convenient for the passenger.

また、車載用画像表示装置は、車両の速度、進行方向、或いは制動状態の少なくとも何れかを検出する運転状態検出手段を備え、
前記表示制御手段は、前記運転状態検出手段の検出結果に基づき、前記表示手段の状態を前記窓状態と前記表示状態とに切り換えるように構成することもできる。
Further, the vehicle-mounted image display device includes a driving state detecting means for detecting at least one of the speed, the traveling direction, and the braking state of the vehicle.
The display control means may be configured to switch the state of the display means between the window state and the display state based on the detection result of the operation state detection means.

この車載用画像表示装置によれば、運転手が意図しなくても、車両の運転状態に合わせて、表示手段の状態が切り換えられる。そして例えば、車両の速度が一定の速度以上となった時に、窓部の表示手段の状態が表示状態に切り換えられるとともに、その表示手段に周囲の画像が表示されるように構成することが考えられる。また、車両が停止した際に、窓部の表示手段の状態が通常の窓状態に切り換えられるように構成することが考えられる。 According to this in-vehicle image display device, the state of the display means can be switched according to the driving state of the vehicle even if the driver does not intend. Then, for example, when the speed of the vehicle becomes higher than a certain speed, the state of the display means of the window portion may be switched to the display state, and the display means may be configured to display the surrounding image. .. Further, it is conceivable to configure the display means of the window portion to be switched to the normal window state when the vehicle is stopped.

すなわち、例えば前述したように車両の速度が一定速度以上になると運転手が周囲の状況を把握しにくくなることが考えられるが、その時に窓部に周囲の画像が表示されて運転手が周囲の状況を把握できるようにすることができる。よって、運転手はより安全に車両を運転できるようになる。また、車両が停止した時に窓部の状態が通常の窓状態に切り換えられるようにすれば、搭乗者は本物の風景を十分に楽しむことができるようになる。 That is, for example, as described above, when the speed of the vehicle exceeds a certain speed, it may be difficult for the driver to grasp the surrounding situation, but at that time, an image of the surroundings is displayed on the window and the driver is in the surroundings. You can be able to grasp the situation. Therefore, the driver can drive the vehicle more safely. In addition, if the window state can be switched to the normal window state when the vehicle stops, the passenger can fully enjoy the real scenery.

また、車載用画像表示装置においては、前記表示制御手段は、車両がバックする際には、その車両における後方の周囲の画像を、前記表示手段に表示させることが好ましい。 Further, in the vehicle-mounted image display device, it is preferable that the display control means causes the display means to display an image of the surroundings behind the vehicle when the vehicle backs up.

この車載用画像表示装置によれば、運転手が車両をその後方にバックさせる際には、窓部に車両の後方の画像が表示されるため、運転手はより安全に車両を運転できるようになる。なお、車両の後方の画像を表示させる窓部としては、車両の前方の窓部でもよいし、後方の窓部でもよい。さらには、側面の窓部でもよい。また、全ての窓部に表示させるようにしてもよい。 According to this in-vehicle image display device, when the driver backs the vehicle to the rear, an image of the rear of the vehicle is displayed on the window, so that the driver can drive the vehicle more safely. Become. The window portion for displaying the image behind the vehicle may be the window portion in front of the vehicle or the window portion in the rear. Further, it may be a side window portion. Further, it may be displayed on all windows.

また、車載用画像表示装置においては、前記状況検出手段の検出結果に基づき、車両の周囲の音を出力する音出力手段を備えていることが好ましい。 Further, it is preferable that the in-vehicle image display device is provided with a sound output means for outputting the sound around the vehicle based on the detection result of the situation detection means.

この車載用画像表示装置によれば、車両の周囲の画像に加えて音が音出力手段により出力されるので、よりリアルに車両の周囲の状況が再現され、運転手がより正確に車両の周囲の状況を把握できるようになる。 According to this in-vehicle image display device, sound is output by the sound output means in addition to the image of the surroundings of the vehicle, so that the situation around the vehicle can be reproduced more realistically and the driver can more accurately surround the vehicle. You will be able to grasp the situation of.

また、車載用画像表示装置においては、前記画像生成手段が生成した画像データを記憶する記憶手段を備えていることが好ましい。 Further, it is preferable that the in-vehicle image display device is provided with a storage means for storing the image data generated by the image generation means.

この車載用画像表示装置によれば、記憶手段に画像データが記憶されるため、運転後においてもその画像データを読み出し、その画像データが表す画像を見ることができるようになる。よって、搭乗者にとっては使い勝手がよい。 According to this in-vehicle image display device, since the image data is stored in the storage means, the image data can be read out even after driving, and the image represented by the image data can be viewed. Therefore, it is easy for passengers to use.

また、車載用画像表示装置においては、前記画像生成手段は、車両の周囲の通行人或いは他の車両が前記表示手段にて強調表示されるように画像データを生成することが好ましい。 Further, in an in-vehicle image display device, it is preferable that the image generation means generate image data so that a passerby or another vehicle around the vehicle is highlighted by the display means.

この車載用画像表示装置によれば、車両の周囲の通行人や他の車両等については、運転手が容易にそれらを認識できるようにその画像が生成されるため、運転手はその通行人や他の車両に対して注意を促されるようになる。すなわち、運転手の注意力を喚起できるよ
うになる。
According to this in-vehicle image display device, images of passersby and other vehicles around the vehicle are generated so that the driver can easily recognize them, so that the driver can easily recognize the passersby and other vehicles. You will be alerted to other vehicles. That is, the driver's attention can be aroused.

また、車載用画像表示装置においては、前記表示手段は、車両の内側と外側とにおける両面に情報を表示可能であり、
前記表示制御手段は、前記表示手段の外側の面には、前記画像生成手段が生成した画像データが表す画像とは異なる画像を表示させることが好ましい。
Further, in the vehicle-mounted image display device, the display means can display information on both the inside and the outside of the vehicle.
It is preferable that the display control means display an image different from the image represented by the image data generated by the image generation means on the outer surface of the display means.

この車載用画像表示装置によれば、表示手段の両面に画像を表示することができるため、例えば内側面には、前述したように周囲の画像を表示させ、外側面には他の車両の運転者や通行人へのメッセージ等を表示させるようにすることができる。このようにメッセージを表示させて周囲とのコミュニケーションを図ることで、ひいては交通の円滑化も図ることができる。なお、外側面に広告を表示するように構成することも考えられる。 According to this in-vehicle image display device, images can be displayed on both sides of the display means. Therefore, for example, an image of the surroundings is displayed on the inner side surface as described above, and another vehicle is driven on the outer side surface. It is possible to display a message to a person or a passerby. By displaying a message in this way and communicating with the surroundings, it is possible to facilitate traffic. It is also conceivable to configure the advertisement to be displayed on the outer surface.

また、車載用画像表示装置においては、記録媒体に記録された画像データを読み取る読取手段を備え、
前記表示制御手段は、前記読取手段が前記記録媒体から読み取った画像データが表す画像を、前記表示手段に表示させるように構成されることが好ましい。
Further, the in-vehicle image display device is provided with a reading means for reading the image data recorded on the recording medium.
It is preferable that the display control means is configured so that the display means displays an image represented by the image data read by the reading means from the recording medium.

この車載用画像表示装置によれば、記録媒体に記録された画像データが表す画像も窓部に表示させることができるため、搭乗者にとって使いやすいものとなる。 According to this in-vehicle image display device, the image represented by the image data recorded on the recording medium can also be displayed on the window portion, which is easy for the passenger to use.

また、車載用画像表示装置においては、前記状況検出手段の検出結果に基づき、車両が他の車両との衝突を回避不能か否かを判定する衝突判定手段と、
前記衝突判定手段により、前記他の車両との衝突が回避不能と判定された場合に、前記状況検出手段の検出結果に基づき、前記他の車両以外の静止物のうち、衝突可能な静止物が有るか否かを判定する可能性判定手段と、
前記可能性判定手段により衝突可能な静止物が有ると判定されると、その静止物に衝突するように車両を制御する車両制御手段と、
を備えていることが好ましい。
Further, in the vehicle-mounted image display device, a collision determination means for determining whether or not a vehicle collides with another vehicle is unavoidable based on the detection result of the situation detection means, and a collision determination means.
When the collision determination means determines that a collision with the other vehicle is unavoidable, the collision-capable stationary object among the stationary objects other than the other vehicle is based on the detection result of the situation detection means. Possibility judgment means to judge whether or not there is,
When it is determined by the possibility determination means that there is a stationary object that can collide, the vehicle control means that controls the vehicle so as to collide with the stationary object and the vehicle control means.
It is preferable to have.

そして特に、車両制御手段は、車両のブレーキ、動力源(例えば、内燃機関やモータ等)の出力、及び舵角を制御することが考えられる。
このような車載用画像表示装置が備えられた車両においては、仮に周囲の他の車両との衝突が避けられないという状況となった場合に、その他の車両の他に衝突の可能性のある対象物が検索され、もしそのような対象物があった場合には、その対象物に衝突するように車両が制御される。すなわち、他の車両以外の対象物に衝突してでも、他の車両との衝突を回避して被害を抑えるようにされる。よって、この車載用画像表示装置によれば、衝突の被害を最小限に抑えることができるようになる。
In particular, the vehicle control means may control the brake of the vehicle, the output of a power source (for example, an internal combustion engine, a motor, etc.), and the steering angle.
In a vehicle equipped with such an in-vehicle image display device, if a collision with another vehicle in the vicinity is unavoidable, a target that may collide with the other vehicle. An object is searched, and if there is such an object, the vehicle is controlled to collide with the object. That is, even if it collides with an object other than another vehicle, the collision with another vehicle is avoided and the damage is suppressed. Therefore, according to this in-vehicle image display device, the damage of the collision can be minimized.

車載用画像表示装置が備えられた車両の外観を表す外観図である。It is an external view which shows the appearance of the vehicle equipped with the in-vehicle image display device. 車載用画像表示装置の構成を表すブロック図である。It is a block diagram which shows the structure of an in-vehicle image display device. 車載用画像表示装置のCPUが実行する処理の流れを表すフローチャートである。It is a flowchart which shows the flow of the process executed by the CPU of an in-vehicle image display device. 車載用画像表示装置の描画プロセッサが実行する処理の流れを表すフローチャートである。It is a flowchart which shows the flow of the process executed by the drawing processor of an in-vehicle image display device. 車載用画像表示装置のCPUが実行する衝突軽減処理の流れを表すフローチャートである。It is a flowchart which shows the flow of the collision mitigation processing executed by the CPU of an in-vehicle image display device. 車両の窓部に画像が表示された状態を表す図である。It is a figure which shows the state which the image is displayed in the window part of a vehicle. 第2実施形態の車載用画像表示装置の構成を表すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image display device of 2nd Embodiment. 車両の窓部に画像が表示された状態を表す図である(第2実施形態)。It is a figure which shows the state which the image is displayed on the window part of a vehicle (second embodiment). 第3実施形態の車載用画像表示装置の構成を表すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image display device of 3rd Embodiment.

以下に、本発明の一実施形態を図面に基づき説明する。
[実施形態1]
図1は、本実施形態の車載用画像表示装置5(図2参照)が備えられた車両1の外観を表す外観図である。図1に示すように、車両1のボディーの外部における複数箇所に、車載用画像表示装置5のうち、車両1の周囲の状況を検出するための検出ユニット80が設けられている。この検出ユニット80により、車両1の周囲の状況として、周囲の景色や、周囲の人、他の車両(以下、他車両とも言う)、或いは障害物等の態様が検出される。また、図1には図示しないが、車載用画像表示装置5を構成する車載ユニット90(図2参照)が、検出ユニット80とは別に車両1内部に備えられている。そして、検出ユニット80の検出結果に基づいて、車載ユニット90により車両1の周囲の状況を表す画像が生成されるようになっている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[Embodiment 1]
FIG. 1 is an external view showing the appearance of a vehicle 1 provided with an in-vehicle image display device 5 (see FIG. 2) of the present embodiment. As shown in FIG. 1, detection units 80 for detecting a situation around the vehicle 1 among the vehicle-mounted image display devices 5 are provided at a plurality of locations outside the body of the vehicle 1. The detection unit 80 detects the surrounding scenery, surrounding people, other vehicles (hereinafter, also referred to as other vehicles), obstacles, and the like as the surrounding conditions of the vehicle 1. Further, although not shown in FIG. 1, an in-vehicle unit 90 (see FIG. 2) constituting the in-vehicle image display device 5 is provided inside the vehicle 1 separately from the detection unit 80. Then, based on the detection result of the detection unit 80, the in-vehicle unit 90 generates an image showing the surrounding situation of the vehicle 1.

そして特に、本実施形態においては、車両1の全ての窓部には、その窓部全体に画像を表示することのできる表示ガラスパネル40が設けられている。この表示ガラスパネル40は、液晶ディスプレイとして機能して画像が表示可能となる表示モードと、通常の窓のように透明な状態であって、窓を挟んだ対向側の景色が視認できる状態である通常モードとに切り換え可能に構成されている。そして、車載ユニット90により生成された車両1の周囲の画像は、表示ガラスパネル40に表示される。なお、車両1の周囲の画像は、車両1の内部から視認できるように、表示ガラスパネル40において車両1の内側に対応する面に表示されるようになっている。また、本実施形態では、車両1の外側に対応する面にも画像が表示可能なように構成されている。 In particular, in the present embodiment, all the windows of the vehicle 1 are provided with a display glass panel 40 capable of displaying an image on the entire window. The display glass panel 40 has a display mode in which an image can be displayed by functioning as a liquid crystal display, and a transparent state like a normal window, in which the scenery on the opposite side across the window can be visually recognized. It is configured to be switchable to normal mode. Then, the image around the vehicle 1 generated by the vehicle-mounted unit 90 is displayed on the display glass panel 40. The image around the vehicle 1 is displayed on the surface corresponding to the inside of the vehicle 1 on the display glass panel 40 so that the image around the vehicle 1 can be visually recognized from the inside of the vehicle 1. Further, in the present embodiment, the image can be displayed on the surface corresponding to the outside of the vehicle 1.

次に、図2は、車載用画像表示装置5の構成を表すブロック図である。
この図2に示すように、本実施形態の車載用画像表示装置5は、前述した検出ユニット80、車載ユニット90、及び表示ガラスパネル40を含む入出力部95から構成されている。以下、各構成要素について詳述する。
Next, FIG. 2 is a block diagram showing the configuration of the vehicle-mounted image display device 5.
As shown in FIG. 2, the vehicle-mounted image display device 5 of the present embodiment includes the above-mentioned detection unit 80, the vehicle-mounted unit 90, and the input / output unit 95 including the display glass panel 40. Hereinafter, each component will be described in detail.

まず、車載ユニット90は、車両1の内部に搭載されるものであり、各種処理を実行するCPU30と、この車載ユニット90の起動時にCPU30が行う起動処理のプログラム(BIOS)等を記憶したROM32と、CPU30が各種処理を行う際に記憶領域として用いるRAM34と、情報を記憶させるハードディスク(以下、HDD)36と、CD-ROM/RAM,DVD-ROM/RAM等の記録媒体に記録された情報を読み取る読取装置37と、検出ユニット80から送信されるデータに基づいて、車両1の周囲の状況を表す画像データを生成する描画プロセッサ39と、描画プロセッサ39により生成された画像データが記憶されるフレームメモリ38と、検出ユニット80とデータを送受信するための入出力インタフェース(以下、I/O)20と、入出力部95とデータを送受信するためのI/O22と、を備えており、それらがバス50を介して相互に接続されている。 First, the vehicle-mounted unit 90 is mounted inside the vehicle 1, and includes a CPU 30 that executes various processes and a ROM 32 that stores a start processing program (BioS) and the like performed by the CPU 30 when the vehicle-mounted unit 90 is started. , RAM 34 used as a storage area when the CPU 30 performs various processes, a hard disk (hereinafter, HDD) 36 for storing information, and information recorded in recording media such as CD-ROM / RAM and DVD-ROM / RAM. A frame in which the drawing processor 39 that generates image data representing the surrounding situation of the vehicle 1 based on the data transmitted from the reading device 37 to be read and the detection unit 80, and the image data generated by the drawing processor 39 are stored. It includes a memory 38, an input / output interface (hereinafter, I / O) 20 for transmitting / receiving data to / from the detection unit 80, and an I / O 22 for transmitting / receiving data to / from the input / output unit 95. They are connected to each other via the bus 50.

次に、検出ユニット80は、赤外線センサ10と、ミリ波レーダ12と、超音波センサ14と、マイクロフォン18とから構成されており、それぞれにおいて、後述する各種データが微小時間Δt毎に検出される。 Next, the detection unit 80 is composed of an infrared sensor 10, a millimeter wave radar 12, an ultrasonic sensor 14, and a microphone 18, in which various data described later are detected every minute time Δt. ..

検出ユニット80において、赤外線センサ10は、対象物から放射される赤外線を検出するものである。なお、赤外線はあらゆる物体から放射される。そして、この赤外線センサ10を用いて赤外線の放射源の範囲を特定することで、対象物のおおよその外形が分か
る。また、その放射されている赤外線の強弱(赤外線の強度は、対象物の温度、或いは熱伝導率等の物性値により異なる)から、その対象物のおおよその形状や素材等を推測することも可能である。そして、本実施形態においては、赤外線センサ10を構成する図示しないマイクロコンピュータにより、赤外線の強度から対象物の素材(例えば、金属であるかそうでないか)を予測する予測処理が実行される。なお、この予測処理は、赤外線センサにおいては従来より行われている処理であり、ここでは詳しい説明を省略する。そして、この予測結果を表すデータや、赤外線センサ10により検出された赤外線の放射源の範囲、及び赤外線の強度を表すデータは、車載ユニット90に送信される。
In the detection unit 80, the infrared sensor 10 detects infrared rays radiated from an object. Infrared rays are emitted from all objects. Then, by specifying the range of the infrared radiation source using the infrared sensor 10, the approximate outer shape of the object can be known. It is also possible to infer the approximate shape and material of the object from the intensity of the emitted infrared rays (the intensity of the infrared rays varies depending on the temperature of the object or the physical property values such as thermal conductivity). Is. Then, in the present embodiment, a microcomputer (not shown) constituting the infrared sensor 10 executes a prediction process of predicting the material of the object (for example, whether it is metal or not) from the intensity of infrared rays. It should be noted that this prediction process is a process that has been conventionally performed in an infrared sensor, and detailed description thereof will be omitted here. Then, the data representing the prediction result, the range of the infrared radiation source detected by the infrared sensor 10, and the data representing the intensity of the infrared rays are transmitted to the in-vehicle unit 90.

ミリ波レーダ12は、ミリ波(周波数30~300GHzの電波)を用いて、そのミリ波を照射する照射源(ここでは、車両1とする)と対象物との距離や、車両1と対象物との相対速度を検出するものである。すなわち、ミリ波を照射するとともに、その照射波が対象物に反射して返ってくるまでの時間から、対象物との距離を検出する。また、所定時間t毎(t<Δt)に対象物との距離を検出することで、対象物との相対速度も検出する。そして、このミリ波レーダ12により検出された対象物との距離、及び相対速度を表すデータは、車載ユニット90に送信される。 The millimeter wave radar 12 uses millimeter waves (radio waves with a frequency of 30 to 300 GHz) to irradiate the millimeter waves with the irradiation source (here, vehicle 1) and the distance between the object and the vehicle 1 and the object. It detects the relative speed with. That is, while irradiating a millimeter wave, the distance to the object is detected from the time until the irradiated wave is reflected by the object and returned. Further, by detecting the distance to the object every predetermined time t (t <Δt), the relative speed to the object is also detected. Then, the data representing the distance to the object and the relative speed detected by the millimeter wave radar 12 is transmitted to the in-vehicle unit 90.

超音波センサ14は、超音波を周囲に照射するとともに、その照射した超音波の反射波から、対象物の位置、大きさ、形状、及び体積を計測するものである。なお、本実施形態においては、超音波センサ14として、3次元計測のできるものが用いられている。つまり、対象物の形状を3次元で表すことができるようになっている。そして、この超音波センサ14により計測された対象物の位置、外形、形状、及び体積を表すデータは、車載ユニット90に送信される。 The ultrasonic sensor 14 irradiates the surroundings with ultrasonic waves, and measures the position, size, shape, and volume of the object from the reflected waves of the irradiated ultrasonic waves. In this embodiment, an ultrasonic sensor 14 capable of three-dimensional measurement is used. That is, the shape of the object can be represented in three dimensions. Then, the data representing the position, outer shape, shape, and volume of the object measured by the ultrasonic sensor 14 is transmitted to the vehicle-mounted unit 90.

マイクロフォン18は、車両1の周囲の音を検出する。例えば、人の話し声や動物の鳴き声、或いは他の車両の走行音等である。そして、その検出した音を表すデータは、車載ユニット90に送信される。 The microphone 18 detects the sound around the vehicle 1. For example, the voice of a person, the sound of an animal, or the running noise of another vehicle. Then, the data representing the detected sound is transmitted to the vehicle-mounted unit 90.

そして、検出ユニット80において検出され車載ユニット90に送信された各検出データは、車載ユニット90において、I/O20を介して受信されるとともにRAM34に格納される。そしてこの時、CPU30は、描画プロセッサ39に対して、検出データに基づいて画像データを生成するように指令する。すると、描画プロセッサ39は、RAM34から検出データを読み出して、その検出データに基づいて画像データを生成する。そして、その画像データにより表される画像は、表示ガラスパネル40に表示される。 Then, each detection data detected by the detection unit 80 and transmitted to the vehicle-mounted unit 90 is received by the vehicle-mounted unit 90 via the I / O 20 and stored in the RAM 34. At this time, the CPU 30 instructs the drawing processor 39 to generate image data based on the detected data. Then, the drawing processor 39 reads the detected data from the RAM 34 and generates image data based on the detected data. Then, the image represented by the image data is displayed on the display glass panel 40.

次に、入出力部95は、前述した表示ガラスパネル40と、音を出力するスピーカ42と、情報を入力するための操作部44と、から構成されている。
スピーカ42は、前述した検出データのうち、マイクロフォン18により検出された音を表すデータに基づいて、周囲の音をこのスピーカ42を介して出力するために設けられている。なお、車両1に通常設けられているオーディオ装置(図示せず)のスピーカを利用してもよい。
Next, the input / output unit 95 includes the display glass panel 40 described above, a speaker 42 that outputs sound, and an operation unit 44 for inputting information.
The speaker 42 is provided to output ambient sound through the speaker 42 based on the data representing the sound detected by the microphone 18 among the above-mentioned detection data. A speaker of an audio device (not shown) normally provided in the vehicle 1 may be used.

また、操作部44は、車両1の搭乗者が操作するものであり、搭乗者は、この操作部44を操作することで、表示ガラスパネル40のモードを、前述した表示モードと通常モードとに切り換えたりすることができる。なお、この切換は、窓部毎に行うことができる。 Further, the operation unit 44 is operated by the passenger of the vehicle 1, and the passenger operates the operation unit 44 to change the mode of the display glass panel 40 into the above-mentioned display mode and the normal mode. It can be switched. This switching can be performed for each window unit.

次に、車載ユニット90のCPU30が繰り返し実行する描画指令処理について、図3を用いて説明する。この処理は、描画プロセッサ39に画像データを生成させるために実行される処理である。 Next, the drawing command process repeatedly executed by the CPU 30 of the vehicle-mounted unit 90 will be described with reference to FIG. This process is a process executed to cause the drawing processor 39 to generate image data.

この描画指令処理では、まずS310にて、検出ユニット80から検出データを受信したか否かを判定する。受信したと判定すると、次にS320へ移行し、その受信した検出データをRAM34に記憶させる。また、この時、検出データに含まれる音のデータに基づいて、車両1の周囲の音をスピーカ42から出力させる。なお、検出データが表す対象物から発せられる音を予測して、その予測した音がスピーカ42から発せられるようにしてもよい。例えば、他の車両が検出された場合には、その他車両から発せられると予測されるエンジン音やクラクションの音を、スピーカ42から出力させてもよい。この場合、エンジン音やクラクションの音などの音を表す音データを、予めROM32やHDD36に記憶させておき、他の車両が検出された場合に、それらの音を表す音データをROM32或いはHDD36から読み出すようにすると良い。 In this drawing command processing, first, in S310, it is determined whether or not the detection data is received from the detection unit 80. When it is determined that the data has been received, the process proceeds to S320, and the received detection data is stored in the RAM 34. Further, at this time, the sound around the vehicle 1 is output from the speaker 42 based on the sound data included in the detection data. It should be noted that the sound emitted from the object represented by the detection data may be predicted so that the predicted sound is emitted from the speaker 42. For example, when another vehicle is detected, the engine sound or the horn sound predicted to be emitted from the other vehicle may be output from the speaker 42. In this case, sound data representing sounds such as engine sound and horn sound is stored in ROM 32 or HDD 36 in advance, and when another vehicle is detected, sound data representing those sounds is stored from ROM 32 or HDD 36. It is good to read it.

そして、次にS330へ移行し、描画プロセッサ39に、画像データを生成させる指令である描画指令を送信する。そして、再びS310へ戻る。
なお、S310にて検出データを受信していないと判定した場合も、再びS310の判定処理を繰り返すことになる。
Then, the process proceeds to S330, and a drawing command, which is a command for generating image data, is transmitted to the drawing processor 39. Then, it returns to S310 again.
Even if it is determined that the detection data has not been received in S310, the determination process of S310 is repeated again.

次に、描画プロセッサ39が繰り返し実行する描画処理について、図4を用いて説明する。
この描画処理においては、まずS410にて、描画指令をCPU30より受信したか否かを判定する。前述したように、描画指令は、この描画プロセッサ39に画像データを生成させるための指令であり、図2のS330の処理にてCPU30より送信される。S410にて描画指令を受信していないと判定すると、再びS410の処理を実行することになる。
Next, the drawing process repeatedly executed by the drawing processor 39 will be described with reference to FIG.
In this drawing process, first, S410 determines whether or not a drawing command has been received from the CPU 30. As described above, the drawing command is a command for causing the drawing processor 39 to generate image data, and is transmitted from the CPU 30 in the process of S330 in FIG. If it is determined in S410 that the drawing command has not been received, the processing of S410 is executed again.

一方、S410にて描画指令を受信したと判定すると、次にS420へ移行し、RAM34から検出データを読み込む。この検出データは、検出ユニット80から送信され、S320の処理でRAM34に記憶されるものである。 On the other hand, if it is determined that the drawing command has been received in S410, the process proceeds to S420 and the detection data is read from the RAM 34. This detection data is transmitted from the detection unit 80 and stored in the RAM 34 in the process of S320.

そして、続くS430にて、S420でRAM34より読み出した検出データに基づいて、車両1の周囲の画像データを生成する。ここで、画像データを生成する方法について具体的に説明する。 Then, in the subsequent S430, image data around the vehicle 1 is generated based on the detection data read from the RAM 34 in S420. Here, a method for generating image data will be specifically described.

まず、前述したように、車載ユニット90には、ミリ波レーダ12から、車両1と対象物との距離(或いは対象物の位置)、及び相対速度を表す検出データが送信され、赤外線センサ10からは、対象物の外形、形状、及び素材を表す検出データが送信され、超音波センサ14からは、対象物の外形、形状、体積、及び位置を表す検出データが送信される。そして、それらの検出データはRAM34に記憶される。 First, as described above, the millimeter-wave radar 12 transmits detection data indicating the distance between the vehicle 1 and the object (or the position of the object) and the relative speed to the in-vehicle unit 90, and the infrared sensor 10 transmits the detection data. Is transmitted with detection data representing the outer shape, shape, and material of the object, and is transmitted from the ultrasonic sensor 14 with detection data representing the outer shape, shape, volume, and position of the object. Then, those detected data are stored in the RAM 34.

そして、描画プロセッサ39は、RAM34に記憶された前述したような検出データから、車両の周囲の画像データを生成するのであるが、その画像データを構成するデータのうち、対象物の外形及び形状を表すデータについては、赤外線センサ10及び超音波センサ14の両方から送信される検出データに基づいて生成する。すなわち、赤外線センサ10から送信される外形、或いは形状を表すデータと、超音波センサ14から送信される外形、或いは形状を表すデータとの平均をとり、その結果得られたデータを、対象物の外形、或いは形状を表すデータとする。また、対象物の位置のデータについても同様に、ミリ波レーダ12及び超音波センサ14の両方から送信される位置を表すデータの平均をとり、その結果得られたデータを、対象物の位置のデータとする。 Then, the drawing processor 39 generates image data around the vehicle from the above-mentioned detection data stored in the RAM 34, and among the data constituting the image data, the outer shape and shape of the object are determined. The data to be represented is generated based on the detection data transmitted from both the infrared sensor 10 and the ultrasonic sensor 14. That is, the data representing the outer shape or shape transmitted from the infrared sensor 10 is averaged with the data representing the outer shape or shape transmitted from the ultrasonic sensor 14, and the data obtained as a result is used as the object. The data represents the outer shape or shape. Similarly, for the data on the position of the object, the average of the data representing the position transmitted from both the millimeter wave radar 12 and the ultrasonic sensor 14 is taken, and the data obtained as a result is used as the position of the object. Let it be data.

ところで、例えば天候の影響など、外乱によって一方のセンサ(ここでは、赤外線センサ10、超音波センサ14、或いはミリ波レーダ)の検出精度が低下してしまうような場
合には、他方のセンサの検出データを採用する。なお、両方のセンサの検出精度が同時に低下する確率は小さくなっている。言い換えると、両方のセンサの検出精度が同時に低下するということは生じ難い。
By the way, when the detection accuracy of one sensor (here, the infrared sensor 10, the ultrasonic sensor 14, or the millimeter wave radar) is lowered due to disturbance such as the influence of the weather, the detection of the other sensor is performed. Adopt data. The probability that the detection accuracy of both sensors will decrease at the same time is small. In other words, it is unlikely that the detection accuracy of both sensors will decline at the same time.

そして、少なくとも、このようにして生成された対象物の外形、形状、及び位置のデータがあれば、そのデータに基づき、車両の周囲の状況が表される。
そして特に、本実施形態においては、描画プロセッサ39は、対象物の外形、及び形状のデータに加え、対象物の素材や体積のデータに基づいて、対象物が何であるかを予測する。例えば、対象物が人であるとか、木であるとか、或いは車両であるということを予測する。本実施形態では、ROM32には、対象物として例えば木や人、或いは車両について、その外形、形状、素材、体積、色彩等を表すデータが、複数種類(或いは複数タイプ)の木、人、車両について記憶されており、描画プロセッサ39は、自身が生成した対象物のデータと、ROM32に記憶された対象物のデータとにおいて、データの要素を対応させて比較するようになっている。すなわち、外形、形状、素材、及び体積のデータについてそれぞれ、自身が生成したデータとROM32に記憶されたデータとを比較する。そして、比較した結果、生成したそれぞれのデータが、ROM32に記憶された対応するデータの何れに近いか、すなわち、生成した対象物のデータがどのようなもの(人、木、或いは車両、又はそれらのタイプ)を表しているかを結論付ける。なお、木や人、車両等の対象物を表すデータは、データベースとしてHDD36に記憶させておいてもよい。
Then, at least, if there is data on the outer shape, shape, and position of the object generated in this way, the situation around the vehicle is represented based on the data.
In particular, in the present embodiment, the drawing processor 39 predicts what the object is based on the data of the material and volume of the object in addition to the data of the outer shape and the shape of the object. For example, it predicts that the object is a person, a tree, or a vehicle. In the present embodiment, the ROM 32 contains a plurality of types (or multiple types) of data representing the outer shape, shape, material, volume, color, etc. of a tree, a person, or a vehicle as an object, such as a tree, a person, or a vehicle. The drawing processor 39 is adapted to compare the data of the object generated by itself with the data of the object stored in the ROM 32 in correspondence with each other. That is, the data generated by the user and the data stored in the ROM 32 are compared with each other for the outer shape, shape, material, and volume data. Then, as a result of comparison, which of the corresponding data stored in the ROM 32 is close to each generated data, that is, what kind of data of the generated object is (people, trees, vehicles, or them). To conclude that it represents the type of). Data representing an object such as a tree, a person, or a vehicle may be stored in the HDD 36 as a database.

このようにして対象物を予測することで、色彩が施された画像を生成することができる。例えば、生成したデータにより表される対象物が木であると結論付けた場合には、ROM32に記憶されている木についてのデータから色彩のデータを抽出し、その抽出した色彩のデータを生成した対象物のデータに付加することで、その対象物について、色彩を施した画像を表示させることができる。 By predicting the object in this way, it is possible to generate a colored image. For example, when it is concluded that the object represented by the generated data is a tree, the color data is extracted from the data about the tree stored in the ROM 32, and the extracted color data is generated. By adding it to the data of the object, it is possible to display a colored image of the object.

なお、本実施形態においては、対象物が人や車両等などの移動体の場合には、その対象物の画像について、表示ガラスパネル40にて強調表示されて運転手がより認識しやすくなる色彩を施すようになっている。強調表示されて運転手が認識しやすくなる色としては、蛍光色や原色が考えられる。 In the present embodiment, when the object is a moving object such as a person or a vehicle, the image of the object is highlighted on the display glass panel 40 to make it easier for the driver to recognize. Is to be given. Fluorescent colors and primary colors can be considered as the colors that are highlighted and easily recognized by the driver.

また、本実施形態においては、検出された対象物について、ミリ波レーダ12により検出される相対速度を表すデータに基づき、その対象物の所定時間後の外形(言い換えると、大きさ)及び位置についての予測のデータを生成することもできる。そして、対象物の画像を表示ガラスパネル40に表示させる際には、その予測のデータに基づく対象物の画像を表示させるようにすることもできる。 Further, in the present embodiment, regarding the detected object, the outer shape (in other words, the size) and the position of the detected object after a predetermined time are obtained based on the data representing the relative velocity detected by the millimeter wave radar 12. It is also possible to generate forecast data for. Then, when displaying the image of the object on the display glass panel 40, the image of the object based on the prediction data can be displayed.

このように、検出ユニット80の検出データに基づき、車両1の周囲の状況について、いわゆるコンピュータグラフィック(CG)画像が生成される。
また、S430においては、前述したように画像データを生成するとともに、その画像データをフレームメモリ38に一時的に記憶させるようになっている。また、操作部44を介して車載ユニット90が所定の設定状態に設定されることにより、HDD36にも画像データが記憶される。
In this way, based on the detection data of the detection unit 80, a so-called computer graphic (CG) image is generated about the situation around the vehicle 1.
Further, in S430, the image data is generated as described above, and the image data is temporarily stored in the frame memory 38. Further, by setting the in-vehicle unit 90 to a predetermined setting state via the operation unit 44, the image data is also stored in the HDD 36.

HDD36に画像データを記憶させるように設定すれば、車両1の搭乗者は、そのHDD36に記憶された画像データを読み出して後から見ることもできるようになる。すなわち、例えばドライブ時の画像データを記憶させておくことにより、後からドライブ時の画像をみて楽しむことができる。また、走行経路が複雑で迷いやすいような目的地へいく時に周囲の画像を記憶しておけば、後から画像を見直して走行経路を確認することができる。そして、そのようにすれば次からはスムーズにその目的地に辿り着けるようになる。 If the HDD 36 is set to store the image data, the passenger of the vehicle 1 can read the image data stored in the HDD 36 and view it later. That is, for example, by storing the image data at the time of driving, the image at the time of driving can be viewed and enjoyed later. In addition, if the surrounding image is stored when going to a destination where the traveling route is complicated and it is easy to get lost, the image can be reviewed later and the traveling route can be confirmed. And if you do so, you will be able to reach the destination smoothly from the next time.

また、本実施形態においては、CD-ROM/RAM,DVD-ROM/RAM等の記録媒体に記録されたデータを読み取ることのできる読取装置37が設けられている。そして、この読取装置37により記録媒体に記録された画像データを読み出して、その画像データが表す画像を表示ガラスパネル40に表示できるようになっている。このため、地図データが記憶された記録媒体を利用して、表示ガラスパネル40に、周囲の画像とともに地図情報を表示できるようになる。よって、運転手にとって使い勝手がよい。また、映画やライブ映像が記録された記録媒体を利用して、その映画やライブ映像を表示ガラスパネル40に表示させることもできる。よって、搭乗者は、車両1において映画やライブ映像を楽しむことができる。 Further, in the present embodiment, a reading device 37 capable of reading data recorded on a recording medium such as a CD-ROM / RAM or a DVD-ROM / RAM is provided. Then, the image data recorded on the recording medium can be read by the reading device 37, and the image represented by the image data can be displayed on the display glass panel 40. Therefore, the map information can be displayed on the display glass panel 40 together with the surrounding image by using the recording medium in which the map data is stored. Therefore, it is easy for the driver to use. Further, a recording medium in which a movie or a live image is recorded can be used to display the movie or the live image on the display glass panel 40. Therefore, the passenger can enjoy a movie or a live image in the vehicle 1.

ところで、本実施形態においては、車両1の表示ガラスパネル40について、その状態を表示モードと通常モードとに切り換え可能になっており、さらに、その切り換えのモードとしては、自動で切り換えを行う自動モードと、操作部44からの入力に基づいて切り換えを行う手動モードとがある。なお、自動モード或いは手動モードの何れにするかは、操作部44を介して予め設定することができる。 By the way, in the present embodiment, the state of the display glass panel 40 of the vehicle 1 can be switched between the display mode and the normal mode, and the switching mode is an automatic mode in which the display mode is automatically switched. And there is a manual mode in which switching is performed based on the input from the operation unit 44. Whether to use the automatic mode or the manual mode can be set in advance via the operation unit 44.

そして、S430から続くS510では、切り換えのモードが自動モードであるか否かを判定する。自動モードであると判定すると、次にS520へ移行し、車両1は走行中であるか否かを判定する。具体的には、車両1に備えられた図示しない速度センサにより検出される検出結果に基づき、車両1の速度が0でないか否かを判定する。 Then, in S510 following from S430, it is determined whether or not the switching mode is the automatic mode. When it is determined that the mode is the automatic mode, the process proceeds to S520, and it is determined whether or not the vehicle 1 is traveling. Specifically, it is determined whether or not the speed of the vehicle 1 is not 0 based on the detection result detected by the speed sensor (not shown) provided in the vehicle 1.

S520にて車両1が走行中であると判定すると、次にS530へ移行し、表示ガラスパネル40を表示モードに設定する。なお、本実施形態においては、車両1の全ての窓部の表示ガラスパネル40を表示モードに設定する。 When it is determined in S520 that the vehicle 1 is running, the process proceeds to S530 and the display glass panel 40 is set to the display mode. In this embodiment, the display glass panels 40 of all the windows of the vehicle 1 are set to the display mode.

そして、続くS540にて、表示ガラスパネル40に、S430にて生成した画像データが表す画像を表示させる(図6参照)。なお、図示はしないが、車両1が後方へバックしている場合には、車両1の後方の画像が前面の表示ガラスパネル40に表示される。なお、この時、車両1の後方の画像を車両1の後方の窓部(表示ガラスパネル40)に表示させるようにしてもよいし、側面の窓部に表示させるようにしてもよい。或いは、全ての窓部に表示させるようにしてもよい。 Then, in the subsequent S540, the display glass panel 40 displays the image represented by the image data generated in S430 (see FIG. 6). Although not shown, when the vehicle 1 is backed backward, an image of the rear of the vehicle 1 is displayed on the front display glass panel 40. At this time, the image behind the vehicle 1 may be displayed on the window portion (display glass panel 40) behind the vehicle 1 or may be displayed on the window portion on the side surface. Alternatively, it may be displayed on all windows.

一方、S520にて走行中でないと判定すると、次にS550へ移行し、表示ガラスパネル40を通常モードに設定する。そして再び、S410へ戻る。
また、S510にて、切り換えのモードが自動モードでない、つまり手動モードであると判定すると、次にS560へ移行し、操作部44の入力に基づいて、表示モードへの切り換えがあるか否かを判定する。表示モードへの切り換えがあると判定すると、次にS530へ移行して、表示ガラスパネル40を表示モードに設定する。
On the other hand, if it is determined in S520 that the vehicle is not running, the process proceeds to S550 and the display glass panel 40 is set to the normal mode. Then, it returns to S410 again.
Further, if it is determined in S510 that the switching mode is not the automatic mode, that is, the manual mode, the mode is then shifted to S560, and whether or not there is switching to the display mode based on the input of the operation unit 44 is determined. judge. When it is determined that there is a switch to the display mode, the process proceeds to S530 and the display glass panel 40 is set to the display mode.

一方、S560にて表示モードへの切り換えがないと判定すると、次にS570へ移行し、通常モードへの切り換えがあるか否かを判定する。
S570にて通常モードへの切り換えがあると判定すると、次にS550へ移行して、表示ガラスパネル40を通常モードに設定する。
On the other hand, if it is determined in S560 that there is no switch to the display mode, the process proceeds to S570 and it is determined whether or not there is a switch to the normal mode.
When it is determined in S570 that there is a switch to the normal mode, the process proceeds to S550 and the display glass panel 40 is set to the normal mode.

一方、S570にて通常モードへの切り換えがないと判定すると、次にS580へ移行し、現在のモードが表示モードであるか否かを判定する。表示モードであると判定すると、次にS540へ移行し、表示ガラスパネル40に画像を表示させる。 On the other hand, if it is determined in S570 that there is no switching to the normal mode, the process proceeds to S580 and it is determined whether or not the current mode is the display mode. When it is determined that the display mode is set, the process proceeds to S540, and the image is displayed on the display glass panel 40.

一方、S580にて現在のモードが表示モードでない、つまり通常モードであると判定
すると、再びS410へ戻る。
なお、この描画処理において、車両が走行中か否か(S520)、つまり車両の速度に基づいて表示ガラスパネル40のモードが設定されるようになっているが、車両の進行方向や制動状態等を加味するようにしてもよい。例えば、車両1の側面の表示ガラスパネル40については、車両1が右へ旋回中の場合に、右側面の表示ガラスパネル40が表示モードに設定され、車両1が左へ旋回中の場合には、左側面の表示ガラスパネル40が表示モードに設定されるようにしてもよい。
On the other hand, if it is determined in S580 that the current mode is not the display mode, that is, the normal mode, the process returns to S410.
In this drawing process, the mode of the display glass panel 40 is set based on whether or not the vehicle is running (S520), that is, the speed of the vehicle, but the traveling direction of the vehicle, the braking state, and the like are set. May be added. For example, regarding the display glass panel 40 on the side surface of the vehicle 1, when the vehicle 1 is turning to the right, the display glass panel 40 on the right side is set to the display mode, and when the vehicle 1 is turning to the left. , The display glass panel 40 on the left side may be set to the display mode.

また、前述したように、表示ガラスパネル40においては、その両面に画像を表示できるようになっている。そして、本実施形態においては、表示ガラスパネル40の外側の面には、例えば車両1に赤ちゃんが乗っていることを周囲に知らせるためのメッセージや、進路を譲ってもらった場合のお礼のメッセージ等が表示されるようになっている。このメッセージ等を表すデータは、ROM32に予め記憶されており、搭乗者により操作部44を介してメッセージの種類を表すメッセージ情報、及びメッセージを表示させる指令が入力されると、そのメッセージ情報に基づくメッセージが表示ガラスパネル40の外側の面に表示されるようになっている。なお、操作部44を介してメッセージの本文を入力できるようにしてもよい。 Further, as described above, the display glass panel 40 can display images on both sides thereof. Then, in the present embodiment, on the outer surface of the display glass panel 40, for example, a message for notifying the surroundings that the baby is on the vehicle 1, a message of thanks when the baby is given a course, etc. Is displayed. The data representing this message or the like is stored in advance in the ROM 32, and when the passenger inputs the message information indicating the type of the message and the command for displaying the message via the operation unit 44, the data is based on the message information. The message is displayed on the outer surface of the display glass panel 40. The text of the message may be input via the operation unit 44.

このように他の車両の運転手等に対するメッセージを表示することで、互いにコミュニケーションが図られ、ひいては交通の円滑化も図ることができるため、事故の発生を防止できるようになる。なお、広告等を表示させるように構成することも考えられる。 By displaying a message to the driver or the like of another vehicle in this way, mutual communication can be achieved, and eventually traffic can be facilitated, so that the occurrence of an accident can be prevented. It is also conceivable to configure it to display advertisements and the like.

次に、図5は、CPU30において繰り返し実行される衝突軽減処理の流れを表すフローチャートである。
この衝突軽減処理においては、まずS610にて、車両1の状態が他の車両との衝突を避けられない状態であるか否かを判定する。具体的には、車両1に備えられた図示しない車載センサ(例えば速度センサ)により検出される車両1の速度、加速度や、検出ユニット80により検出される他の車両の位置、速度、或いは車両1との相対速度や、さらには、車両1の制動性能や旋回性能等の各種性能に基づき判定する。なお、車両1の性能を表す性能データは、ROM32に予め記憶されている。
Next, FIG. 5 is a flowchart showing the flow of collision mitigation processing that is repeatedly executed in the CPU 30.
In this collision mitigation process, first, in S610, it is determined whether or not the state of the vehicle 1 is a state in which a collision with another vehicle cannot be avoided. Specifically, the speed and acceleration of the vehicle 1 detected by an in-vehicle sensor (for example, a speed sensor) provided in the vehicle 1 and the position and speed of another vehicle detected by the detection unit 80, or the vehicle 1 Judgment is made based on the relative speed with the vehicle 1 and various performances such as braking performance and turning performance of the vehicle 1. The performance data representing the performance of the vehicle 1 is stored in the ROM 32 in advance.

そして、S610にて衝突を避けられない状態であると判定すると、次にS620へ移行する。一方、衝突が避けられると判定すると、そのまま当該処理を終了する。
S620では、衝突が避けられない状態である他車両の他に、衝突可能な対象物が周囲にあるか否かを判定する。そして、このS620の処理においては、衝突可能な対象物として、例えばガードレール等の静止物が対象にされる。
Then, when it is determined in S610 that the collision is inevitable, the process proceeds to S620. On the other hand, if it is determined that the collision can be avoided, the process is terminated as it is.
In S620, it is determined whether or not there is an object that can collide in the vicinity in addition to the other vehicle in which the collision is unavoidable. Then, in this process of S620, a stationary object such as a guardrail is targeted as an object that can collide.

そして、衝突可能な静止物があると判定すると、次にS630へ移行する。一方、衝突可能な静止物がないと判定すると、そのまま当該処理を終了する。
S630では、衝突可能な静止物に衝突するように、車両1を制御する。具体的には、車両1のブレーキ及びスロットル開度(ひいては、エンジンの出力)を制御して車両1の速度を調整するとともに、舵角を制御して車両1の進行方向を調整する。そして、その静止物に車両1を衝突させるようにするのである。すなわち、この衝突軽減処理は、車両1を他の静止物に衝突させてでも、車両1と周囲の他の車両との衝突を回避させるべく実行される処理である。そして、このような処理により車両1と他の車両との衝突が回避されれば、仮に車両1が静止物と衝突したとしても、その被害は抑えられることになる。
Then, when it is determined that there is a stationary object capable of colliding, the process proceeds to S630. On the other hand, if it is determined that there is no stationary object that can collide, the process is terminated as it is.
In S630, the vehicle 1 is controlled so as to collide with a stationary object that can collide. Specifically, the brake and throttle opening degree (and thus the output of the engine) of the vehicle 1 are controlled to adjust the speed of the vehicle 1, and the steering angle is controlled to adjust the traveling direction of the vehicle 1. Then, the vehicle 1 is made to collide with the stationary object. That is, this collision mitigation process is a process executed so as to avoid a collision between the vehicle 1 and other surrounding vehicles even if the vehicle 1 collides with another stationary object. If the collision between the vehicle 1 and another vehicle is avoided by such processing, even if the vehicle 1 collides with a stationary object, the damage can be suppressed.

なお、本実施形態においては、検出ユニット80が状況検出手段に相当し、描画プロセッサ39が画像生成手段及び表示制御手段に相当し、表示ガラスパネル40が表示手段に相当し、CPU30が運転状態検出手段に相当し、スピーカ42が音出力手段に相当し、
HDD36が記憶手段に相当し、読取装置37が読取手段に相当し、S610の処理が衝突判定手段に相当し、S620の処理が可能性判定手段に相当し、S630の処理が車両制御手段に相当している。
In the present embodiment, the detection unit 80 corresponds to the situation detection means, the drawing processor 39 corresponds to the image generation means and the display control means, the display glass panel 40 corresponds to the display means, and the CPU 30 detects the operating state. Corresponding to the means, the speaker 42 corresponds to the sound output means,
The HDD 36 corresponds to the storage means, the reading device 37 corresponds to the reading means, the processing of S610 corresponds to the collision determination means, the processing of S620 corresponds to the possibility determination means, and the processing of S630 corresponds to the vehicle control means. are doing.

以上説明したように、本実施形態の車載用画像表示装置5においては、検出ユニット80により車両1の周囲の状況が検出され、その検出結果に基づいて、車載ユニット90の描画プロセッサ39により車両1の周囲の画像データが生成される(図4のS430)。そして、その生成された画像データが表す画像(コンピュータグラフィック画像)は、車両1の窓部に設けられた表示ガラスパネル40に表示される(図4のS540、及び図6参照)。よって、車両1の運転手は、窓部の表示ガラスパネル40に表示される画像を見ることで、車両1の周囲の状況を容易かつ確実に把握することができるため、運転手が、天候が悪化したり自身の視力が低下したりすることにより車両1の周囲の状況を正確に把握できなくなって危険回避が遅れ、事故を起こしてしまうということを防止することができる。 As described above, in the vehicle-mounted image display device 5 of the present embodiment, the situation around the vehicle 1 is detected by the detection unit 80, and the vehicle 1 is detected by the drawing processor 39 of the vehicle-mounted unit 90 based on the detection result. Image data around the is generated (S430 in FIG. 4). Then, the image (computer graphic image) represented by the generated image data is displayed on the display glass panel 40 provided in the window portion of the vehicle 1 (see S540 in FIG. 4 and FIG. 6). Therefore, the driver of the vehicle 1 can easily and surely grasp the situation around the vehicle 1 by looking at the image displayed on the display glass panel 40 of the window portion, so that the driver can easily and surely grasp the weather. It is possible to prevent the situation around the vehicle 1 from being unable to be accurately grasped due to deterioration or deterioration of one's own eyesight, delaying danger avoidance, and causing an accident.

また、本実施形態においては、車両1の窓部全てが表示ガラスパネル40として構成されている。つまり、車両1の窓部全てに周囲の画像を表示させることができる。よって、運転手は周囲の状況をより正確に把握できるようになり、前述したような理由から、事故が生じることをより確実に防止することができる。 Further, in the present embodiment, all the windows of the vehicle 1 are configured as the display glass panel 40. That is, the surrounding image can be displayed on all the windows of the vehicle 1. Therefore, the driver can grasp the surrounding situation more accurately, and can more reliably prevent an accident from occurring for the reason described above.

また、本実施形態においては、表示ガラスパネル40の状態が、画像が表示可能な表示モードと、通常の窓のような状態である通常モードとに切り換えられるようになっている。そして、この切換は、車両1の運転状態により自動で行われる(自動モード)ようにすることもできるし、車両1の搭乗者の操作に基づいて行われる(手動モード)ようにすることもできる。自動モードにすれば、運転手が意図しなくても車両1の窓部に周囲の画像が表示されるようになり、運転手は周囲の状況を確実に把握できるようになる。また、手動モードにすれば、搭乗者は自由に本物の風景を楽しむことができるようになる。 Further, in the present embodiment, the state of the display glass panel 40 can be switched between a display mode in which an image can be displayed and a normal mode in which a state is like a normal window. Then, this switching may be automatically performed according to the driving state of the vehicle 1 (automatic mode), or may be performed based on the operation of the passenger of the vehicle 1 (manual mode). .. When the automatic mode is set, the surrounding image is displayed on the window portion of the vehicle 1 even if the driver does not intend, and the driver can surely grasp the surrounding situation. In addition, the manual mode allows passengers to freely enjoy the real scenery.

また、本実施形態においては、車両1にスピーカが設けられており、検出ユニット80のマイクロフォン18にて検出された車両1の周囲の音が、そのスピーカ42から出力されるようになっている。よって、車両1の周囲の状況がよりリアルに再現されるようになるため、運転手はより正確に周囲の状況を把握できるようになる。
[実施形態2]
次に、第2実施形態の車載用画像表示装置5について、図7及び図8を用いて説明する。
Further, in the present embodiment, the vehicle 1 is provided with a speaker, and the sound around the vehicle 1 detected by the microphone 18 of the detection unit 80 is output from the speaker 42. Therefore, the surrounding situation of the vehicle 1 can be reproduced more realistically, and the driver can grasp the surrounding situation more accurately.
[Embodiment 2]
Next, the vehicle-mounted image display device 5 of the second embodiment will be described with reference to FIGS. 7 and 8.

本第2実施形態の車載用画像表示装置5は、第1実施形態と比較して、車両1の窓部の表示ガラスパネル40は、スクリーンとして機能するスクリーン表示モードと、通常の窓のような通常モードとに切り換え可能に構成されている。このスクリーン表示モードにおいては、車両1の内部及び外部からの光を遮断させるようになっている。すなわち、表示ガラスパネル40が曇ったような状態となり、スクリーンとして機能するようになるのである。そして、スクリーン表示モード状態である表示ガラスパネル40には、プロジェクタ45(図7参照)により画像が投影されるようになっている。 In the vehicle-mounted image display device 5 of the second embodiment, as compared with the first embodiment, the display glass panel 40 of the window portion of the vehicle 1 has a screen display mode that functions as a screen and a normal window-like display mode. It is configured to be switchable to normal mode. In this screen display mode, the light from the inside and the outside of the vehicle 1 is blocked. That is, the display glass panel 40 becomes cloudy and functions as a screen. An image is projected onto the display glass panel 40 in the screen display mode by the projector 45 (see FIG. 7).

そして特に、本第2実施形態においては、スクリーン表示モードの表示ガラスパネル40の他、車両1のAピラー2の内側(図1及び図2参照)もスクリーンに見立てて画像を表示させる。このように、車両1の窓部及びAピラー2に周囲の画像を表示させると、あたかも車両1内部からの死角がなくなったかのようにできる(図8参照)。よって、運転手はより正確に車両1の周囲の状況を把握できるようになるため、事故の発生をより確実に防止できる。 In particular, in the second embodiment, in addition to the display glass panel 40 in the screen display mode, the inside of the A pillar 2 of the vehicle 1 (see FIGS. 1 and 2) is also displayed as if it were a screen. By displaying the surrounding image on the window portion of the vehicle 1 and the A pillar 2 in this way, it is possible to make it as if the blind spot from the inside of the vehicle 1 has disappeared (see FIG. 8). Therefore, the driver can more accurately grasp the situation around the vehicle 1, and can more reliably prevent the occurrence of an accident.

なお、本第2実施形態においては、プロジェクタ45及び表示ガラスパネル40が表示手段に相当している。
ところで、Aピラーだけでなく、Bピラー及びCピラー、つまり、車両1内部の全ての柱に、画像が投影されるようにしてもよい。また、第1実施形態において、各ピラー部分に液晶ディスプレイ等の表示パネルを設けるようにすれば、同様の効果が得られる。
[実施形態3]
次に、第3実施形態の車載用画像表示装置5について、図9を用いて説明する。
In the second embodiment, the projector 45 and the display glass panel 40 correspond to the display means.
By the way, the image may be projected not only on the A pillar but also on the B pillar and the C pillar, that is, all the pillars inside the vehicle 1. Further, in the first embodiment, if a display panel such as a liquid crystal display is provided in each pillar portion, the same effect can be obtained.
[Embodiment 3]
Next, the vehicle-mounted image display device 5 of the third embodiment will be described with reference to FIG.

本第3実施形態の車載用画像表示装置5は、第1実施形態と比較して、検出ユニット80のかわりにCCDカメラ16が使用されている点が異なっている。また、車載ユニット90において、I/O20の代わりにCCDカメラ16とデータをやり取りするためのCCDインタフェース(以下、CCDI/F)24が設けられている。 The in-vehicle image display device 5 of the third embodiment is different from the first embodiment in that the CCD camera 16 is used instead of the detection unit 80. Further, in the in-vehicle unit 90, a CCD interface (hereinafter referred to as CCDI / F) 24 for exchanging data with the CCD camera 16 is provided instead of the I / O 20.

そして、CCDカメラ16により撮像された画像を表す撮像データ(言い換えると、検出データ)は車載ユニット90に送信され、車載ユニット90のRAM34に記憶される。また、描画プロセッサ39は、図4のS430の処理において、RAM34に記憶された撮像データ(検出データ)に色彩のデータを付加して、コンピュータグラフィック画像を生成する。なお、CCDカメラ16により撮像された画像が、直接表示ガラスパネル40に表示されるようにしてもよい。 Then, the imaging data (in other words, the detection data) representing the image captured by the CCD camera 16 is transmitted to the vehicle-mounted unit 90 and stored in the RAM 34 of the vehicle-mounted unit 90. Further, in the process of S430 in FIG. 4, the drawing processor 39 adds color data to the image pickup data (detection data) stored in the RAM 34 to generate a computer graphic image. The image captured by the CCD camera 16 may be directly displayed on the display glass panel 40.

本第3実施形態の車載用画像表示装置5によれば、CCDカメラ16により実際の周囲の状況が撮像されるため、周囲の状況を表すコンピュータグラフィック画像を生成することが容易となる。また、周囲の状況について、より正確にコンピュータグラフィック画像を生成できるため、その画像に基づいて、運転手はより正確に周囲の状況を把握できるようになる。したがって、事故の発生をより確実に防止できるようになる。 According to the in-vehicle image display device 5 of the third embodiment, since the actual surrounding situation is captured by the CCD camera 16, it becomes easy to generate a computer graphic image showing the surrounding situation. In addition, since a computer graphic image of the surrounding situation can be generated more accurately, the driver can grasp the surrounding situation more accurately based on the image. Therefore, the occurrence of an accident can be prevented more reliably.

なお、本第3実施形態においては、CCDカメラ16が状況検出手段に相当している。
以上、本発明の一実施形態について説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の技術範囲内において種々の形態を採ることができる。
In the third embodiment, the CCD camera 16 corresponds to the situation detecting means.
Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various forms can be adopted within the technical scope of the present invention.

例えば、本発明の車載用画像表示装置は、図1に示すような車両(自家用車等)に限らず、バスやタクシー、或いは鉄道車両に用いることもできる。
また、さらに、周囲の状況が音声で運転手に伝えられるようにしてもよい。この場合には、例えば、対象物が存在する場合にその対象物が何であるかという情報や、対象物の大きさ、距離等の情報、或いは対象物との衝突の危険性に関する情報を、音声にて運転手に伝えるように構成することが考えられる。
For example, the in-vehicle image display device of the present invention can be used not only for a vehicle (private vehicle or the like) as shown in FIG. 1, but also for a bus, a taxi, or a railroad vehicle.
Further, the surrounding situation may be conveyed to the driver by voice. In this case, for example, when an object exists, information about what the object is, information such as the size and distance of the object, or information about the risk of collision with the object is voiced. It is conceivable to configure it to inform the driver at.

また、第1実施形態或いは第2実施形態において、検出ユニット80にCCDカメラを組み込むようにしてもよい。そして、この場合には、例えば昼の明るい時間帯には、CCDカメラの撮像データを利用してコンピュータグラフィック画像を生成するようにし、夜の暗い時間帯や天候が悪い時などには、CCDカメラ以外のセンサの検出データを利用するようにするとよい。 Further, in the first embodiment or the second embodiment, the CCD camera may be incorporated in the detection unit 80. In this case, for example, a computer graphic image is generated by using the image pickup data of the CCD camera in the bright time zone of the day, and the CCD camera is used in the dark time zone of the night or when the weather is bad. It is advisable to use the detection data of sensors other than the above.

1…車両、2…フレーム部、5…車載用画像表示装置、10…赤外線センサ、12…ミリ波レーダ、14…超音波センサ、16…CCDカメラ、18…マイクロフォン、20,22…I/O、24…CCDI/F、30…CPU、32…ROM、34…RAM、36…HDD、37…読取装置、38…フレームメモリ、39…描画プロセッサ、40…表示ガラスパネル、42…スピーカ、44…操作部、45…プロジェクタ、50…バス、80…
検出ユニット、90…車載ユニット、95…入出力部。
1 ... Vehicle, 2 ... Frame, 5 ... In-vehicle image display device, 10 ... Infrared sensor, 12 ... Millimeter wave radar, 14 ... Ultrasonic sensor, 16 ... CCD camera, 18 ... Microphone, 20, 22 ... I / O , 24 ... CCDI / F, 30 ... CPU, 32 ... ROM, 34 ... RAM, 36 ... HDD, 37 ... reader, 38 ... frame memory, 39 ... drawing processor, 40 ... display glass panel, 42 ... speaker, 44 ... Operation unit, 45 ... projector, 50 ... bus, 80 ...
Detection unit, 90 ... In-vehicle unit, 95 ... Input / output unit.

Claims (3)

車両に用いられる車載用画像表示装置であって、
前記車両の窓部を少なくとも含む車室内の面である内側面に画像を表示可能に構成された表示手段と、
前記車両の周囲の状況を検出する検出状況手段による検出結果、あるいは画像情報が予め記録されている記録媒体から読み出された画像情報の少なくとも何れかに基づいて、前記表示手段に表示させるための画像データを生成するように構成された画像生成手段と、
前記画像生成手段により生成された画像データが表す画像を、前記表示手段に表示させるように構成された表示制御手段と、
を備える車載用画像表示装置。
An in-vehicle image display device used in vehicles.
A display means configured to be able to display an image on the inner side surface, which is a surface of the vehicle interior including at least the window portion of the vehicle.
To display the image information on the display means based on at least one of the detection result by the detection status means for detecting the situation around the vehicle or the image information read from the recording medium in which the image information is recorded in advance. Image generation means configured to generate image data, and
A display control means configured to display the image represented by the image data generated by the image generation means on the display means, and a display control means.
An in-vehicle image display device.
前記表示手段は、複数の窓部と、前記複数の窓部の間に設けられているピラーとを少なくとも含む範囲である内側面に画像を表示可能に構成されている、
請求項1に記載の車載用画像表示装置。
The display means is configured to be able to display an image on an inner surface which is a range including at least a plurality of windows and a pillar provided between the plurality of windows.
The vehicle-mounted image display device according to claim 1.
前記車両の速度、進行方向、あるいは制動状態の少なくとも何れかを検出するように構成された運転状態検出手段を更に備え、
前記窓部の表示手段は、当該窓を挟んで車両の内部及び外部の景色が視認可能となる窓状態と、車両の内部及び外部からの光を遮断すると共に、前記表示制御手段により画像が表示される表示状態とに切り換え可能に構成されており、
前記表示制御手段は、前記運転状態検出手段による検出結果に応じて、前記表示手段の状態を前記窓状態と前記表示状態との何れかに切り換えるように構成されている、
請求項1又は請求項2に記載の車載用画像表示装置。
Further comprising a driving state detecting means configured to detect at least one of the vehicle's speed, direction of travel, or braking state.
The display means of the window portion blocks the window state in which the inside and outside scenery of the vehicle can be visually recognized across the window and the light from the inside and outside of the vehicle, and displays an image by the display control means. It is configured to be switchable to the display state that is displayed.
The display control means is configured to switch the state of the display means between the window state and the display state according to the detection result by the operation state detection means.
The vehicle-mounted image display device according to claim 1 or 2.
JP2022045123A 2020-04-10 2022-03-22 Vehicle control device and vehicle Pending JP2022075859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022045123A JP2022075859A (en) 2020-04-10 2022-03-22 Vehicle control device and vehicle

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020071253A JP7236656B2 (en) 2020-04-10 2020-04-10 Collision mitigation device and vehicle
JP2021178818A JP7308465B2 (en) 2020-04-10 2021-11-01 In-vehicle image display device and vehicle
JP2022045123A JP2022075859A (en) 2020-04-10 2022-03-22 Vehicle control device and vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021178818A Division JP7308465B2 (en) 2020-04-10 2021-11-01 In-vehicle image display device and vehicle

Publications (1)

Publication Number Publication Date
JP2022075859A true JP2022075859A (en) 2022-05-18

Family

ID=87103411

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021178818A Active JP7308465B2 (en) 2020-04-10 2021-11-01 In-vehicle image display device and vehicle
JP2022045123A Pending JP2022075859A (en) 2020-04-10 2022-03-22 Vehicle control device and vehicle

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021178818A Active JP7308465B2 (en) 2020-04-10 2021-11-01 In-vehicle image display device and vehicle

Country Status (1)

Country Link
JP (2) JP7308465B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0453000A (en) * 1990-06-20 1992-02-20 Takahiro Miura Safety confirming device for vehicle
JPH11115660A (en) * 1997-10-21 1999-04-27 Mazda Motor Corp Obstacle warning device for vehicle
JP2000276696A (en) * 1999-03-26 2000-10-06 Toyota Motor Corp Vehicle collision evading controller
JP2001354089A (en) * 2000-06-12 2001-12-25 Toyota Motor Corp Vehicle collision predicting device and vehicle collision preventing device
JP2002029346A (en) * 2000-07-14 2002-01-29 Hiroyuki Yokozawa System for supporting drive of automobile, and recording medium recorded with program for supporting drive
JP2003182508A (en) * 2001-12-18 2003-07-03 Denso Corp Occupant protecting device for vehicle
JP2003291688A (en) * 2002-04-03 2003-10-15 Denso Corp Display method, driving support device and program
JP2005209019A (en) * 2004-01-23 2005-08-04 Toshiba Corp Apparatus, method and program for obstacle detection
JP2016064829A (en) * 2015-12-28 2016-04-28 エイディシーテクノロジー株式会社 Vehicle control device
JP2017076431A (en) * 2016-12-27 2017-04-20 エイディシーテクノロジー株式会社 Vehicle control device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280B2 (en) * 1992-08-04 1995-09-13 タカタ株式会社 Collision prediction judgment system by neural network
JP2004093167A (en) * 2002-08-29 2004-03-25 Nippon Seiki Co Ltd Object detecting device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0453000A (en) * 1990-06-20 1992-02-20 Takahiro Miura Safety confirming device for vehicle
JPH11115660A (en) * 1997-10-21 1999-04-27 Mazda Motor Corp Obstacle warning device for vehicle
JP2000276696A (en) * 1999-03-26 2000-10-06 Toyota Motor Corp Vehicle collision evading controller
JP2001354089A (en) * 2000-06-12 2001-12-25 Toyota Motor Corp Vehicle collision predicting device and vehicle collision preventing device
JP2002029346A (en) * 2000-07-14 2002-01-29 Hiroyuki Yokozawa System for supporting drive of automobile, and recording medium recorded with program for supporting drive
JP2003182508A (en) * 2001-12-18 2003-07-03 Denso Corp Occupant protecting device for vehicle
JP2003291688A (en) * 2002-04-03 2003-10-15 Denso Corp Display method, driving support device and program
JP2005209019A (en) * 2004-01-23 2005-08-04 Toshiba Corp Apparatus, method and program for obstacle detection
JP2016064829A (en) * 2015-12-28 2016-04-28 エイディシーテクノロジー株式会社 Vehicle control device
JP2017076431A (en) * 2016-12-27 2017-04-20 エイディシーテクノロジー株式会社 Vehicle control device

Also Published As

Publication number Publication date
JP2022009838A (en) 2022-01-14
JP7308465B2 (en) 2023-07-14

Similar Documents

Publication Publication Date Title
JP4740689B2 (en) In-vehicle image display device and in-vehicle device
JP2007052719A5 (en)
JP2018198071A (en) On-vehicle image display device
JP2010183170A (en) Display apparatus for vehicle
JP5426900B2 (en) In-vehicle system
JP5708669B2 (en) Vehicle display device
US20210362597A1 (en) Vehicle control device and vehicle including the same
JP2017076431A (en) Vehicle control device
JP6372556B2 (en) In-vehicle image display device
JP2014078271A (en) On-vehicle image display device
JP2016064829A (en) Vehicle control device
JP6105513B2 (en) Vehicle control device and in-vehicle image display device
JP7236656B2 (en) Collision mitigation device and vehicle
JP2022075859A (en) Vehicle control device and vehicle
WO2023166982A1 (en) Information processing device, information processing method, and mobile object
JP2023137771A (en) Display control device and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220329

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913