JP4200974B2 - Vehicle display device - Google Patents

Vehicle display device Download PDF

Info

Publication number
JP4200974B2
JP4200974B2 JP2005055895A JP2005055895A JP4200974B2 JP 4200974 B2 JP4200974 B2 JP 4200974B2 JP 2005055895 A JP2005055895 A JP 2005055895A JP 2005055895 A JP2005055895 A JP 2005055895A JP 4200974 B2 JP4200974 B2 JP 4200974B2
Authority
JP
Japan
Prior art keywords
image
alerting
driver
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005055895A
Other languages
Japanese (ja)
Other versions
JP2006240362A (en
Inventor
直之 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2005055895A priority Critical patent/JP4200974B2/en
Publication of JP2006240362A publication Critical patent/JP2006240362A/en
Application granted granted Critical
Publication of JP4200974B2 publication Critical patent/JP4200974B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Instrument Panels (AREA)

Description

本発明は、運転者にとって危険となり得るものを自車の周辺、自車の状況、運転者の状況等に応じて明示して表示する車両用表示装置に関する。   The present invention relates to a vehicular display device that clearly displays a thing that may be dangerous for a driver according to the surroundings of the own vehicle, the situation of the own vehicle, the situation of the driver, and the like.

従来より、赤外線カメラで撮影した映像の中から、運転者にとって危険となり得る対象物(例えば歩行者)を検出し、その対象物を例えば枠で囲んで表示することで、運転者に対象物の存在を認識させる障害物検出装置が提案されている(例えば特許文献1参照)。   Conventionally, an object (for example, a pedestrian) that can be dangerous to the driver is detected from an image captured by an infrared camera, and the object is displayed in a manner surrounded by a frame, for example. An obstacle detection device that recognizes the existence has been proposed (see, for example, Patent Document 1).

この障害物検出装置は、赤外線カメラと、画像処理ユニットと、画像表示装置と、を備えて構成されている。画像処理ユニットは、赤外線カメラで撮影された映像の中から危険となり得る対象物を検出し、その対象物を明示して表示する処理を行う機能を有するものである。   The obstacle detection device includes an infrared camera, an image processing unit, and an image display device. The image processing unit has a function of detecting a target object that may be dangerous from the video captured by the infrared camera, and performing a process of clearly displaying the target object.

具体的に、画像ユニットは、映像中の対象物の形状が、運転者にとって危険となり得るものとしてあらかじめ登録された登録形状に相当するか否かを判定する。対象物の形状が登録形状に相当する場合、画像処理ユニットは、その対象物を例えば枠で囲って映像中に表示する処理を行い、その処理結果を画像表示装置に出力する。そして、画像表示装置は、赤外線カメラで撮影された映像中に、運転者にとって危険となり得る対象物を囲った枠を重畳表示する。   Specifically, the image unit determines whether or not the shape of the object in the video corresponds to a registered shape that is registered in advance as something that can be dangerous for the driver. When the shape of the target object corresponds to the registered shape, the image processing unit performs a process of displaying the target object in a video by surrounding it with a frame, for example, and outputs the processing result to the image display device. Then, the image display device superimposes and displays a frame surrounding an object that may be dangerous for the driver in the video imaged by the infrared camera.

このように、赤外線カメラで撮影された映像中に運転者にとって危険となり得る対象物が存在する場合、その対象物が枠で囲まれて明示されることで、運転者にその存在を気づかせるようにすることができる。
特開2004−106682号公報
In this way, when there is an object that can be dangerous for the driver in the image captured by the infrared camera, the object is clearly indicated by being surrounded by a frame so that the driver can be aware of the presence. Can be.
JP 2004-106682 A

しかしながら、上記従来の技術では、映像中に存在するすべての対象物が検出されると共に、それらすべてに枠が付けられて画一的に表示されていた。つまり、映像中のすべての対象物が枠で囲まれて表示されるため、映像中に複数の枠が表示されてしまい、運転者にとって本当に危険な対象物がどれであるのかがわかりづらくなっていた。また、複数の枠が表示されると、運転者がすべての枠を認識できずに見落としてしまう可能性がある。   However, in the above conventional technique, all the objects present in the video are detected and all of them are displayed with a frame. In other words, since all the objects in the image are displayed surrounded by a frame, multiple frames are displayed in the image, making it difficult to understand which object is really dangerous for the driver. It was. If a plurality of frames are displayed, the driver may not recognize all the frames and may miss them.

さらに、映像中に複数の枠が表示されると、赤外線カメラで撮影された景色が見づらくなり、運転者に煩わしさを与えることとなる。   Furthermore, when a plurality of frames are displayed in the video, it is difficult to see the scenery photographed by the infrared camera, which causes trouble for the driver.

本発明は、上記点に鑑み、赤外線カメラで撮影された映像中に運転者にとって危険となり得る対象物が存在する場合、運転者が運転する状況に合わせてその対象物を明示することができる車両用表示装置を提供することを目的とする。   In the present invention, in view of the above points, when an object that can be dangerous for a driver exists in an image captured by an infrared camera, the vehicle can clearly indicate the object in accordance with a situation in which the driver drives. An object of the present invention is to provide a display device for use.

上記目的を達成するため、請求項1に記載の発明では、自車の前方を撮影するカメラ(10)から入力される映像の中から、運転者にとって危険となり得る対象物(80)を検出すると共に、対象物の少なくとも座標およびサイズのデータを出力する検知部(20)と、自車周辺、自車、運転者、そして対象物の情報をパラメータとして検出すると共に出力する重み検出部(30)と、状態量に応じた重み係数があらかじめ設定されており、状態量と重み係数との関係から、重み検出部で検出された複数の重み付けパラメータにそれぞれ対応する重み係数を用いて、映像に含まれる各対象物に対して重み付け演算を行い、その演算結果の数値がしきい値を超えた場合、対象物を明示して表示するための注意喚起画像(90)を作成する注意喚起部(40)と、カメラで撮影された映像に対して、対象物が存在する位置に注意喚起画像を重ね合わせて画像表示する表示部(50)と、を有し、重み検出部は、運転者の年齢を入力する個人情報入力装置を備えており、注意喚起部は、運転者の年齢に応じた重み係数が設定されていると共に、重み付け演算の際に個人情報入力装置で検出された個人情報である運転者の年齢に応じた重み係数を用いて重み付け演算を行い、その演算結果から対象物の存在を知らせるべきか否かを判定することを特徴としている。 In order to achieve the above object, according to the first aspect of the present invention, an object (80) that may be dangerous for the driver is detected from an image input from a camera (10) that captures the front of the host vehicle. In addition, a detection unit (20) that outputs at least coordinate and size data of the object, and a weight detection unit (30) that detects and outputs information about the vehicle periphery, the vehicle, the driver, and the object as parameters. And a weighting coefficient corresponding to the state quantity is set in advance, and the weighting coefficient corresponding to each of the plurality of weighting parameters detected by the weight detection unit is included in the video based on the relationship between the state quantity and the weighting coefficient. A weighting calculation is performed on each target object, and when the numerical value of the calculation result exceeds a threshold value, a warning image (90) for clearly displaying the target object is generated. Parts (40), against the image photographed by the camera, a display unit for displaying an image by superimposing alert image in a position where the object is present (50), has the weight detection unit is operating A personal information input device for inputting the age of the driver, and the alerting unit is set with a weighting factor according to the age of the driver, and the individual detected by the personal information input device during the weighting calculation A weighting operation is performed using a weighting factor corresponding to the age of the driver, which is information, and it is determined whether or not the presence of the object should be notified from the operation result .

このように、自車に関する情報を重み付けパラメータとして検出してそれぞれに対応する重み係数を用いて重み付け演算すると共に、演算結果から対象物の存在を知らせるべきか否かを判定する。これにより、自車や運転者の状況に応じて、映像中の対象物の存在を知らせるようにすることができる。また、映像中に複数の対象物が存在していたとしても、運転者にとって危険となり得る対象物のみを明示して表示するようにすることができる。したがって、状況に応じて運転者に注意を促すことができる。   In this way, information related to the own vehicle is detected as a weighting parameter, a weighting calculation is performed using the corresponding weighting coefficient, and it is determined whether or not the presence of the object should be notified from the calculation result. Thereby, according to the situation of the own vehicle or the driver, the presence of the object in the video can be notified. Moreover, even if there are a plurality of objects in the video, only the objects that can be dangerous for the driver can be clearly displayed. Therefore, the driver can be alerted according to the situation.

さらに、上記のように映像中に複数の注意喚起画像を表示しないようにすることで、運転者に煩わしさを与えることなくカメラで撮影された景色を表示することができる。   Further, by not displaying a plurality of alert images in the video as described above, it is possible to display the scenery photographed by the camera without bothering the driver.

請求項2に記載の発明では、注意喚起部には、演算結果の数値の大きさに応じて複数の段階の注意喚起処理が設定されており、注意喚起部にて演算結果から運転者に対象物の存在を知らせるべきであると判定されると、演算結果の数値の大きさに該当する段階の注意喚起処理が選択され、その注意喚起処理に基づいて注意喚起画像の画像データが作成されるようになっていることを特徴としている。   In the invention according to claim 2, the alerting unit is set with a plurality of stages of alerting processing according to the magnitude of the numerical value of the computation result, and the alerting unit targets the driver from the computation result. When it is determined that the presence of an object should be notified, a warning process at a stage corresponding to the magnitude of the numerical value of the calculation result is selected, and image data of the warning image is created based on the warning process. It is characterized by that.

このように、演算結果の数値の大きさに応じて複数の段階の注意喚起処理が設定されている。これにより、各段階に応じて、運転者に認識させる度合を複数用意することができる。つまり、運転者に対象物の存在をより早く確実に知らせる注意喚起画像を作成する処理や、対象物の存在を知らせる程度の注意喚起画像を作成する処理を行うことができる。したがって、より状況に応じた注意喚起を行うことができる。   Thus, a plurality of stages of alerting processing are set according to the numerical value of the calculation result. Accordingly, a plurality of degrees to be recognized by the driver can be prepared according to each stage. That is, it is possible to perform a process of creating a warning image that informs the driver of the presence of the target object sooner or a process of creating a warning image that notifies the driver of the presence of the target object. Therefore, it is possible to call attention according to the situation.

請求項3に記載の発明では、検知部では、対象物として移動物体が検出されるようになっており、注意喚起部では、検知部で検出された移動物体の移動方向に応じて異なる重み係数が設定されていることを特徴としている。   In the invention according to claim 3, the detection unit is configured to detect a moving object as an object, and the alerting unit includes a weighting factor that varies depending on the moving direction of the moving object detected by the detection unit. Is set.

このように、移動物体の移動方向に応じて異なる重み係数を設定する。例えば移動物体が自車に近づく場合、移動物体は自車にとって危険となり得るため、重み係数の値を大きく設定する。逆に、移動物体が自車から遠ざかる場合、移動物体は危険ではなくなるので、上記重み係数よりも小さい値を設定する。これにより、注意喚起部にて移動物体の動きに応じた演算結果を求めることができ、その演算結果に応じた段階の注意喚起を行うことができる。   Thus, different weighting factors are set according to the moving direction of the moving object. For example, when the moving object approaches the own vehicle, the moving object may be dangerous for the own vehicle, and therefore the value of the weighting factor is set large. On the contrary, when the moving object moves away from the own vehicle, the moving object is not dangerous, so a value smaller than the weight coefficient is set. Thereby, the calculation part according to the movement of a moving object can be calculated | required in the alerting part, and the alerting of the stage according to the calculation result can be performed.

なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis of each said means shows the correspondence with the specific means as described in embodiment mentioned later.

(第1実施形態)
以下、本発明の第1実施形態について図を参照して説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る車両用表示装置のブロック構成図である。図1に示されるように、車両用表示装置は、赤外線カメラ10と、検知部20と、重み検出部30と、注意喚起部40と、表示部50と、を備えて構成されている。   FIG. 1 is a block diagram of a vehicle display device according to an embodiment of the present invention. As shown in FIG. 1, the vehicle display device includes an infrared camera 10, a detection unit 20, a weight detection unit 30, an alerting unit 40, and a display unit 50.

赤外線カメラ10は、車両前方の映像を撮影するカメラであり、例えば1秒間に30枚の画像を撮影する。これら画像は連続して表示され、運転者に映像として認識される。赤外線カメラ10にて撮影された車両前方の映像の信号は、ビデオ信号であるNTSC信号に変換されてから検知部20および表示部50に出力される。なお、赤外線カメラ10は、本発明のカメラに相当する。   The infrared camera 10 is a camera that captures images in front of the vehicle, and captures, for example, 30 images per second. These images are displayed continuously and recognized as images by the driver. A signal of a video ahead of the vehicle photographed by the infrared camera 10 is converted into an NTSC signal that is a video signal and then output to the detection unit 20 and the display unit 50. The infrared camera 10 corresponds to the camera of the present invention.

検知部20は、赤外線カメラ10で撮影された映像の中から、運転者にとって危険となり得る対象物を検出するものである。具体的に、この検知部20には、マイクロコンピュータが備えられており、あらかじめ運転者にとって危険となり得る対象物の形状が記憶されている。本実施形態では、対象物として人物(歩行者)を検出することとする。この検知部20では、いわゆるパターンマッチングがなされ、赤外線カメラ10にて撮影された映像の中から対象物が検出される。そして、検知部20にて検出された対象物の座標およびサイズが注意喚起部40に出力される。   The detection unit 20 detects an object that can be dangerous for the driver from the image captured by the infrared camera 10. Specifically, the detection unit 20 includes a microcomputer, and stores in advance the shape of an object that can be dangerous for the driver. In this embodiment, a person (pedestrian) is detected as an object. In the detection unit 20, so-called pattern matching is performed, and an object is detected from an image captured by the infrared camera 10. Then, the coordinates and size of the object detected by the detection unit 20 are output to the alerting unit 40.

重み検出部30は、自車の周囲の情報、自車の情報、運転者の情報、および対象物の情報によって表される複数の状態量それぞれを重み付けパラメータとして検出するものである。つまり、運転者にとってどの対象物が危険であるのかを判定するための判定材料として複数の重み付けパラメータを検出して出力するものである。本実施形態では、重み付けパラメータを検出信号とする。以下、それぞれの状況と、それらの状況を検出する手段について説明する。   The weight detection unit 30 detects each of a plurality of state quantities represented by information around the host vehicle, host vehicle information, driver information, and object information as weighting parameters. That is, a plurality of weighting parameters are detected and output as determination materials for determining which object is dangerous for the driver. In this embodiment, the weighting parameter is a detection signal. Hereinafter, each situation and the means for detecting these situations will be described.

車両周囲の状況(状態量)とは、天候、周囲の明るさ、走行道路、対向車やガードレール等の状況を指す。これらの状況を検出するため、重み検出部30は、ワイパースイッチと、コンライトICと、ナビゲーションシステムと、レーダと、を備えている。   The situation (state quantity) around the vehicle refers to the situation such as weather, ambient brightness, traveling road, oncoming vehicle, guardrail, and the like. In order to detect these situations, the weight detection unit 30 includes a wiper switch, a conlight IC, a navigation system, and a radar.

ワイパースイッチは、運転者の視界を確保するため、フロントウィンドシールド等のガラスに付着した雨滴を払拭するためのワイパーの始動および停止を制御するスイッチである。このワイパースイッチが作動または非作動の状態が検出信号として出力される。本実施形態では、ワイパースイッチが非作動の場合が晴れ、作動の場合が雨とされる。   The wiper switch is a switch that controls start and stop of a wiper for wiping raindrops attached to glass such as a front windshield in order to secure a driver's field of view. A state in which the wiper switch is activated or deactivated is output as a detection signal. In this embodiment, when the wiper switch is not operated, it is clear, and when it is operated, it is rained.

コンライトICは、周囲の明るさでヘッドライトの点灯または消灯を制御するICである。このコンライトICの作動または非作動の状態が検出信号として出力される。本実施形態では、コンライトICが作動の場合が明るいとされ、非作動の場合が暗いとされる。   The conlight IC is an IC that controls turning on or off of the headlight with ambient brightness. The operation state or non-operation state of the concrite IC is output as a detection signal. In the present embodiment, it is assumed that when the conlite IC is activated, it is bright, and when it is not activated, it is dark.

ナビゲーションシステムは、内蔵の記憶媒体、例えばDVDに記憶された地図データに基づき、車両が運行している道路に関する地図データを出力するものであり、GPSアンテナを備えている。ナビゲーションシステムは、GPSアンテナから入力された側位信号に基づいて、車両の緯度および経度を特定して車両の現在位置を得て、車両運行に最適な地図データを検索し、その地図データを出力する。したがって、ナビゲーションシステムによって自車の走行場所(市街地や郊外等)が検出信号として出力される。   The navigation system outputs map data relating to a road on which a vehicle is operating based on map data stored in a built-in storage medium such as a DVD, and includes a GPS antenna. The navigation system identifies the latitude and longitude of the vehicle based on the side signal input from the GPS antenna, obtains the current position of the vehicle, searches for the optimal map data for vehicle operation, and outputs the map data To do. Therefore, the travel location (city area, suburb, etc.) of the vehicle is output as a detection signal by the navigation system.

レーダは、車両前方の物体と自車との距離を検出するものである。具体的には、レーダは、パルス変調信号を車両前方に送信すると共に、車両前方に位置する障害物にて反射した反射波を受信する。そして、パルス変調信号を送信してから障害物からの反射波を受信するまでの時間を求め、この時間の半分の値に光速を乗ずることで車両前方の物体と自車との間の距離を得るようになっている。したがって、レーダで検出された距離が検出信号として出力される。   The radar detects a distance between an object in front of the vehicle and the own vehicle. Specifically, the radar transmits a pulse modulation signal in front of the vehicle and receives a reflected wave reflected by an obstacle positioned in front of the vehicle. Then, the time from transmission of the pulse modulation signal to reception of the reflected wave from the obstacle is obtained, and the distance between the object in front of the vehicle and the host vehicle is obtained by multiplying the half of this time by the speed of light. To get. Therefore, the distance detected by the radar is output as a detection signal.

自車の状況(状態量)とは、車速、自車の進行方向、前車追従の状況を指す。これらの状況を検出するため、重み検出部30は、車速センサと、方位センサ、ステアリングセンサおよび上述したナビゲーションシステムと、前車追従ECUと、を備えている。   The state (state quantity) of the own vehicle refers to the vehicle speed, the traveling direction of the own vehicle, and the state of following the front vehicle. In order to detect these situations, the weight detection unit 30 includes a vehicle speed sensor, a direction sensor, a steering sensor, the navigation system described above, and a front vehicle following ECU.

車速センサは、車両の速度を検出するものであり、車両の速度に応じたパルス信号を出力するものである。このパルス信号は車速に変換される。したがって、パルス信号により得られた車速が検出信号として出力される。   The vehicle speed sensor detects a vehicle speed and outputs a pulse signal corresponding to the vehicle speed. This pulse signal is converted into a vehicle speed. Therefore, the vehicle speed obtained from the pulse signal is output as a detection signal.

方位センサは、車両がどの方向に運行しているのかを検出するものであり、例えばヨーレートセンサやジャイロセンサによって構成される。具体的には、方位センサは、ヨーレートセンサにより車両重心を通る鉛直軸まわりの車両回転角を検出し、ジャイロセンサによって道路の傾きを検出し、これらに基づいて車両の運行方向に関する方位信号を出力する。また、ステアリングセンサは、運転者がステアリングを操作したときの操舵角を検出するものである。このステアリングセンサは、例えば、ステアリングギアボックスに備えられ、ステアリングの操舵角に応じた信号を出力する。そして、操舵角信号がステアリングの操舵角に変換される。さらに、上述したナビゲーションシステムは、自車が走行している車線を車線信号として検出する。したがって、方位センサ、ステアリングセンサおよびナビゲーションシステムにより得られた方位信号、操舵角信号、車線信号が検出信号として出力される。   The direction sensor detects in which direction the vehicle is operating, and is composed of, for example, a yaw rate sensor or a gyro sensor. Specifically, the direction sensor detects the vehicle rotation angle around the vertical axis passing through the center of gravity of the vehicle by the yaw rate sensor, detects the inclination of the road by the gyro sensor, and outputs the direction signal related to the driving direction of the vehicle based on these To do. The steering sensor detects the steering angle when the driver operates the steering. This steering sensor is provided in a steering gear box, for example, and outputs a signal corresponding to the steering angle of the steering. Then, the steering angle signal is converted into the steering angle of the steering. Furthermore, the navigation system described above detects the lane in which the host vehicle is traveling as a lane signal. Therefore, the direction signal, the steering angle signal, and the lane signal obtained by the direction sensor, the steering sensor, and the navigation system are output as detection signals.

前車追従ECUは、前走車と自車との車間距離を一定維持しつつ、前走車を追従する制御を行うものであり、運転者によって設定された前車との車間距離、自車の速度等に基づき自車の速度、ブレーキ等を制御する。この前車追従ECUの作動または非作動の状態が検出信号として出力される。   The front vehicle follow-up ECU performs control to follow the preceding vehicle while maintaining a constant distance between the preceding vehicle and the own vehicle. The inter-vehicle distance between the preceding vehicle and the own vehicle set by the driver The vehicle speed, brakes, etc. are controlled based on the vehicle speed. The operating or non-operating state of the front vehicle following ECU is output as a detection signal.

運転者の状況(状態量)とは、運転者の個人情報、疲労、認識有無の状況を指す。これらの状況を検出するため、重み検出部30は、個人情報入力装置と、車載カメラと、を備えている。   The situation of the driver (state quantity) refers to the situation of the driver's personal information, fatigue, and presence / absence of recognition. In order to detect these situations, the weight detection unit 30 includes a personal information input device and an in-vehicle camera.

個人情報入力装置は、運転者の個人情報を入力するための装置である。具体的には、運転者の年齢(ベテラン、初心者)、視力、運動能力等を入力する。本実施形態では、個人情報として年齢を採用する。したがって、個人情報入力装置にて入力された運転者の年齢が検出信号として出力される。なお、将来的に免許証に個人情報が内蔵される場合、免許証の個人情報を読みとるようにしても良い。   The personal information input device is a device for inputting the driver's personal information. Specifically, the driver's age (experienced, beginner), visual acuity, athletic ability, and the like are input. In this embodiment, age is adopted as personal information. Therefore, the age of the driver input by the personal information input device is output as a detection signal. If personal information is built into the license in the future, the personal information of the license may be read.

車載カメラは、運転者の顔を撮影するカメラであり、例えばインストルメントパネルに設置される。この車載カメラは、運転者の顔や目線の動きを撮影し、顔や目線の向きに応じて運転者の疲労、認識有無を検出する。例えば、目線が地面方向を向くと疲労が現れていると言える。また、自車の右左折の際、曲がる方向に顔が向いている場合には認識有無が有ると言える。したがって、車載カメラにて得られた運転者の顔や目線の向きが検出信号として出力される。   The in-vehicle camera is a camera that photographs a driver's face, and is installed, for example, on an instrument panel. This in-vehicle camera images the movement of the driver's face and eyes, and detects the driver's fatigue and presence / absence of recognition according to the direction of the face and eyes. For example, it can be said that fatigue appears when the line of sight faces the ground. In addition, when the vehicle turns right or left, it can be said that there is recognition or non-recognition when the face is facing in a turning direction. Therefore, the direction of the driver's face and eyes obtained with the in-vehicle camera is output as a detection signal.

対象物の状況(状態量)とは、運転者にとって危険となり得る対象物、すなわち歩行者の位置、進行方向の状況を指す。これらの状況を検出するため、重み検出部30にはマイコンが備えられており、このマイコンに検知部20から映像中の対象物の位置(座標)データが入力される。   The situation (state quantity) of the object refers to an object that can be dangerous for the driver, that is, the position of the pedestrian and the situation in the traveling direction. In order to detect these situations, the weight detection unit 30 is provided with a microcomputer, and the position (coordinate) data of the object in the video is input from the detection unit 20 to the microcomputer.

本実施形態では、撮影される自車前方の範囲のうち自車からの距離に応じて範囲をA、B、Cとする。例えば、自車が走行する車線のうち車両前方の道路領域を範囲Aとし、範囲Aを囲う領域(例えば歩道)を範囲B、そして範囲Bを囲う領域(例えば歩道よりも遠い位置)を範囲Cとする。そして、検知部20から入力される対象物の座標が上記範囲のどの範囲に属するのかがマイコンで判定され、対象物が属する範囲が検出信号として出力される。   In the present embodiment, the ranges are A, B, and C according to the distance from the host vehicle in the range ahead of the subject vehicle. For example, the road area ahead of the vehicle in the lane in which the vehicle is traveling is defined as range A, the area surrounding range A (for example, a sidewalk) is range B, and the area surrounding range B (for example, a position farther than the sidewalk) is range C. And Then, it is determined by the microcomputer which range of the above-mentioned range the coordinates of the object input from the detection unit 20 belong, and the range to which the object belongs is output as a detection signal.

また、対象物の座標の変化によって、対象物の行動、すなわち進行方向が検出される。つまり、対象物の進行方向が検出信号として出力される。   Further, the behavior of the object, that is, the traveling direction is detected by the change in the coordinates of the object. That is, the traveling direction of the object is output as a detection signal.

以上のように、各状況が重み検出部30にてそれぞれ検出されて検出信号とされ、検出信号がそれぞれ注意喚起部40に出力される。   As described above, each situation is detected by the weight detection unit 30 as a detection signal, and each detection signal is output to the alerting unit 40.

注意喚起部40は、上記状態量に応じた重み係数があらかじめ設定されており、状態量と重み係数との関係から、重み検出部30で検出された複数の検出信号にそれぞれ対応する重み係数を用いて、映像に含まれる各対象物に対して重み付け演算を行い、検知部20から入力される対象物の座標およびサイズに基づき対象物を明示して表示するための注意喚起画像を作成する処理を行うものである。本実施形態では、注意喚起画像として枠を採用する。   In the alerting unit 40, a weighting factor corresponding to the state quantity is set in advance, and the weighting factor corresponding to each of the plurality of detection signals detected by the weight detecting unit 30 is determined from the relationship between the state quantity and the weighting factor. Processing for performing a weighting operation on each object included in the video and creating a warning image for clearly displaying the object based on the coordinates and size of the object input from the detection unit 20 Is to do. In the present embodiment, a frame is employed as the alert image.

具体的に、上記重み検出部30から注意喚起部40にそれぞれ入力される検出信号には、各状況に応じて重み係数が付与される。つまり、運転者に注意を促すべき状況であるほど、検出信号に付与される重み係数の値は大きくなる。注意喚起部40では、入力される検出信号すべてにそれぞれ重み係数が付与されると共に、それらすべての重み係数が用いられて重み付け演算がなされる。本実施形態では、演算としてすべての重みの積が求められる。そして、その演算結果に応じた注意喚起処理が行われる。   Specifically, a weighting coefficient is assigned to each detection signal input from the weight detection unit 30 to the alerting unit 40 according to each situation. In other words, the value of the weighting factor given to the detection signal increases as the situation in which the driver should be alerted. In the alerting unit 40, weighting coefficients are given to all the input detection signals, and weighting calculation is performed using all the weighting coefficients. In this embodiment, the product of all weights is obtained as an operation. And the alerting process according to the calculation result is performed.

本実施形態では、注意喚起部40でなされる注意喚起処理とは、「高度注意喚起処理」、「低度注意喚起処理」、「注意喚起しない処理」の3パターンである。このうち高度注意喚起および低度注意喚起が行われる際に、注意喚起部40にて対象物を明示して表示するための枠が作成され、重み付けの演算結果から注意喚起しないと判定されると、対象物を囲う枠は作成されない。   In the present embodiment, the alerting process performed by the alerting unit 40 includes three patterns of “advance alerting process”, “low alerting process”, and “not alerting process”. Among these, when high level alert and low level alert are performed, a frame for clearly displaying the target object is created in the alert unit 40, and it is determined that no alert is issued from the calculation result of weighting. The frame surrounding the object is not created.

上記高度注意喚起処理および低度注意喚起処理では、検知部20から入力される対象物の座標およびサイズに基づき、枠の座標、色、サイズ、明るさを示す画像データが作成される。この画像データとは、赤外線カメラ10で撮影される映像のサイズと同じサイズの中に枠のみが描かれたデータである。   In the high-level alerting process and the low-level alerting process, image data indicating the coordinates, color, size, and brightness of the frame is created based on the coordinates and size of the object input from the detection unit 20. This image data is data in which only a frame is drawn in the same size as the size of the video shot by the infrared camera 10.

そして、高度注意喚起の場合、枠の線が太く、赤く、さらに点滅表示されるように枠の画像データが形成される。一方、低度注意喚起の場合、検知部20から入力される対象物の座標およびサイズに基づき、対象物を囲う枠が作成される。   In the case of advanced alerting, the image data of the frame is formed so that the line of the frame is thick, red, and blinking. On the other hand, in the case of low-level alerting, a frame surrounding the object is created based on the coordinates and size of the object input from the detection unit 20.

上記のようにして、重み検出部30から注意喚起部40に入力された検出信号に重み付けがなされ、すべての重み数値の積の結果から注意喚起のパターンが選択される。そして、注意喚起のパターンに応じた枠が作成され、枠が描かれた画像の画像データが表示部50に出力される。また、枠を作成しない場合には、注意喚起部40から表示部50には何も出力されない。   As described above, the detection signal input from the weight detection unit 30 to the alerting unit 40 is weighted, and the alerting pattern is selected from the product of all weight values. Then, a frame corresponding to the alerting pattern is created, and image data of an image in which the frame is drawn is output to the display unit 50. If no frame is created, nothing is output from the alerting unit 40 to the display unit 50.

表示部50は、赤外線カメラ10で撮影された映像を表示するものであり、描画部60と、表示器70と、を備えて構成されている。   The display unit 50 displays an image captured by the infrared camera 10 and includes a drawing unit 60 and a display 70.

描画部60は、赤外線カメラ10から映像信号であるNTSC信号を入力すると共に、そのNTSC信号を表示器70に出力するものである。また、描画部60は、注意喚起部40から枠のみが描画された画像の画像データを入力すると共に、この画像を赤外線カメラ10の映像に重畳表示する処理を行うためのマイコンを備えている。   The drawing unit 60 inputs an NTSC signal that is a video signal from the infrared camera 10 and outputs the NTSC signal to the display unit 70. In addition, the drawing unit 60 includes a microcomputer for inputting image data of an image in which only a frame is drawn from the alerting unit 40 and performing processing for superimposing and displaying the image on the video of the infrared camera 10.

表示器70は、描画部60から入力されるNTSC信号を画像表示するものであり、ヘッドアップディスプレイによって構成されている。図2は、ヘッドアップディスプレイの概略構成図である。また、図3はヘッドアップディスプレイの使用時における模式図である。   The display 70 displays the NTSC signal input from the drawing unit 60 as an image, and is configured by a head-up display. FIG. 2 is a schematic configuration diagram of the head-up display. FIG. 3 is a schematic diagram when the head-up display is used.

図2に示されるように、ヘッドアップディスプレイは、画像の画像光を射出する画像投射器71と、画像投射器71から射出される画像光を反射する平面鏡72と、平面鏡72にて反射した画像光を拡大してフロントウィンドシールドWSに導く拡大鏡73と、拡大鏡73から導かれる画像光を表示するための画像表示部74と、ケース75と、を備えて構成されている。   As shown in FIG. 2, the head-up display includes an image projector 71 that emits image light of an image, a plane mirror 72 that reflects image light emitted from the image projector 71, and an image reflected by the plane mirror 72. A magnifying mirror 73 that expands the light and guides it to the front windshield WS, an image display unit 74 for displaying the image light guided from the magnifying mirror 73, and a case 75 are provided.

画像投射器71は、フロントウィンドシールドWSの画像表示部74に表示される画像の画像光を出力するものであり、光源としてのLEDと、TFT型液晶パネルと、を備えている。このような画像投射器71では、光源から光が発せられ、描画部60からTFT型液晶パネルにNTSC信号が入力されると、TFT型液晶パネルに画像が表示されると共に、その画像の画像光が射出される。   The image projector 71 outputs image light of an image displayed on the image display unit 74 of the front windshield WS, and includes an LED as a light source and a TFT liquid crystal panel. In such an image projector 71, when light is emitted from the light source and an NTSC signal is input from the drawing unit 60 to the TFT liquid crystal panel, an image is displayed on the TFT liquid crystal panel and the image light of the image is displayed. Is ejected.

平面鏡72は、画像投射器71の画像光投射面に対向する位置に配置され、画像投射器71から射出される画像光を反射して拡大鏡73に導く鏡である。この平面鏡72の角度は固定されており、画像投射器71からの画像光を常に拡大鏡73に導く。   The plane mirror 72 is a mirror that is disposed at a position facing the image light projection surface of the image projector 71 and reflects the image light emitted from the image projector 71 to the magnifier 73. The angle of the plane mirror 72 is fixed, and the image light from the image projector 71 is always guided to the magnifier 73.

拡大鏡73は、平面鏡72から導かれる画像光を反射し、この画像光をインストルメントパネルIP上部に設けられた開口部から射出してフロントウィンドシールドWSに導く鏡である。なお、この拡大鏡73の側部には、図示しないギアおよびギアを駆動するモータが備えられており、図示しない操作パネルから信号が入力されると拡大鏡73の角度が変更される。これにより、フロントウィンドシールドWSの画像表示部74に表示される画像の大きさが運転者にとって見やすいように調整できるようになっている。   The magnifying mirror 73 is a mirror that reflects the image light guided from the plane mirror 72 and emits the image light from an opening provided above the instrument panel IP to guide it to the front windshield WS. A side of the magnifying glass 73 is provided with a gear (not shown) and a motor for driving the gear. When a signal is input from an operation panel (not shown), the angle of the magnifying glass 73 is changed. Thereby, the size of the image displayed on the image display unit 74 of the front windshield WS can be adjusted so that it can be easily seen by the driver.

画像表示部74は、拡大鏡73から導かれる画像光を結像させて画像として表示するフロントウィンドシールドWSの内表面に設けられる画像表示領域である。   The image display unit 74 is an image display region provided on the inner surface of the front windshield WS that displays the image light guided from the magnifying glass 73 as an image.

このような表示器70のうち、画像投射器71、平面鏡72、および拡大鏡73はケース75に収納され、図3に示されるように、インストルメントパネルIP内に設置される。   Among such displays 70, the image projector 71, the plane mirror 72, and the magnifying glass 73 are housed in a case 75, and are installed in the instrument panel IP as shown in FIG.

以上が、本実施形態に係る車両用表示装置の構成である。   The above is the configuration of the vehicle display device according to the present embodiment.

次に、上記車両用表示装置の作動について説明する。まず、赤外線カメラ10にて車両前方の映像が撮影されると、その映像の映像信号がNTSC信号として表示部50の描画部60を介して表示器70の画像投射器71に入力される。画像投射器71には映像が表示され、その映像を構成する画像の画像光が画像投射器71から射出される。射出された画像光は、平面鏡72および拡大鏡73を介して、インストルメントパネルIP上部に設けられた開口部から射出され、フロントウィンドシールドWSの内表面上に結像される。具体的には、拡大鏡73は画像投射器71の画像を虚像として形成し、この虚像をフロントウィンドシールドWSの内表面上に結像させている。これにより、運転者はフロントウィンドシールドWSの画像表示部74に表示される画像を視認できるようになっている。   Next, the operation of the vehicle display device will be described. First, when an image in front of the vehicle is captured by the infrared camera 10, the image signal of the image is input as an NTSC signal to the image projector 71 of the display 70 via the drawing unit 60 of the display unit 50. An image is displayed on the image projector 71, and image light of an image constituting the image is emitted from the image projector 71. The emitted image light is emitted from an opening provided in the upper part of the instrument panel IP through the plane mirror 72 and the magnifying mirror 73 and is imaged on the inner surface of the front windshield WS. Specifically, the magnifying glass 73 forms an image of the image projector 71 as a virtual image, and forms this virtual image on the inner surface of the front windshield WS. As a result, the driver can visually recognize the image displayed on the image display unit 74 of the front windshield WS.

続いて、赤外線カメラ10で撮影された映像中に、運転者にとって危険となり得る対象物が映っている場合、運転者や自車の状況に応じた注意喚起を行う処理について説明する。まず、赤外線カメラ10で撮影された映像のNTSC信号が表示部50および検知部20に入力される。   Subsequently, when an object that can be dangerous for the driver is reflected in the video imaged by the infrared camera 10, a process for calling attention according to the situation of the driver or the vehicle will be described. First, the NTSC signal of the video imaged by the infrared camera 10 is input to the display unit 50 and the detection unit 20.

検知部20にNTSC信号が入力されると、パターンマッチングの方法により、赤外線カメラ10にて撮影された映像中から人物の座標およびサイズが検出される。そして、検出された人物の座標およびサイズのデータが注意喚起部40に入力される。このようにしてパターンマッチングがなされる際、映像中に複数の人物を検出した場合、それぞれの座標およびサイズのデータが注意喚起部40に入力される。   When the NTSC signal is input to the detection unit 20, the coordinates and size of the person are detected from the image captured by the infrared camera 10 by the pattern matching method. Then, the detected coordinates and size data of the person are input to the alerting unit 40. When pattern matching is performed in this way, when a plurality of persons are detected in the video, data of respective coordinates and sizes are input to the alerting unit 40.

一方、重み検出部30にて、車両周囲の状況、自車の状況、運転者の状況、および対象物の状況がそれぞれ検出されると共に、それぞれ検出された検出信号が注意喚起部40に入力される。   On the other hand, the weight detection unit 30 detects the situation around the vehicle, the situation of the host vehicle, the situation of the driver, and the situation of the object, respectively, and the detected signals respectively input to the alerting unit 40. The

続いて、各検出信号に応じた重みが付与される。この重みの値はあらかじめ注意喚起部40に設定されており、具体的には図4の表の左欄に示される。図4は、重み検出部30にて検出された各検出信号にそれぞれ重みを設定した表および重み付けの例をそれぞれ示した図である。   Subsequently, a weight corresponding to each detection signal is given. The value of this weight is set in advance in the alerting unit 40, and is specifically shown in the left column of the table of FIG. FIG. 4 is a diagram illustrating a table in which weights are set for the respective detection signals detected by the weight detection unit 30 and examples of weights.

例えば、重み検出部30で対象物(歩行者)の位置が、範囲Aすなわち自車が走行している車道(または車線)上に位置している場合、重みは「10」とされる。また、歩道である範囲Bでは「5」、歩道よりも遠い位置である範囲Cでは「1」とされる。このように、歩行者が自車前方に存在する状況では、その歩行者が属する範囲に応じて、重み付けが異なる。運転者に歩行者の存在をより知らせるべき状況である場合の重みの値は、範囲Aのように大きく設定される。   For example, when the position of the object (pedestrian) is located in the range A, that is, the roadway (or lane) on which the host vehicle is traveling, the weight is set to “10”. Further, “5” is set in the range B which is a sidewalk, and “1” is set in the range C which is a position farther from the sidewalk. Thus, in a situation where a pedestrian is present in front of the host vehicle, the weighting varies depending on the range to which the pedestrian belongs. The value of the weight in a situation where the driver should be informed of the presence of a pedestrian is set large as in range A.

また、重み検出部30で自車が走行している道路が自動車道である場合、歩行者は存在しないので重みは「0」、一般歩道有りである場合の重みは「1」、一般歩道がない場合の重みは「1.5」とされる。このように、自車が自動車道を走行している際には、歩行者の危険はないのでその重みの値は0になっており、一般歩道がない場合のように、自車にとって歩行者が危険となり得る状況では重みの値が1.5になっている。   Further, when the road on which the vehicle is traveling in the weight detection unit 30 is an automobile road, there is no pedestrian, so the weight is “0”, the weight when there is a general walkway is “1”, and the general walkway is When there is no weight, the weight is set to “1.5”. In this way, when the vehicle is traveling on a motorway, there is no danger of pedestrians, so the weight value is 0, and pedestrians for the vehicle as in the case where there is no general sidewalk. In situations where this can be dangerous, the weight value is 1.5.

さらに、歩行者の進行方向が直進の場合、重みは「1」になっている。同様に、自車とは逆向きの場合、歩行者は危険ではないので重みは「0.5」、自車と同じ向きの場合、歩行者は自車にとって危険となり得るので重みは「1.2」になっている。   Furthermore, when the pedestrian travels straight, the weight is “1”. Similarly, the weight is “0.5” when the pedestrian is opposite to the own vehicle because the pedestrian is not dangerous, and the weight is “1. 2 ”.

上記の例のように、重み検出部30にて検出される各検出信号に対し、それぞれ重み付けが設定されている。   As in the above example, weighting is set for each detection signal detected by the weight detection unit 30.

そして、図4の表の左欄に示される重みの値を用いて、右欄の例1〜例3に示されるように、3つの例について重み付け演算、すなわちすべての重みの積を計算した。その結果、例1では演算結果が「12.96」、例2では「2.4」、例3では「1」となった。   Then, using the weight values shown in the left column of the table of FIG. 4, as shown in Examples 1 to 3 in the right column, weighting operations, that is, products of all weights, were calculated for the three examples. As a result, in Example 1, the calculation result was “12.96”, in Example 2, “2.4”, and in Example 3, “1”.

本実施形態では、重み付けの演算結果Aが10<Aである場合、高度注意喚起を行うこととする。同様に、演算結果Aが2≦A<10である場合、低度注意喚起を行うこととする。また、演算結果AがA<2である場合、注意喚起はしないこととする。したがって、注意喚起部40にて演算結果に応じた注意喚起処理がなされる。   In the present embodiment, when the weighted calculation result A is 10 <A, it is assumed that an advanced alert is performed. Similarly, when the calculation result A is 2 ≦ A <10, low-level alerting is performed. Further, when the calculation result A is A <2, alerting is not performed. Therefore, the alerting process according to the calculation result is performed by the alerting unit 40.

具体的に、例1の場合、演算結果は12.96であるので、注意喚起部40にて高度注意喚起処理が行われる。すなわち、検知部20から入力される対象物の座標およびサイズに基づき、対象物を囲う枠が描かれた画像データが作成される。高度注意喚起処理では、対象物を囲う枠が太く、赤く作成される。そして、その枠が点滅表示されるように枠の画像データが作成される。   Specifically, in the case of Example 1, since the calculation result is 12.96, the advanced alerting process is performed by the alerting unit 40. That is, based on the coordinates and size of the object input from the detection unit 20, image data in which a frame surrounding the object is drawn is created. In the advanced alert process, the frame surrounding the object is made thick and red. Then, image data of the frame is created so that the frame is blinked.

また、例2の場合、演算結果は2.4であるので、注意喚起部40にて低度注意喚起処理が行われる。低度注意喚起処理では、対象物を囲う枠が描かれた画像データが作成される。さらに、例3の場合、演算結果は1であるので、注意喚起はなされず、枠の画像データは作成されない。   In the case of Example 2, since the calculation result is 2.4, the low-level attention calling process is performed by the attention calling unit 40. In the low-level alerting process, image data in which a frame surrounding the object is drawn is created. Further, in the case of Example 3, since the calculation result is 1, no alert is made and no frame image data is created.

上記のように、例1および例2の演算結果によって注意喚起部40で作成された枠の画像データは、表示部50の描画部60に入力される。描画部60では、赤外線カメラ10から入力された映像に注意喚起部40から入力された枠の画像を重ね合わせた映像が作成される。そして、その映像のデータが描画部60から表示器70に入力され、図2および図3に示されるようにヘッドアップディスプレイに映像が表示される。   As described above, the frame image data created by the alerting unit 40 based on the calculation results of Example 1 and Example 2 is input to the drawing unit 60 of the display unit 50. In the drawing unit 60, a video is generated by superimposing the frame image input from the alerting unit 40 on the video input from the infrared camera 10. Then, the video data is input from the drawing unit 60 to the display unit 70, and the video is displayed on the head-up display as shown in FIGS.

この様子を図5に示す。図5は、ヘッドアップディスプレイに表示される映像の例を示した図であり、(a)は赤外線カメラ10にて撮影された車両前方の映像を示した図、(b)は(a)の映像中に存在する歩行者を枠で囲った映像を示した図である。   This is shown in FIG. FIG. 5 is a diagram illustrating an example of an image displayed on the head-up display. FIG. 5A is a diagram illustrating an image in front of the vehicle photographed by the infrared camera 10, and FIG. It is the figure which showed the image | video which surrounded the pedestrian who exists in an image | video with the frame.

図5(a)に示されるように、赤外線カメラ10で撮影された映像の中に歩行者80が存在すると、図5(b)に示されるようにその歩行者80を囲う枠90が映像中に表示され、運転者に注意を促すようになっている。このとき、注意喚起度、すなわち高度注意喚起または低度注意喚起に応じて、枠90が強調または単調に表示される。また、図5(b)に示される枠90は、赤外線カメラ10で撮影された映像中に歩行者80が撮影されていたとしても、運転者にとって危険となり得る場合にのみ表示されるため、運転者や自車の状況に合わせて運転者に注意を促すことができる。   As shown in FIG. 5 (a), when a pedestrian 80 is present in an image captured by the infrared camera 10, a frame 90 surrounding the pedestrian 80 is included in the image as shown in FIG. 5 (b). Is displayed to alert the driver. At this time, the frame 90 is emphasized or monotonously displayed according to the alerting degree, that is, the advanced alerting or the low alerting. In addition, since the frame 90 shown in FIG. 5B is displayed only when the pedestrian 80 is captured in the image captured by the infrared camera 10, it can be dangerous for the driver. The driver can be alerted according to the situation of the driver and own vehicle.

なお、検知部20にてパターンマッチングにより人物が検出されなかった場合には、注意喚部40で注意喚起処理はなされず、赤外線カメラ10で撮影された映像が表示部50のヘッドアップディスプレイに表示されることとなる。   When no person is detected by pattern matching in the detection unit 20, the alerting unit 40 does not perform the alerting process, and the image captured by the infrared camera 10 is displayed on the head-up display of the display unit 50. Will be.

以上説明したように、本実施形態では、自車に関する状況を検出して検出結果にそれぞれ重み係数を付与し、これら重み係数を用いて重み付け演算を行う。そして、その演算結果から対象物80の存在を知らせるべきか否かを判定する。これにより、自車や運転者の状況に応じて、映像中の対象物80の存在を知らせるようにすることができる。   As described above, in the present embodiment, the situation related to the own vehicle is detected, weight coefficients are assigned to the detection results, and weighting calculations are performed using these weight coefficients. Then, it is determined from the calculation result whether or not the presence of the object 80 should be notified. Thereby, according to the situation of the own vehicle or the driver, the presence of the object 80 in the video can be notified.

また、映像中に複数の対象物80が存在していたとしても、運転者にとって危険となり得る対象物80のみを明示して表示するようにすることができる。したがって、状況に応じて運転者に注意を促すことができる。さらに、上記のように映像中に複数の枠90を表示しないようにすることで、運転者に煩わしさを与えることなく赤外線カメラ10で撮影された景色を表示することができる。   Further, even if there are a plurality of objects 80 in the video, only the objects 80 that may be dangerous for the driver can be clearly displayed. Therefore, the driver can be alerted according to the situation. Furthermore, by not displaying the plurality of frames 90 in the video as described above, it is possible to display the scenery photographed by the infrared camera 10 without bothering the driver.

本実施形態では、演算結果に応じて複数の段階の注意喚起処理が設定されている。これにより、各段階に応じて、運転者に対象物80の存在をより早く確実に知らせる注意喚起画像を作成する処理や、対象物の存在を知らせる程度の注意喚起画像を作成する処理を行うことができ、より状況に応じた注意喚起を行うことができる。   In this embodiment, a plurality of stages of alerting processing are set according to the calculation result. Thereby, according to each step, processing for creating a warning image for informing the driver of the presence of the target object 80 more quickly and processing for generating a warning image for notifying the presence of the target object is performed. Can be alerted according to the situation.

(他の実施形態)
上記第1実施形態では、高度注意喚起処理において、枠を描画する画像に映像画面全体の色を変える処理を施しても良い。これにより、運転者に歩行者の存在をより確実に認識させることができる。また、映像中に対象物が存在し続ける限り枠90が表示され続けるが、枠90が一定時間表示されると消えるようにしても良い。
(Other embodiments)
In the first embodiment, in the advanced alerting process, a process of changing the color of the entire video screen may be performed on the image for drawing the frame. Thereby, a driver can be made to recognize existence of a pedestrian more certainly. Further, the frame 90 continues to be displayed as long as the object continues to exist in the video, but may disappear when the frame 90 is displayed for a certain period of time.

上記第1実施形態では、映像を表示する手段としてヘッドアップディスプレイを用いているが、映像を表示できるモニタを車両に搭載し、このモニタに赤外線カメラ10で撮影された映像を表示するようにしても構わない。   In the first embodiment, a head-up display is used as means for displaying an image. However, a monitor capable of displaying an image is mounted on the vehicle, and an image captured by the infrared camera 10 is displayed on the monitor. It doesn't matter.

上記第1実施形態では、注意喚起部40で高度注意喚起処理を行う場合、枠90を表示する際にブザーで音を鳴らすようにしても良い。また、映像中に枠90が一定時間以上表示されていなかったときに、突然枠90が表示される際にブザーを鳴らして運転者に枠90の表示を知らせるようにしても良い。   In the said 1st Embodiment, when performing an advanced alerting process in the alerting part 40, when displaying the frame 90, you may make it sound a buzzer. Further, when the frame 90 has not been displayed for a certain time or longer in the video, a buzzer may be sounded when the frame 90 is suddenly displayed to notify the driver of the display of the frame 90.

上記第1実施形態で示された重み検出部30は一例を示すものである。したがって、様々な状況を検出する手段を重み検出部30に追加することができる。また、検出したい事項をユーザが設定できるようにしても良い。   The weight detection unit 30 shown in the first embodiment is an example. Therefore, means for detecting various situations can be added to the weight detection unit 30. Further, the user may be able to set items to be detected.

また、図4に示される各状況に応じた重みの値は一例を示すものであって、自由に設定することができる。   Moreover, the value of the weight according to each situation shown in FIG. 4 shows an example, and can be set freely.

上記第1実施形態では、注意喚起する段階を3段階(高度注意喚起、低度注意喚起、注意喚起しない)としているが、注意喚起する段階はこれに限るものではない。また、運転者がこの段階数を自由に変更できるようにしても良い。また、しきい値を設定し、重み係数を用いた演算結果の数値としきい値とを比較して注意喚起するか否かを判定するようにしても良い。   In the first embodiment, there are three stages of alerting (high alerting, low alerting, and no alerting), but the alerting step is not limited to this. In addition, the driver may be able to freely change the number of stages. Further, a threshold value may be set, and a numerical value of a calculation result using the weighting coefficient may be compared with the threshold value to determine whether or not to call attention.

上記第1実施形態では、運転者にとって危険となり得る対象物として人物について説明したが、この対象物は例えば落下物や駐車車両等、人物以外のものであっても構わない。   In the first embodiment, the person has been described as an object that can be dangerous for the driver. However, the object may be other than a person such as a fallen object or a parked vehicle.

本発明の一実施形態に係る車両用表示装置のブロック構成図である。It is a block block diagram of the display apparatus for vehicles which concerns on one Embodiment of this invention. ヘッドアップディスプレイの概略構成図である。It is a schematic block diagram of a head-up display. ヘッドアップディスプレイの使用時における模式図である。It is a schematic diagram at the time of use of a head-up display. 重み検出部にて検出された各検出信号にそれぞれ重みを設定した表および重み付けの例をそれぞれ示した図である。It is the figure which each showed the example which set the weight to each detection signal detected in the weight detection part, and the example of weighting. ヘッドアップディスプレイに表示される映像の例を示した図であり、(a)は赤外線カメラにて撮影された車両前方の映像を示した図、(b)は(a)の映像中に存在する歩行者を枠で囲った映像を示した図である。It is the figure which showed the example of the image | video displayed on a head up display, (a) is the figure which showed the image | video of the vehicle front image | photographed with the infrared camera, (b) exists in the image | video of (a). It is the figure which showed the image | video which enclosed the pedestrian with the frame.

符号の説明Explanation of symbols

10…赤外線カメラ、20…検知部、30…重み検出部、40…注意喚起部、
50…表示部、60…描画部、70…表示器、80…歩行者、90…枠。
DESCRIPTION OF SYMBOLS 10 ... Infrared camera, 20 ... Detection part, 30 ... Weight detection part, 40 ... Warning part,
50 ... display unit, 60 ... drawing unit, 70 ... indicator, 80 ... pedestrian, 90 ... frame.

Claims (3)

自車の前方を撮影するカメラ(10)と、
前記カメラから入力される映像の中から、運転者にとって危険となり得る対象物(80)を検出すると共に、前記対象物の少なくとも座標およびサイズのデータを出力する検知部(20)と、
前記自車の周囲の情報、前記自車の情報、前記運転者の情報、および前記対象物の情報のうち少なくとも一つの情報によって表される複数の状態量それぞれを重み付けパラメータとして検出する重み検出部(30)と、
前記状態量に応じた重み係数があらかじめ設定されており、前記状態量と前記重み係数との関係から、前記重み検出部で検出された複数の重み付けパラメータにそれぞれ対応する重み係数を用いて、前記映像に含まれる各対象物に対して重み付け演算を行い、その演算結果の数値がしきい値を超えた場合、前記運転者に前記対象物の存在を知らせるべきであると判定し、前記検知部から入力される前記対象物の座標およびサイズに基づいて前記対象物を明示して表示するための注意喚起画像(90)の画像データを出力する注意喚起部(40)と、
前記カメラで撮影された映像に対して、前記対象物が存在する位置に前記注意喚起画像を重ね合わせ、この重ね合わせた画像の画像データを作成する描画部(60)を備え、前記描画部で作成された画像データを画像表示する表示部(50)と、を有し
前記重み検出部は、前記運転者の年齢を入力する個人情報入力装置を備えており、
前記注意喚起部は、前記運転者の年齢に応じた重み係数が設定されていると共に、前記重み付け演算の際に前記個人情報入力装置で検出された個人情報である前記運転者の年齢に応じた重み係数を用いて重み付け演算を行い、その演算結果から前記対象物の存在を知らせるべきか否かを判定することを特徴とする車両用表示装置。
A camera (10) for photographing the front of the vehicle;
A detection unit (20) that detects an object (80) that may be dangerous for a driver from an image input from the camera, and that outputs at least coordinates and size data of the object;
A weight detector for detecting each of a plurality of state quantities represented by at least one of the information around the host vehicle, the host vehicle information, the driver information, and the object information as a weighting parameter. (30),
A weighting factor corresponding to the state quantity is set in advance, and from the relationship between the state quantity and the weighting factor, the weighting factor corresponding to each of a plurality of weighting parameters detected by the weight detection unit is used. When a weighting operation is performed on each object included in the image, and the numerical value of the operation result exceeds a threshold value, it is determined that the driver should be informed of the presence of the object, and the detection unit An alerting unit (40) for outputting image data of an alerting image (90) for explicitly displaying the object based on the coordinates and size of the object input from
A drawing unit (60) that superimposes the alert image on a position where the object is present on a video photographed by the camera and creates image data of the superimposed image. A display unit (50) for displaying the created image data ,
The weight detection unit includes a personal information input device that inputs the age of the driver,
The alerting unit is set with a weighting factor according to the age of the driver, and according to the age of the driver, which is personal information detected by the personal information input device during the weighting calculation. A vehicle display device characterized in that a weighting calculation is performed using a weighting coefficient, and whether or not the presence of the object should be notified is determined from the calculation result .
前記注意喚起部には、前記演算結果の数値の大きさに応じて複数の段階の注意喚起処理が設定されており、前記注意喚起部にて前記演算結果から前記運転者に前記対象物の存在を知らせるべきであると判定されると、前記演算結果の数値の大きさに該当する段階の注意喚起処理が選択され、その注意喚起処理に基づいて注意喚起画像の画像データが作成されるようになっていることを特徴とする請求項1に記載の車両用表示装置。   In the alerting unit, a plurality of stages of alerting processing are set according to the numerical value of the calculation result, and the presence of the target object from the calculation result in the alerting unit to the driver If it is determined that the alerting process should be notified, the alerting process at the stage corresponding to the numerical value of the calculation result is selected, and image data of the alerting image is created based on the alerting process. The vehicle display device according to claim 1, wherein the display device is a vehicle. 前記検知部では、前記対象物として移動物体が検出されるようになっており、前記注意喚起部では、前記検知部で検出された前記移動物体の移動方向に応じて異なる重み係数が設定されていることを特徴とする請求項1または2に記載の車両用表示装置。   In the detection unit, a moving object is detected as the object, and in the alerting unit, a different weighting factor is set according to the moving direction of the moving object detected by the detection unit. The vehicle display device according to claim 1, wherein the display device is a vehicle display device.
JP2005055895A 2005-03-01 2005-03-01 Vehicle display device Expired - Fee Related JP4200974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005055895A JP4200974B2 (en) 2005-03-01 2005-03-01 Vehicle display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005055895A JP4200974B2 (en) 2005-03-01 2005-03-01 Vehicle display device

Publications (2)

Publication Number Publication Date
JP2006240362A JP2006240362A (en) 2006-09-14
JP4200974B2 true JP4200974B2 (en) 2008-12-24

Family

ID=37047207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005055895A Expired - Fee Related JP4200974B2 (en) 2005-03-01 2005-03-01 Vehicle display device

Country Status (1)

Country Link
JP (1) JP4200974B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101796508B1 (en) * 2013-07-05 2017-11-10 주식회사 만도 Apparatus of controlling a vehicle camera and control method thereof
JP2019059245A (en) * 2016-02-05 2019-04-18 マクセル株式会社 Head-up display device and display control method
US20190072955A1 (en) * 2017-09-05 2019-03-07 Delphi Technologies, Inc. Driver alert system for an automated vehicle
JP7433604B1 (en) 2023-06-20 2024-02-20 株式会社 情報システムエンジニアリング Alert system and alert device

Also Published As

Publication number Publication date
JP2006240362A (en) 2006-09-14

Similar Documents

Publication Publication Date Title
CN109484299B (en) Method, apparatus, and storage medium for controlling display of augmented reality display apparatus
JP4385392B2 (en) Vehicle information providing device
US9443429B2 (en) Optimum gaze location on full windscreen display
JP5769163B2 (en) Alarm device
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
JP4872245B2 (en) Pedestrian recognition device
US11318886B2 (en) Interactive safety system for vehicles
RU2724935C1 (en) METHOD AND SYSTEM OF NOTIFICATION OF A LOAD CAR DRIVER
KR101433837B1 (en) Method of operating a night-view system in a vehicle and corresponding night-view system
JP2009040107A (en) Image display control device and image display control system
JP6907920B2 (en) Automatic driving support device
JP3941770B2 (en) Collision possibility judgment device
WO2013115241A1 (en) Device for alerting vehicle driver and method for same
JP2007006006A (en) Onboard information display device and onboard information display method
US20090153662A1 (en) Night vision system for recording and displaying a surrounding area
JP4186749B2 (en) Armpit judging device
JP4200974B2 (en) Vehicle display device
JP2007038911A (en) Alarm device for vehicle
JP4277678B2 (en) Vehicle driving support device
JP5003473B2 (en) Warning device
JP2005284975A (en) Traveling safety device
RU2706757C1 (en) Control method and unit for rear view
JP5251673B2 (en) Vehicle display device
JP7043795B2 (en) Driving support device, driving status information acquisition system, driving support method and program
JP5289920B2 (en) Vehicle alarm device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080929

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111017

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121017

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121017

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131017

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees