JP2005343351A - Drive supporting device - Google Patents

Drive supporting device Download PDF

Info

Publication number
JP2005343351A
JP2005343351A JP2004166696A JP2004166696A JP2005343351A JP 2005343351 A JP2005343351 A JP 2005343351A JP 2004166696 A JP2004166696 A JP 2004166696A JP 2004166696 A JP2004166696 A JP 2004166696A JP 2005343351 A JP2005343351 A JP 2005343351A
Authority
JP
Japan
Prior art keywords
vehicle
driver
index
driving
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004166696A
Other languages
Japanese (ja)
Inventor
Akira Inoue
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004166696A priority Critical patent/JP2005343351A/en
Publication of JP2005343351A publication Critical patent/JP2005343351A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a drive supporting device capable of correctly informing a driver of the surrounding situation of a vehicle. <P>SOLUTION: An objective article identification unit 2 identifies an objective article to be attended by a driver based on the driving view field related data related to the driving view field of the driver of the vehicle which is acquired by a peripheral situation detection unit 1 mounted on the vehicle to detect the peripheral situation. A display unit 3 projects an index to pay attention to the objective article to the driver on a windshield of the vehicle based on the output to indicate the result of identification by the objective article identification unit 2. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両の運転を支援する技術に関し、特に、車両の周囲の状況を運転者に通知する技術に関する。   The present invention relates to a technology for supporting driving of a vehicle, and more particularly to a technology for notifying a driver of a situation around the vehicle.

車両の周囲の状況を運転者に通知する技術に関し、例えば特許文献1には、車両の周囲状況を画像情報として検出する撮像手段と、検出された車両の周囲状況を画面上に画像表示する画像表示手段と、該車両の周囲で該車両に対して相対移動する移動体を検出する移動体検出手段と、該移動体検出手段からの情報に基づいて、該移動体の該画面上での位置を計算し、該画面中の該移動体の存在する画像領域に強調表示を加える強調表示手段とから構成され、この強調表示によって移動体に対する注意喚起を運転者に対して行う車両用周囲状況表示装置が開示されている。   For example, Patent Literature 1 discloses an image pickup unit that detects a vehicle surrounding condition as image information, and an image that displays an image of the detected vehicle surrounding condition on a screen. Display means, moving body detecting means for detecting a moving body that moves relative to the vehicle around the vehicle, and the position of the moving body on the screen based on information from the moving body detecting means And a vehicle surrounding situation display for alerting the driver to the moving body by the highlighting. The highlighting means adds a highlighting to the image area where the moving body is present in the screen. An apparatus is disclosed.

また、例えば特許文献2には走行情報提供装置が開示されている。この装置は、まず、車両周囲の障害物などの存在物と自車両との接触の可能性を判断して重要度に応じた最大警報レベルを設定すると共に、その存在物の方向に基づいて必要注視方向を求める。その一方、アイカメラ等により求められる運転者の視線方向データデータから運転者が現在見ている注視方向を計測する。そして、この必要注視方向と計測注視方向とから運転者が必要注視方向を見ている注視頻度を計測し、注視頻度が大きいときは先の最大警報レベルをより低い警報レベルへ調整しつつ、報知装置により警報を報知するというものである。   For example, Patent Document 2 discloses a travel information providing device. This device first determines the possibility of contact between an obstacle such as an obstacle around the vehicle and the own vehicle, sets a maximum alarm level according to the importance level, and requires it based on the direction of the existence. Find the gaze direction. On the other hand, the gaze direction currently being viewed by the driver is measured from the driver's gaze direction data data obtained by an eye camera or the like. Then, the gaze frequency at which the driver is looking at the necessary gaze direction is measured from the necessary gaze direction and the measured gaze direction, and when the gaze frequency is high, the previous maximum alarm level is adjusted to a lower alarm level, and notification is made. An alarm is notified by the device.

この他、本発明に関連する技術として、例えば特許文献3には、自動車の運転席前方に配設した透過性反射板に表示器の表示像を投影反射させる車両用ヘッド・アップ・ディスプレイ装置についての発明が開示されている。
特許第3431678号公報 特開平7−167668号公報 特開平5−8661号公報
In addition, as a technique related to the present invention, for example, Patent Document 3 discloses a vehicle head-up display device that projects and reflects a display image of a display on a transmissive reflector disposed in front of a driver's seat of an automobile. The invention is disclosed.
Japanese Patent No. 3431678 JP 7-167668 A Japanese Patent Laid-Open No. 5-8661

上掲した文献のうち、特許文献1に開示されている車両用周囲状況表示装置は、強調表示が画面上でなされるため、運転者が当該強調表示を視認するためには、車両前方の光景から当該画面へと視線を移動させる必要があるため、煩わしい上に、車両前方の光景に含まれている移動体の実体と当該画面上における移動体の画像表示との対応関係を運転者が咄嗟に判断するのは容易ではない。   Among the documents listed above, the surrounding state display device for a vehicle disclosed in Patent Document 1 is highlighted on the screen, so that the driver can visually recognize the highlighted display in front of the vehicle. Since it is necessary to move the line of sight from the vehicle to the screen, it is troublesome and the driver needs to know the correspondence between the substance of the moving object included in the scene in front of the vehicle and the image display of the moving object on the screen. It is not easy to judge.

また、特許文献2に開示されている走行情報提供装置においても、視覚表示により警報報知を行う場合には、運転者が警報を視認するためには、車両前方の光景から車室内のディスプレイへと視線を移動させる必要があるため、警報の対象である存在物を運転者が咄嗟に判断することは難しい。
本発明は上述した問題に鑑みてなされたものであり、その解決しようとする課題は、車両の周囲の状況を的確に運転者に通知することである。
Also, in the travel information providing apparatus disclosed in Patent Document 2, when the alarm is notified by visual display, in order for the driver to visually recognize the alarm, from the scene in front of the vehicle to the display in the passenger compartment. Since it is necessary to move the line of sight, it is difficult for the driver to judge the existence object to be alarmed.
The present invention has been made in view of the above-described problems, and a problem to be solved is to accurately notify the driver of the situation around the vehicle.

本発明の態様のひとつである運転支援装置は、車両に搭載され周囲の状況を検出する周囲状況検出手段によって取得された当該車両の運転者の運転視野に関連する運転視野関連データに基づいて、当該運転者が注目すべき注目物体を識別する注目物体識別手段と、前記注目物体識別手段による識別結果を表わす出力に基づいて前記車両のウィンドシールド上に前記運転者に対し当該注目物体に対する注意を喚起させるための指標を映出するディスプレイ手段と、を備えたことを特徴とするものであり、この特徴によって前述した課題を解決する。   A driving support device according to one aspect of the present invention is based on driving visual field related data related to the driving visual field of the driver of the vehicle, which is obtained by the ambient situation detection means that is mounted on the vehicle and detects the surrounding situation. Attention object identification means for identifying an attention object to be noticed by the driver, and attention to the attention object to the driver on the windshield of the vehicle based on an output representing an identification result by the attention object identification means. Display means for projecting an index for arousing, and this feature solves the above-described problems.

なお、上述した本発明に係る運転支援装置において、前記注目物体識別手段は、前記周囲状況検出手段としてのカメラから運転視野関連データとしての画像データの供給を受けて注目物体を識別するように構成されたものであってもよい。
また、前述した本発明に係る運転支援装置において、前記注目物体識別手段は、前記周囲状況検出手段としての超音波センサ、レーザレーダー、又はミリ波レーダーによって検出された物標を表わす運転視野関連データとしての物標検出データの供給を受けて注目物体を識別するように構成されたものであってもよい。
In the driving support device according to the present invention described above, the object-of-interest identifying means is configured to identify an object of interest by receiving image data as driving visual field related data from a camera as the ambient condition detecting means. It may be what was done.
Further, in the driving support apparatus according to the present invention described above, the object-of-interest identifying means includes driving field-related data representing a target detected by an ultrasonic sensor, a laser radar, or a millimeter wave radar as the ambient condition detecting means. The target object detection data may be supplied to identify the target object.

また、前述した本発明に係る運転支援装置において、前記注目物体識別手段は、前記運転者から視認される注目物体の前記ウィンドシールド上での位置を割出す位置演算手段を含んで構成されたものであってもよい。
また、前述した本発明に係る運転支援装置において、前記ディスプレイ手段は、前記ウィンドシールドとしてのフロントウィンドシールド上に前記運転視野内の前記注目物体に対応する位置に合わせて指標を映出するように構成されたものであってもよい。
In the driving support device according to the present invention described above, the object-of-interest identification unit includes a position calculation unit that calculates a position on the windshield of the object of interest visually recognized by the driver. It may be.
Further, in the driving support apparatus according to the present invention described above, the display means displays an index on the front windshield as the windshield in accordance with a position corresponding to the target object in the driving field of view. It may be configured.

また、前述した本発明に係る運転支援装置において、前記ディスプレイ手段は、前記指標として、前記注目物体の周囲を囲むようにして環状の指標を映出するように構成されたものであってもよい。
なお、このとき、前記ディスプレイ手段は、前記指標として、前記注目物体の周囲を囲むようにして金色の環状の指標を映出するように構成されたものであってもよい。
In the driving support apparatus according to the present invention described above, the display unit may be configured to project an annular index as the index so as to surround the object of interest.
At this time, the display means may be configured to project a golden annular index around the object of interest as the index.

また、このとき、前記ディスプレイ手段は、前記指標として、前記環状の指標を明滅する如く映出するように構成されたものであってもよい。   Further, at this time, the display means may be configured to project the annular index so as to blink as the index.

本発明は、以上のように構成されているので、車両の周囲の状況が的確に運転者に通知できるようになるという効果を奏する。   Since this invention is comprised as mentioned above, there exists an effect that the condition of the circumference | surroundings of a vehicle can be notified now correctly to a driver | operator.

以下、本発明の実施の形態を図面に基づいて説明する。
図1は本発明を実施する運転支援装置の原理構成を示している。なお、この運転支援装置は車両に搭載されて使用されるものであり、この車両の運転の作業の支援を運転者に対して行うものである。
周囲状況検出部1は、車両周囲の状況の検出、より具体的には、車両から所定の距離の範囲内に何らかの物体(例えば、他の車両、人、動物、障害物など)が存在するか否かの検出を行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a principle configuration of a driving support apparatus for carrying out the present invention. In addition, this driving assistance device is mounted on a vehicle and used, and assists the driver in driving the vehicle.
The ambient situation detection unit 1 detects the situation around the vehicle, more specifically, whether any object (for example, another vehicle, a person, an animal, an obstacle, etc.) exists within a predetermined distance from the vehicle. Detect whether or not.

注目物体特定部2は、車両の運転者の運転視野を表す運転視野関連データに基づき、周囲状況検出部1によって取得された物体のうち、当該運転者が注目すべきもの(注目物体)の識別を行う。
ディスプレイ部3は、注目物体識別部2による識別結果を表わす出力に基づいて、当該車両のウィンドシールド上に当該運転者に対し当該注目物体に対する注意を喚起させるための指標を映出する。
The object-of-interest specifying unit 2 identifies an object (attention object) to be noticed by the driver among the objects acquired by the surrounding state detection unit 1 based on the driving field-related data representing the driving field of view of the driver of the vehicle. Do.
The display unit 3 displays an index for alerting the driver to the attention object on the windshield of the vehicle based on the output representing the identification result by the attention object identification unit 2.

次に図2について説明する。同図はディスプレイ部3の構造を示している。
光源1から発せられた光は反射板12の作用によってレンズ13へと向かう。レンズ13はこの光を平行光に変換して画像表示素子14に入射させる。
画像表示素子14は例えば液晶シャッタと色フィルタを組み合わせた素子である。画像表示素子14を透過した光はミラー15で反射した後投影レンズ16を通過し、フロントガラス(ウィンドシールド)17に貼着されているコンバイナ(透光性反射板)18に投射される。この結果、画像表示素子14の液晶シャッタに表されている画像が虚像19として運転者10に視認される。
Next, FIG. 2 will be described. The figure shows the structure of the display unit 3.
Light emitted from the light source 1 travels to the lens 13 by the action of the reflector 12. The lens 13 converts this light into parallel light and makes it incident on the image display element 14.
The image display element 14 is, for example, an element that combines a liquid crystal shutter and a color filter. The light transmitted through the image display element 14 is reflected by the mirror 15, passes through the projection lens 16, and is projected onto the combiner (translucent reflector) 18 attached to the windshield (wind shield) 17. As a result, the image displayed on the liquid crystal shutter of the image display element 14 is visually recognized by the driver 10 as the virtual image 19.

つまり、図2に構造を示したこのディスプレイ部3は、いわゆるHUD(ヘッド・アップ・ディスプレイ:Head Up Display )である。
ここで図3について説明する。同図はディスプレイ部3による注意喚起指標の表示例を示しており、車両を運転中の運転者10の視野を描いたものである。
図3の例では、図2における虚像19である環状の指標(指標環21)がディスプレイ部3により映出されていることが示されている。指標環21は注目物体特定部2によって特定された注目物体22を運転者10の視野内において囲むように表示される。このように、運転者10の視野内の注目物体22に連携して指標環21が表示されることにより、運転者10は直接視認している注目物体21に対して特段の注意を払うようになる。また、この指標環21はフロントガラス17に貼着されているコンバイナ(透光性反射板)18で表示されるので、注目物体22を視野内で直ちに認識することができる。従って運転者10は車両内に設置された表示装置に視線を移動させる煩わしさが解消され、また、その表示装置での注意喚起表示の対象である注目物体22をフロントガラス17越しの視野内から特定する判断の手間が解消される。
That is, the display unit 3 whose structure is shown in FIG. 2 is a so-called HUD (Head Up Display).
Here, FIG. 3 will be described. The figure shows a display example of a warning indicator on the display unit 3, and depicts the field of view of the driver 10 who is driving the vehicle.
In the example of FIG. 3, it is shown that the annular index (index ring 21) that is the virtual image 19 in FIG. 2 is projected by the display unit 3. The indicator ring 21 is displayed so as to surround the target object 22 specified by the target object specifying unit 2 within the visual field of the driver 10. As described above, the indicator ring 21 is displayed in cooperation with the target object 22 in the visual field of the driver 10 so that the driver 10 pays special attention to the target object 21 that is directly visually recognized. Become. In addition, since the indicator ring 21 is displayed by a combiner (translucent reflector) 18 attached to the windshield 17, the target object 22 can be immediately recognized in the field of view. Therefore, the driver 10 is free from the trouble of moving his / her line of sight to the display device installed in the vehicle, and the object of attention 22 which is the target of the alert display on the display device can be viewed from the view through the windshield 17. Eliminates the time and effort of identifying.

次に図4について説明する。同図は本発明を実施する運転支援装置の具体的構成の第一の例を示している。
車両30の前方には2台のビデオカメラ31A及び31Bが左右に離れた位置に設置されている。ビデオカメラ31A及び31Bは車両30の周囲の撮像、とりわけ運転者10の運転視野に相当する風景の撮像を行うものであり、図1における周囲状況検出部1として機能する。
Next, FIG. 4 will be described. This figure shows a first example of a specific configuration of the driving support apparatus for carrying out the present invention.
Two video cameras 31A and 31B are installed in front of the vehicle 30 at positions separated left and right. The video cameras 31 </ b> A and 31 </ b> B capture the surroundings of the vehicle 30, particularly the landscape corresponding to the driving field of view of the driver 10, and function as the surrounding state detection unit 1 in FIG. 1.

ビデオカメラ31A及び31Bの各々によって撮像された画像を表現しているアナログ信号はA/D変換器32によってデジタルデータである画像データへと変換された後にCPU33へ送られる。
CPU(Central Processing Unit )33はこの運転支援装置全体の動作を制御する中央演算装置であり、図1における注目物体特定部2として機能する。
An analog signal representing an image picked up by each of the video cameras 31A and 31B is converted into image data which is digital data by the A / D converter 32 and then sent to the CPU 33.
A CPU (Central Processing Unit) 33 is a central processing unit that controls the operation of the entire driving support device, and functions as the target object specifying unit 2 in FIG.

ROM(Read Only Memory)34はCPU33によって実行される制御プログラムが予め格納されている。CPU33はこの制御プログラムをROM34から読み出して実行することによって運転支援装置全体の動作制御が可能となる。
RAM(Random Access Memory)35は、各種のデータの一時的な保存のためのメモリとして、また、CPU33が上述した制御プログラムの実行のために必要な作業用メモリとして、それぞれ使用されるメモリである。
A ROM (Read Only Memory) 34 stores a control program executed by the CPU 33 in advance. The CPU 33 reads out the control program from the ROM 34 and executes it to control the operation of the entire driving support device.
A RAM (Random Access Memory) 35 is a memory used as a memory for temporarily storing various data and as a working memory necessary for the CPU 33 to execute the control program described above. .

D/A36は、CPU33から出力されるデジタルデータである画像データをアナログ信号である画像信号へと変換する。
車両30には図2に示したディスプレイ部3が搭載されている。画像表示素子14は、CPU33から出力された画像データで表されている画像を虚像19として表示して運転者10に視認させる。
The D / A 36 converts image data that is digital data output from the CPU 33 into an image signal that is an analog signal.
The display unit 3 shown in FIG. 2 is mounted on the vehicle 30. The image display element 14 displays the image represented by the image data output from the CPU 33 as the virtual image 19 and causes the driver 10 to visually recognize the image.

次に図5について説明する。同図は、図4のCPU33によって行われる制御処理の処理内容をフローチャートで示したものである。なお、CPU33は、ROM34に格納されている制御プログラムを実行することによってこの制御処理を行うようになる。
この制御処理を開始させると、まずS101において、ビデオカメラ31A及び31Bの各々によって撮像された画像(撮像画像)を表している画像データ(撮像画像データ)をA/D変換器32から取得する処理が行われる。
Next, FIG. 5 will be described. This figure is a flowchart showing the contents of the control process performed by the CPU 33 of FIG. The CPU 33 performs this control process by executing a control program stored in the ROM 34.
When this control process is started, first, in S101, image data (captured image data) representing an image (captured image) captured by each of the video cameras 31A and 31B is acquired from the A / D converter 32. Is done.

続くS102において、撮像画像毎に同位置・同サイズ・同形状である複数の小区画へと各撮像画像を分割する処理が行われる。
S103では、同位置・同サイズ・同形状の小区画に含まれている各撮像画像についての部分撮像画像同士の相関値を小区画毎に算出する処理が行われる。
S104では、前ステップの処理によって算出された各相関値のうちに所定の閾値よりも相関が低いことを示しているものがあるか否かを判定する処理が行われる。ここで、相関の低いことを示しているものが存在する(判定結果がYes)ならばS105に処理を進める。一方、相関の低いことを示しているものが存在しない(判定結果がNo)ならば、S101へと処理を戻して上述した処理が繰り返される。
In subsequent S102, processing for dividing each captured image into a plurality of small sections having the same position, the same size, and the same shape is performed for each captured image.
In S103, a process of calculating the correlation value between the partially captured images for each captured image included in the same section, the same size, and the same section is performed for each section.
In S104, a process is performed to determine whether or not any correlation value calculated by the process in the previous step indicates that the correlation is lower than a predetermined threshold. Here, if there is one indicating that the correlation is low (the determination result is Yes), the process proceeds to S105. On the other hand, if there is no object indicating that the correlation is low (determination result is No), the process returns to S101 and the above-described process is repeated.

このS104の処理において相関が低いと判定された小区画の部分撮像画像には、ビデオカメラ31Aによるものとビデオカメラ31Bによるものとにおいて同一の物体が大きく異なった位置に表されている。ここで、ビデオカメラ31Aとビデオカメラ31Bとは車両30において離れた位置に設置されていることから、これはすなわち、その物体が車両30からかなり近くに位置しているということになる。そこで、この物体を注目物体の候補とする。   In the partially captured images of the small sections determined to have a low correlation in the processing of S104, the same object is represented at greatly different positions in the video camera 31A and the video camera 31B. Here, since the video camera 31 </ b> A and the video camera 31 </ b> B are installed at positions separated from each other in the vehicle 30, this means that the object is located quite close to the vehicle 30. Therefore, this object is set as a target object candidate.

S105では、このようにして検出された注目物体候補の車両30からの距離を算出する処理が行われる。この処理は、広く知られている、いわゆるステレオ撮像装置を用いた距離測定の手法を用いて行う。すなわち、この候補の表されている位置がビデオカメラ31Aによる部分撮像画像とビデオカメラ31Bによる部分撮像画像とにおいてどの程度違っているかを求め、この値に加え、ビデオカメラ31Aと31Bとの間の距離、そしてビデオカメラ31A及び31Bの撮像レンズの焦点距離から三角測量の原理を利用して算出する。   In S105, processing for calculating the distance of the target object candidate detected in this way from the vehicle 30 is performed. This processing is performed using a widely known distance measurement method using a so-called stereo imaging device. That is, how much the position where the candidate is represented differs between the partially captured image by the video camera 31A and the partially captured image by the video camera 31B, and in addition to this value, between the video cameras 31A and 31B. Calculation is performed using the principle of triangulation from the distance and the focal length of the imaging lenses of the video cameras 31A and 31B.

S106では、このようにして算出された距離を、その候補の物体が表されていた小区画に対応付けてRAM35に保存する処理が行われる。
S107では、この制御処理を前回に実行したときにRAM35に保存した距離と、今回の制御処理の実行によって算出された距離とを対応する小区画ごとに比較し、その距離が短くなった区画が存在するか否か、つまり、車両30から見て近づいている候補の物体が存在するか否かを判定する処理が行われる。ここで、この距離が短くなった小区画が存在する(判定結果がYes)ならば、この小区画の画像に表されている物体は注目物体であるとみなし、S108に処理を進める。一方、この距離が短くなった小区画が存在しない(判定結果がNo)ならば、S101へと処理を戻して上述した処理が繰り返される。
In S106, a process of storing the distance calculated in this way in the RAM 35 in association with the small section where the candidate object is represented is performed.
In S107, the distance stored in the RAM 35 when this control process was executed last time and the distance calculated by the execution of the current control process are compared for each corresponding small section, and the section whose distance is shortened is compared. Processing for determining whether or not there is a candidate object approaching from the vehicle 30 is performed. Here, if there is a small section where the distance is short (determination result is Yes), the object represented in the image of the small section is regarded as a target object, and the process proceeds to S108. On the other hand, if there is no small section whose distance is shortened (the determination result is No), the process returns to S101 and the above-described process is repeated.

S108では、このようにして識別された注目物体が、運転者10の視野において、フロントガラス17のどの位置に見えるかを取得する処理が行われる。この処理は、例えば、撮像画像における各小区画の位置と、小区画に含まれる部分画像に対応する風景を運転者10が視認するフロントガラス17における位置との対応関係を示す情報を予めROM34に格納しておき、注目物体が属している小区画についてこの情報を参照するようにすればよい。   In S <b> 108, processing is performed to acquire the position of the windshield 17 in which the target object identified in this way can be seen in the visual field of the driver 10. In this process, for example, information indicating the correspondence between the position of each small section in the captured image and the position on the windshield 17 where the driver 10 visually recognizes the landscape corresponding to the partial image included in the small section is stored in the ROM 34 in advance. It may be stored and this information may be referred to for the small section to which the object of interest belongs.

S109では、S108の処理によって取得されたフロントガラス17の視認位置を囲む指標環21を金色で表示させる画像データを出力してD/A変換器36を経て画像表示素子14へ画像信号を与える処理が行われ、その後はS101へと処理を戻して上述した処理が繰り返される。
なお、このS109の処理において、指標環21を金色で表示させるのは指標環21を目立たせて運転者10の注目を向けさせるためであり、その代わりに、指標環21を他の色で表示させるようにしてもよく、また、指標環21を点滅させるようにしてもよい。また、指標環21の表示に併せて音による警報を発して運転者10に注意を促すようにしてもよい。
In S109, processing is performed for outputting image data for displaying the index ring 21 surrounding the visual recognition position of the windshield 17 obtained in S108 in gold, and providing an image signal to the image display element 14 via the D / A converter 36. After that, the process returns to S101 and the above-described process is repeated.
In the processing of S109, the indicator ring 21 is displayed in gold in order to make the indicator ring 21 stand out and draw attention of the driver 10, and instead, the indicator ring 21 is displayed in another color. Alternatively, the indicator ring 21 may be blinked. In addition, a warning by sound may be issued together with the display of the indicator ring 21 to alert the driver 10.

図4のCPU33が上述した処理を行うことにより、運転者10が注目すべき注目物体の識別が可能となり、更に、その識別結果に基づいて車両30のフロントガラス(ウィンドシールド)17上に運転者10に対し注目物体に対する注意を喚起させる指標環21かが映出される。
次に図6について説明する。同図は本発明を実施する運転支援装置の具体的構成の第二の例を示している。
The CPU 33 in FIG. 4 performs the above-described processing, so that it is possible to identify the object of interest that the driver 10 should pay attention to. The index ring 21 for calling attention to the object of interest to 10 is displayed.
Next, FIG. 6 will be described. This figure shows a second example of the specific configuration of the driving support apparatus for carrying out the present invention.

図6において、図4に示した第一の例と同一の構成要素には同一の符号を付している。
図6に示す第二の例と図4に示した第一の例とは、ビデオカメラ31A及び31B並びにA/D変換器32に代えて、測距センサ41A及び41Bが車両30におけるビデオカメラ31A及び31Bと同様の位置に設置されていることである。
測距センサ41A及び41Bは車両30の前方に位置する注目物体22までの距離を各々測定して測定結果をCPU33へ通知するセンサである。
In FIG. 6, the same components as those in the first example shown in FIG.
In the second example shown in FIG. 6 and the first example shown in FIG. 4, instead of the video cameras 31A and 31B and the A / D converter 32, the distance measuring sensors 41A and 41B are replaced with the video camera 31A in the vehicle 30. And 31B.
The distance measuring sensors 41 </ b> A and 41 </ b> B are sensors that respectively measure the distance to the target object 22 located in front of the vehicle 30 and notify the CPU 33 of the measurement result.

測距センサ41A及び41Bは自らが信号(超音波、レーザ光、電磁波など)を発してからその信号が注目物体22で反射して戻ってくるまでに要する時間を測定し、この測定された時間とその信号の伝達速度とから注目物体22までの距離を算出する。ここで、測距センサ41A及び41Bは車両30において互いに離れた位置に配置されているので、測距センサ41A及び41Bの各々から注目物体22までの距離の違いより、車両30を基準とした注目物体22の相対位置を検出することができる。   The distance measuring sensors 41A and 41B measure the time required for the signal to be reflected by the object of interest 22 and returned after it emits a signal (ultrasonic wave, laser light, electromagnetic wave, etc.). And the distance from the signal transmission speed to the target object 22 is calculated. Here, since the distance measuring sensors 41A and 41B are arranged at positions separated from each other in the vehicle 30, the attention based on the vehicle 30 is based on the difference in distance from each of the distance measuring sensors 41A and 41B to the object of interest 22. The relative position of the object 22 can be detected.

なお、測距センサ41A及び41Bとしては、例えば、超音波センサ、レーザレーダー、又はミリ波レーダーなどが利用可能である。
次に図7について説明する。同図は、図6のCPU33によって行われる制御処理の処理内容をフローチャートで示したものである。なお、CPU33は、ROM34に格納されている制御プログラムを実行することによってこの制御処理を行うようになる。
For example, an ultrasonic sensor, a laser radar, or a millimeter wave radar can be used as the distance measuring sensors 41A and 41B.
Next, FIG. 7 will be described. This figure is a flowchart showing the contents of the control process performed by the CPU 33 of FIG. The CPU 33 performs this control process by executing a control program stored in the ROM 34.

この制御処理を開始させると、まずS201において、測距センサ41A及び41Bの各々によって測定された距離を取得する処理が行われる。
続くS202では、車両30から所定の距離よりも近くに物体が存在するか否か、より具体的には、前ステップの処理によって取得された距離が所定の距離よりも短かったか否かを判定する処理が行われる。ここで、車両30の近くに物体が存在する(判定結果がYes)ならばS203に処理を進める。一方、車両30の近くに物体が存在しない(判定結果がNo)ならばS201へと処理を戻して上述した処理が繰り返される。このS202の処理によって検出された物体は注目物体の候補となる。
When this control process is started, first, in S201, a process of acquiring the distance measured by each of the distance measuring sensors 41A and 41B is performed.
In subsequent S202, it is determined whether or not there is an object closer than a predetermined distance from the vehicle 30, more specifically, whether or not the distance acquired by the processing in the previous step is shorter than the predetermined distance. Processing is performed. If there is an object near the vehicle 30 (the determination result is Yes), the process proceeds to S203. On the other hand, if there is no object near the vehicle 30 (determination result is No), the process returns to S201 and the above-described process is repeated. The object detected by the process of S202 is a candidate for the target object.

S203では、S201の処理によって取得された測距センサ41A及び41Bの各々による測定距離に基づき、その候補の物体の車両30に対する相対位置を前述したようにして検出する処理が行われる。
S204では、その候補の物体までの車両30からの距離、より具体的には例えばS201の処理によって取得された測距センサ41A及び41Bの各々による測定距離の相加平均値、をRAM35に保存する処理が行われる。
In S203, processing for detecting the relative position of the candidate object with respect to the vehicle 30 is performed as described above based on the distance measured by each of the distance measuring sensors 41A and 41B acquired by the processing in S201.
In S204, the distance from the vehicle 30 to the candidate object, more specifically, for example, the arithmetic average value of the distance measured by each of the distance measuring sensors 41A and 41B acquired by the processing of S201 is stored in the RAM 35. Processing is performed.

S205では、この制御処理を前回に実行したときにRAM35に保存した距離と、今回の制御処理の実行によって得られたその候補の物体までの車両30からの距離とを比較し、その距離が短くなったか否か、つまり、車両30から見て近づいている候補の物体が存在するか否かを判定する処理が行われる。ここで、この距離が短くなった(判定結果がYes)ならば、この候補は注目物体であるとみなし、S206に処理を進める。一方、この距離が短くなっていない(判定結果がNo)ならば、S201へと処理を戻して上述した処理が繰り返される。   In S205, the distance stored in the RAM 35 when this control process was executed last time is compared with the distance from the vehicle 30 to the candidate object obtained by executing this control process, and the distance is shortened. A process for determining whether or not there is a candidate object approaching from the vehicle 30 is performed. Here, if this distance is shortened (the determination result is Yes), this candidate is regarded as an object of interest, and the process proceeds to S206. On the other hand, if the distance is not shortened (the determination result is No), the process returns to S201 and the above-described process is repeated.

S206では、このようにして識別された注目物体が、運転者10の視野において、フロントガラス17のどの位置に見えるかを取得する処理が行われる。この処理は、例えば、S203の処理によって検出された相対位置に位置する注目物体を運転者10が視認するときのフロントガラス17におけるその注目物体の位置を幾何学的に算出して取得すればよい。   In S <b> 206, processing is performed to obtain the position on the windshield 17 where the object of interest identified in this way is visible in the visual field of the driver 10. For example, this processing may be obtained by geometrically calculating the position of the target object on the windshield 17 when the driver 10 visually recognizes the target object positioned at the relative position detected by the process of S203. .

S207では、S206の処理によって取得されたフロントガラス17の視認位置を囲む指標環21を金色で表示させる画像データを出力してD/A変換器36を経て画像表示素子14へ画像信号を与える処理が行われ、その後はS201へと処理を戻して上述した処理が繰り返される。
なお、このS207の処理においても、図4のS109処理と同様に、指標環21を他の色で表示させるようにしてもよく、また、指標環21を点滅させるようにしてもよい。また、指標環21の表示に併せて音による警報を発して運転者10に注意を促すようにしてもよい。
In S207, processing is performed to output image data for displaying the index ring 21 surrounding the viewing position of the windshield 17 obtained in S206 in gold, and to provide an image signal to the image display element 14 via the D / A converter 36. After that, the process returns to S201 and the above-described process is repeated.
Also in the process of S207, the index ring 21 may be displayed in another color, or the index ring 21 may be blinked, similarly to the S109 process of FIG. In addition, a warning by sound may be issued together with the display of the indicator ring 21 to alert the driver 10.

図6のCPU33が上述した処理を行うことにより、運転者10が注目すべき注目物体の識別が可能となり、更に、その識別結果に基づいて車両30のフロントガラス(ウィンドシールド)17上に運転者10に対し注目物体に対する注意を喚起させる指標環21かが映出される。
その他、本発明は、上述した実施形態に限定されることなく、本発明の要旨を逸脱しない範囲内で種々の改良・変更が可能である。
The CPU 33 in FIG. 6 performs the above-described processing, so that it is possible to identify the object of interest that the driver 10 should pay attention to. Further, based on the identification result, the driver is placed on the windshield (windshield) 17 of the vehicle 30. The index ring 21 for calling attention to the object of interest to 10 is displayed.
In addition, the present invention is not limited to the above-described embodiments, and various improvements and changes can be made without departing from the scope of the present invention.

本発明を実施する運転支援装置の原理構成を示す図である。It is a figure which shows the principle structure of the driving assistance device which implements this invention. ディスプレイ部の構造を示す図である。It is a figure which shows the structure of a display part. ディスプレイ部による注意喚起指標の表示例を示す図である。It is a figure which shows the example of a display of the alerting parameter | index by a display part. 本発明を実施する運転支援装置の具体的構成の第一の例を示す図である。It is a figure which shows the 1st example of the specific structure of the driving assistance device which implements this invention. 図4のCPUによって行われる制御処理の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the control processing performed by CPU of FIG. 本発明を実施する運転支援装置の具体的構成の第二の例を示す図である。It is a figure which shows the 2nd example of the specific structure of the driving assistance device which implements this invention. 図6のCPUによって行われる制御処理の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the control processing performed by CPU of FIG.

符号の説明Explanation of symbols

1 周囲状況検出部
2 注目物体識別部
3 ディスプレイ部
10 運転者
11 光源
12 反射板
13 レンズ
14 画像表示素子
15 ミラー
16 投影レンズ
17 フロントガラス(ウィンドシールド)
18 コンバイナ(透過性反射板)
19 虚像
21 指標環
22 注目物体
30 車両
31A、31B ビデオカメラ
32 A/D変換器
33 CPU
34 ROM
35 RAM
36 D/A変換器
41A、41B 測距センサ

DESCRIPTION OF SYMBOLS 1 Ambient condition detection part 2 Attention object identification part 3 Display part 10 Driver 11 Light source 12 Reflector 13 Lens 14 Image display element 15 Mirror 16 Projection lens 17 Windshield (windshield)
18 Combiner (Transparent reflector)
19 Virtual Image 21 Index Ring 22 Object of Interest 30 Vehicle 31A, 31B Video Camera 32 A / D Converter 33 CPU
34 ROM
35 RAM
36 D / A converter 41A, 41B Distance sensor

Claims (8)

車両に搭載され周囲の状況を検出する周囲状況検出手段によって取得された当該車両の運転者の運転視野に関連する運転視野関連データに基づいて、当該運転者が注目すべき注目物体を識別する注目物体識別手段と、
前記注目物体識別手段による識別結果を表わす出力に基づいて前記車両のウィンドシールド上に前記運転者に対し当該注目物体に対する注意を喚起させるための指標を映出するディスプレイ手段と、
を備えたことを特徴とする運転支援装置。
Attention for identifying an object of interest to be noticed by the driver based on driving vision related data related to the driving vision of the driver of the vehicle acquired by the surrounding situation detecting means mounted on the vehicle and detecting the surrounding situation Object identification means;
Display means for displaying an index for alerting the driver to the attention object on the windshield of the vehicle based on an output representing an identification result by the attention object identification means;
A driving support apparatus comprising:
前記注目物体識別手段は、前記周囲状況検出手段としてのカメラから運転視野関連データとしての画像データの供給を受けて注目物体を識別するように構成されたものであることを特徴とする請求項1に記載の運転支援装置。   The object of interest identification unit is configured to identify an object of interest by receiving supply of image data as driving visual field related data from a camera as the ambient condition detection unit. The driving support device according to 1. 前記注目物体識別手段は、前記周囲状況検出手段としての超音波センサ、レーザレーダー、又はミリ波レーダーによって検出された物標を表わす運転視野関連データとしての物標検出データの供給を受けて注目物体を識別するように構成されたものであることを特徴とする請求項1に記載の運転支援装置。   The object-of-interest identification means is supplied with target detection data as driving field-related data representing a target detected by an ultrasonic sensor, laser radar, or millimeter wave radar as the ambient condition detection means. The driving support device according to claim 1, wherein the driving support device is configured to identify the vehicle. 前記注目物体識別手段は、前記運転者から視認される注目物体の前記ウィンドシールド上での位置を割出す位置演算手段を含んで構成されたものであることを特徴とする請求項1に記載の運転支援装置。   The said attention object identification means is comprised including the position calculating means which calculates | requires the position on the said windshield of the attention object visually recognized by the said driver | operator. Driving assistance device. 前記ディスプレイ手段は、前記ウィンドシールドとしてのフロントウィンドシールド上に前記運転視野内の前記注目物体に対応する位置に合わせて指標を映出するように構成されたものであることを特徴とする請求項1に記載の運転支援装置。   The display means is configured to project an index in accordance with a position corresponding to the object of interest in the driving field of view on a front windshield as the windshield. The driving support apparatus according to 1. 前記ディスプレイ手段は、前記指標として、前記注目物体の周囲を囲むようにして環状の指標を映出するように構成されたものであることを特徴とする請求項5に記載の運転支援装置。   6. The driving support device according to claim 5, wherein the display means is configured to project an annular index as the index so as to surround the object of interest. 前記ディスプレイ手段は、前記指標として、前記注目物体の周囲を囲むようにして金色の環状の指標を映出するように構成されたものであることを特徴とする請求項5に記載の運転支援装置。   6. The driving support apparatus according to claim 5, wherein the display means is configured to project a golden annular index as the index so as to surround the object of interest. 前記ディスプレイ手段は、前記指標として、前記環状の指標を明滅する如く映出するように構成されたものであることを特徴とする請求項6または7に記載の運転支援装置。

The driving support device according to claim 6 or 7, wherein the display means is configured to project the annular index as blinking as the index.

JP2004166696A 2004-06-04 2004-06-04 Drive supporting device Withdrawn JP2005343351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004166696A JP2005343351A (en) 2004-06-04 2004-06-04 Drive supporting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004166696A JP2005343351A (en) 2004-06-04 2004-06-04 Drive supporting device

Publications (1)

Publication Number Publication Date
JP2005343351A true JP2005343351A (en) 2005-12-15

Family

ID=35496111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004166696A Withdrawn JP2005343351A (en) 2004-06-04 2004-06-04 Drive supporting device

Country Status (1)

Country Link
JP (1) JP2005343351A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007123104A1 (en) * 2006-04-19 2007-11-01 Pioneer Corporation Route guidance device, route guidance method, route guidance program, and recording medium
JP2010120617A (en) * 2008-11-24 2010-06-03 Denso Corp Image forming device, head-up display, and vehicle display
JP2013216315A (en) * 2013-05-14 2013-10-24 Denso Corp Image generation device
WO2014171072A1 (en) * 2013-04-18 2014-10-23 株式会社デンソー Head-up display device
JP2015031703A (en) * 2013-07-31 2015-02-16 セイコーエプソン株式会社 Display device, head-mounted display device, display system, and control method of display device
WO2016129219A1 (en) * 2015-02-09 2016-08-18 株式会社デンソー Vehicle display control device and vehicle display unit
US9857588B2 (en) 2013-08-01 2018-01-02 Seiko Epson Corporation Display device, head mounted display, display system, and control method for display device
US9886796B2 (en) 2013-08-02 2018-02-06 Seiko Epson Corporation Display device, head mounted display, display system, and control method for display device
US10209857B2 (en) 2014-10-10 2019-02-19 Denso Corporation Display control apparatus and display system
JP2020016541A (en) * 2018-07-25 2020-01-30 株式会社デンソー Display controller for vehicles, display control method for vehicles, and control program
WO2023015510A1 (en) * 2021-08-12 2023-02-16 华为技术有限公司 Collision avoidance method and control apparatus

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007123104A1 (en) * 2006-04-19 2007-11-01 Pioneer Corporation Route guidance device, route guidance method, route guidance program, and recording medium
JP2010120617A (en) * 2008-11-24 2010-06-03 Denso Corp Image forming device, head-up display, and vehicle display
WO2014171072A1 (en) * 2013-04-18 2014-10-23 株式会社デンソー Head-up display device
JP2014211542A (en) * 2013-04-18 2014-11-13 株式会社デンソー Head-up display device
US9623751B2 (en) 2013-04-18 2017-04-18 Denso Corporation Head-up display apparatus
JP2013216315A (en) * 2013-05-14 2013-10-24 Denso Corp Image generation device
JP2015031703A (en) * 2013-07-31 2015-02-16 セイコーエプソン株式会社 Display device, head-mounted display device, display system, and control method of display device
US9857588B2 (en) 2013-08-01 2018-01-02 Seiko Epson Corporation Display device, head mounted display, display system, and control method for display device
US9886796B2 (en) 2013-08-02 2018-02-06 Seiko Epson Corporation Display device, head mounted display, display system, and control method for display device
US10209857B2 (en) 2014-10-10 2019-02-19 Denso Corporation Display control apparatus and display system
WO2016129219A1 (en) * 2015-02-09 2016-08-18 株式会社デンソー Vehicle display control device and vehicle display unit
JP2020016541A (en) * 2018-07-25 2020-01-30 株式会社デンソー Display controller for vehicles, display control method for vehicles, and control program
WO2020021842A1 (en) * 2018-07-25 2020-01-30 株式会社デンソー Vehicle display control device, vehicle display control method, control program, and persistent tangible computer-readable medium
WO2023015510A1 (en) * 2021-08-12 2023-02-16 华为技术有限公司 Collision avoidance method and control apparatus

Similar Documents

Publication Publication Date Title
JP5406328B2 (en) VEHICLE DISPLAY DEVICE, ITS CONTROL METHOD AND PROGRAM
US10220778B2 (en) Vehicle-mounted alert system and alert control device
JP5088669B2 (en) Vehicle periphery monitoring device
JP4981566B2 (en) Driving support device and driving support method
JP5277974B2 (en) Driving assistance device
JP2008027309A (en) Collision determination system and collision determination method
JP2010108264A (en) Vehicle periphery monitoring device
JPWO2011108218A1 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2006338594A (en) Pedestrian recognition system
JP2005025692A (en) Vehicle information provision apparatus
JP5855206B1 (en) Transmission display device for vehicle
JP2005343351A (en) Drive supporting device
KR20130037272A (en) Apparatus and method for measuring the flatness of the road
JP2010191793A (en) Alarm display and alarm display method
KR101250566B1 (en) Night vision system and controlling method thereof
JP2004349926A (en) Obstacle detection apparatus and method, and program for obstacle detection
JP2008183933A (en) Noctovision equipment
JP2009154775A (en) Attention awakening device
JP2011191859A (en) Apparatus for monitoring surroundings of vehicle
JP5345992B2 (en) Vehicle periphery monitoring device
JP2018148530A (en) Vehicle display controller, vehicle display system, vehicle display control method, and program
JP2013134597A (en) Obstacle alarm device
JP2007133644A (en) Pedestrian recognition device
JP2007089094A (en) Pedestrian detection device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807