JP2006040123A - Recognition support device for vehicle - Google Patents

Recognition support device for vehicle Download PDF

Info

Publication number
JP2006040123A
JP2006040123A JP2004221787A JP2004221787A JP2006040123A JP 2006040123 A JP2006040123 A JP 2006040123A JP 2004221787 A JP2004221787 A JP 2004221787A JP 2004221787 A JP2004221787 A JP 2004221787A JP 2006040123 A JP2006040123 A JP 2006040123A
Authority
JP
Japan
Prior art keywords
image
vehicle
display device
driver
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004221787A
Other languages
Japanese (ja)
Inventor
Shugo Kondo
修五 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004221787A priority Critical patent/JP2006040123A/en
Publication of JP2006040123A publication Critical patent/JP2006040123A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To make a driver properly recognize presence of an object relatively at high risk to his/her own vehicle. <P>SOLUTION: An object image segmentation part 23 segments an image of the object extracted by an object extraction part 21 from image data to be inputted from an outside sensor 12 to generate a segmented image. A segmented image display control part 32 calculates the presence direction of the object viewed from the driver based on information on the presence direction of the object calculated by an object direction calculation part 29 and a detection signal regarding the sense of the driver's head to be outputted from a directional sensor 18. The segmented image display control part 32 outputs the segmented image generated by the object image segmentation part 23 and the information on the presence direction of the object viewed from the driver to a sub-display device 17 at least when it is judged that danger of visibility calculated by a visual inspection danger judgment part 25 exceeds predetermined danger or when it is judged that risk calculated by a risk judgment part 28 exceeds predetermined risk. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両の認知支援装置に関する。   The present invention relates to a vehicle recognition support apparatus.

従来、例えばカメラやレーダにより自車両の外部に存在する物体を検知し、この検知結果に基づき、例えばフロントウィンドシールド上や運転者の頭部に装着した透過型液晶表示装置において、運転者から見て物体に重畳する位置に輝点表示を行う情報表示装置が知られている(例えば、特許文献1参照)。
また、従来、例えば自車両の運転者の死角領域を撮影し、この死角領域の撮影画像を表示装置に表示すると共に、警報音の出力や警報情報を表示装置に重畳することで、死角領域の撮影画像に対して運転者の注意を喚起する車両周辺監視装置が知られている(例えば、特許文献2参照)。
特開平10−246640号公報 特開2001−18717号公報
Conventionally, for example, a camera or a radar detects an object existing outside the host vehicle, and based on the detection result, the driver sees, for example, a transmissive liquid crystal display device mounted on the front windshield or on the driver's head. There is known an information display device that displays a bright spot at a position superimposed on an object (see, for example, Patent Document 1).
Conventionally, for example, a blind spot area of a driver of the host vehicle is photographed, and a captured image of the blind spot area is displayed on a display device, and an alarm sound output and warning information are superimposed on the display device, thereby A vehicle periphery monitoring device that alerts a driver to a captured image is known (for example, see Patent Document 2).
Japanese Patent Laid-Open No. 10-246640 JP 2001-18717 A

ところで、上記従来技術に係る装置においては、単に、運転者の視線位置が自車両の外部の物体や死角領域に無い場合に、運転者の注意を促す輝点表示や警報出力を行うだけでは、例えば相対的に交通量の多い走行路等において過剰な輝点表示や警報出力が実行されてしまう虞がある。また、フロントウィンドシールド上や表示画面上において、自車両に対して障害物となりうる物体の周辺位置に輝点表示を行うだけでは、例えば運転者の視線方向に沿って重畳するようにして複数の物体が存在する場合に、これらの複数の物体に対して輝点表示が行われることになり、複数の物体の何れが自車両に対して危険度が高いかを運転者に瞬時に認識させることができないという問題が生じる。
本発明は上記事情に鑑みてなされたもので、自車両に対して相対的に危険度の高い物体の存在を運転者に適切に認識させることが可能な車両の認知支援装置を提供することを目的とする。
By the way, in the device according to the above-described prior art, when the driver's line-of-sight position is not in an object outside the host vehicle or the blind spot area, simply performing a bright spot display and an alarm output to alert the driver, For example, there is a risk that excessive bright spot display or warning output may be executed on a road with a relatively heavy traffic. Further, on the front windshield or on the display screen, if only bright spots are displayed at positions around an object that can be an obstacle to the host vehicle, for example, a plurality of points are superimposed so as to be superimposed along the driver's line of sight. When there is an object, bright spots are displayed on these multiple objects, and the driver can instantly recognize which of the multiple objects is more dangerous than the host vehicle. The problem that cannot be done.
The present invention has been made in view of the above circumstances, and provides a vehicle recognition support device that can allow a driver to appropriately recognize the presence of an object having a relatively high degree of danger with respect to the host vehicle. Objective.

上記課題を解決して係る目的を達成するために、請求項1に記載の本発明の車両の認知支援装置は、自車両の外部を撮影する撮影手段(例えば、実施の形態での外界撮影カメラ12a)と、自車両の内部に設けられた表示装置(例えば、実施の形態での前方表示装置15、後方表示装置16)と前記撮影手段の撮影により得られる撮影画像を前記表示装置に表示する車両の認知支援装置であって、前記撮影手段の撮影により得られる撮影画像から対象物を抽出する対象物抽出手段(例えば、実施の形態での対象物抽出部21)と、前記対象物抽出手段にて抽出された対象物の画像を前記撮影画像から切り出す画像切出手段(例えば、実施の形態での対象物画像切出部23)と、前記対象物の自車両に対する危険度を判定する危険度判定手段(例えば、実施の形態での危険度判定部28)と、前記表示装置とは異なる位置に設けられた副表示装置(例えば、実施の形態での副表示装置17)とを備え、前記危険度判定手段にて判定された危険度が、予め設定した所定値を超えた場合に前記画像切出手段にて切り出した対象物の画像を前記副表示装置に表示することを特徴としている。   In order to solve the above-described problems and achieve the object, the vehicle recognition support apparatus according to the first aspect of the present invention is a photographing means for photographing the outside of the own vehicle (for example, an outside-field photographing camera in the embodiment). 12a), and a display device (for example, the front display device 15 and the rear display device 16 in the embodiment) provided in the own vehicle and a photographed image obtained by photographing by the photographing means are displayed on the display device. An object recognition support device for a vehicle, the object extracting means for extracting an object from a photographed image obtained by photographing by the photographing means (for example, the object extracting unit 21 in the embodiment), and the object extracting means Image cutting means (for example, the object image cutting unit 23 in the embodiment) that cuts out the image of the object extracted in step S1 from the captured image, and the risk of determining the risk of the object with respect to the host vehicle Degree determination means ( For example, the risk determination unit 28) in the embodiment and a sub display device (for example, the sub display device 17 in the embodiment) provided at a position different from the display device, the risk determination When the degree of risk determined by the means exceeds a predetermined value set in advance, an image of the object cut out by the image cut-out means is displayed on the sub-display device.

上記構成の車両の認知支援装置によれば、撮影手段の撮影により得られる撮影画像を表示する表示装置に加えて副表示装置を備え、危険度が所定値を超えた場合に、対象物抽出手段にて抽出された対象物の切出画像を副表示装置に表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。   According to the vehicle recognition support device having the above-described configuration, in addition to the display device that displays the captured image obtained by the photographing of the photographing unit, the auxiliary display device is provided, and when the degree of danger exceeds a predetermined value, the object extraction unit By displaying the cut-out image of the object extracted in step 3 on the sub-display device, it is possible to prevent the driver from overlooking or mistaken the object and to recognize the object by the driver. Can be supported accurately.

さらに、請求項2に記載の本発明の車両の認知支援装置では、前記副表示装置は運転者の頭部に装着されることを特徴としている。   Furthermore, in the vehicle recognition support device according to the second aspect of the present invention, the auxiliary display device is mounted on a driver's head.

上記構成の車両の認知支援装置によれば、運転者の頭部の向きが変化する場合であっても、副表示装置の表示内容を運転者に常に視認させることができる。   According to the vehicle recognition support device having the above-described configuration, even if the orientation of the driver's head changes, the display content of the sub-display device can always be visually recognized by the driver.

さらに、請求項3に記載の本発明の車両の認知支援装置は、対象物が存在する方向を検知する方向検知手段(例えば、実施の形態での方向センサ18および対象物方向算出部29および切出画像表示制御部32)を備え、前記画像切出手段にて切り出した対象物の画像と共に、前記方向検知手段にて検知した方向を、前記副表示装置に表示することを特徴としている。   Furthermore, the vehicle recognition support apparatus according to the third aspect of the present invention is directed to direction detection means for detecting the direction in which the object is present (for example, the direction sensor 18 and the object direction calculation unit 29 in the embodiment, and the switching unit). And a direction detected by the direction detection unit together with the image of the object cut out by the image cutout unit.

上記構成の車両の認知支援装置によれば、自車両に対する対象物の相対位置が変化する場合であっても、対象物の実際の位置を運転者に的確に認識させることができる。   According to the vehicle recognition support apparatus having the above-described configuration, even if the relative position of the target object with respect to the host vehicle changes, the driver can accurately recognize the actual position of the target object.

さらに、請求項4に記載の本発明の車両の認知支援装置は、前記対象物を拡大撮影あるいは前記対象物の画像を拡大可能な拡大画像取得手段(例えば、実施の形態での拡大画像取得部22)を備えることを特徴としている。   Furthermore, the vehicle recognition support apparatus according to the fourth aspect of the present invention is an enlarged image acquisition unit (for example, an enlarged image acquisition unit according to an embodiment) capable of enlarging an image of the object or enlarging an image of the object. 22).

上記構成の車両の認知支援装置によれば、対象物抽出手段にて抽出された対象物の拡大画像を、表示装置や副表示装置に表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。   According to the vehicle recognition support apparatus configured as described above, the driver may miss an object by displaying an enlarged image of the object extracted by the object extraction unit on the display device or the sub display device. Thus, it is possible to prevent the driver from making a mistake and to accurately support the recognition operation of the object by the driver.

本発明の車両の認知支援装置によれば、対象物抽出手段にて抽出された対象物の切出画像を副表示装置に表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。
さらに、請求項2に記載の発明の車両の認知支援装置によれば、運転者の頭部の向きが変化する場合であっても、副表示装置の表示内容を運転者に常に視認させることができる。
さらに、請求項3に記載の発明の車両の認知支援装置によれば、自車両に対する対象物の相対位置が変化する場合であっても、対象物の実際の位置を運転者に的確に認識させることができる。
さらに、請求項4に記載の発明の車両の認知支援装置によれば、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。
According to the vehicle recognition support apparatus of the present invention, the driver can overlook the object or make a mistake by displaying the cut-out image of the object extracted by the object extraction unit on the sub-display device. It is possible to accurately support the driver's recognition of the object.
Furthermore, according to the vehicle recognition support device of the invention described in claim 2, even if the orientation of the driver's head changes, the driver can always make the display content of the sub-display device visible. it can.
Furthermore, according to the vehicle recognition support device of the invention described in claim 3, even if the relative position of the object with respect to the host vehicle changes, the driver can accurately recognize the actual position of the object. be able to.
Furthermore, according to the vehicle recognition support device of the invention described in claim 4, it is possible to prevent the driver from overlooking the object or to make a mistake, thereby accurately recognizing the object by the driver. Can help.

以下、本発明の一実施形態に係る車両の認知支援装置について添付図面を参照しながら説明する。
本実施の形態による車両の認知支援装置10は、例えば図1に示すように、自車両の外界を検出するためにCPU等を含む電子回路により構成された処理装置11と、外界センサ12と、対象物センサ13と、車両状態量センサ14と、前方表示装置15と、後方表示装置16と、副表示装置17と、方向センサ18とを備えて構成されている。
Hereinafter, a vehicle recognition support apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings.
For example, as shown in FIG. 1, the vehicle recognition support device 10 according to the present embodiment includes a processing device 11 configured by an electronic circuit including a CPU and the like, and an external sensor 12 for detecting the external environment of the host vehicle, The object sensor 13, the vehicle state quantity sensor 14, the front display device 15, the rear display device 16, the sub display device 17, and the direction sensor 18 are configured.

外界センサ12は、例えば可視光領域や赤外線領域にて撮像可能なCCDカメラやC−MOSカメラ等からなる外界撮影カメラ12aおよび画像処理部12bを備えて構成されている。
外界撮影カメラ12aは、例えばフロントウィンドウ越しに自車両の進行方向前方および側方の所定検知範囲の外界を撮影する前方撮影用のカメラや、例えばリアウィンドウ越しに自車両の進行方向後方および側方の所定検知範囲の外界を撮影する後方撮影用のカメラ等を備えて構成されている。
画像処理部12bは、外界撮影カメラ12aにより撮影して得た撮影画像に対して、例えばフィルタリングや二値化処理等の所定の画像処理を行い、二次元配列の画素からなる画像データを生成して処理装置11へ出力する。
The external sensor 12 includes an external camera 12a and an image processing unit 12b, which are composed of, for example, a CCD camera or a C-MOS camera that can capture images in the visible light region or the infrared region.
The external shooting camera 12a is, for example, a camera for front shooting that captures the outside of a predetermined detection range in front and side of the traveling direction of the host vehicle through the front window, and rear and side of the traveling direction of the host vehicle through the rear window, for example. The camera is configured to include a rear-facing camera that captures the outside of the predetermined detection range.
The image processing unit 12b performs predetermined image processing such as filtering and binarization processing on the captured image obtained by capturing with the external imaging camera 12a, and generates image data including a two-dimensional array of pixels. To the processing device 11.

対象物センサ13は、例えば可視光領域や赤外線領域にて撮像可能なCCDカメラやC−MOSカメラ等からなる対象物撮影カメラ13aおよび画像処理部13bを備えて構成され、処理装置11から入力される制御信号に応じて、検知範囲を変更可能であり、さらに、この検知範囲内の対象物を適宜の倍率で撮影可能である。
対象物撮影カメラ13aは、例えばフロントウィンドウやリアウィンドウ越しに自車両の外界に存在する適宜の対象物を撮影する。
画像処理部13bは、対象物撮影カメラ13aにより撮影して得た撮影画像に対して、例えばフィルタリングや二値化処理等の所定の画像処理を行い、二次元配列の画素からなる画像データを生成して処理装置11へ出力する。
The object sensor 13 includes, for example, an object photographing camera 13a and an image processing unit 13b made up of a CCD camera, a C-MOS camera, or the like that can image in the visible light region or the infrared region, and is input from the processing device 11. The detection range can be changed according to the control signal, and the object within the detection range can be photographed at an appropriate magnification.
The object photographing camera 13a photographs an appropriate object existing in the external environment of the host vehicle through, for example, a front window or a rear window.
The image processing unit 13b performs predetermined image processing such as filtering and binarization processing on a captured image obtained by capturing with the object photographing camera 13a, and generates image data including pixels in a two-dimensional array. And output to the processing device 11.

車両状態量センサ14は、例えば人工衛星を利用して自車両の位置を測定するためのGPS(Global Positioning Systems)信号等の測位信号や自車両の外部の情報発信装置から発信される位置信号の受信や、例えば道路上に配置された基点マーカとの磁気作用等によって自車両の現在位置を検知する位置センサや、自車両の走行状態に係る車両状態量を検出するセンサ、例えば車速センサ、舵角センサ等を備えて構成され、各装置およびセンサから出力される検出信号は処理装置11へ出力されている。
なお、車速センサは、例えば車輪の回転速度等に基づいて所定の単位処理時間毎における車両移動距離つまり自車両の速度(車速)を検出し、舵角センサは、例えばステアリングシャフト(図示略)に設けられたロータリエンコーダ等からなり、運転者が入力した操舵角度の方向と大きさを検出する。ジャイロセンサは、水平面内での自車両の向きや鉛直方向に対する傾斜角度(例えば、車両重心の上下方向軸回りの回転角であるヨー角等)および傾斜角度の変化量(例えば、ヨーレート)等を検出する。
The vehicle state quantity sensor 14 is a positioning signal such as a GPS (Global Positioning Systems) signal for measuring the position of the host vehicle using an artificial satellite, or a position signal transmitted from an information transmitter outside the host vehicle. A position sensor that detects the current position of the host vehicle by reception, for example, a magnetic action with a base point marker disposed on the road, or the like, a sensor that detects a vehicle state quantity related to the traveling state of the host vehicle, such as a vehicle speed sensor, a rudder A detection signal output from each device and sensor is output to the processing device 11.
The vehicle speed sensor detects, for example, the vehicle travel distance per predetermined unit processing time, that is, the speed (vehicle speed) of the host vehicle based on, for example, the rotational speed of the wheels, and the steering angle sensor is, for example, a steering shaft (not shown). It consists of a provided rotary encoder or the like, and detects the direction and magnitude of the steering angle input by the driver. The gyro sensor indicates the direction of the host vehicle in a horizontal plane, a tilt angle with respect to the vertical direction (for example, a yaw angle that is a rotation angle about the vertical axis of the center of gravity of the vehicle), a change amount of the tilt angle (for example, a yaw rate), and the like. To detect.

前方表示装置15は、例えば図2に示すように、車室内のインストルメントパネルの上部に配置された液晶表示装置等であって、外界撮影カメラ12aの撮影により得られた画像データのうち、特に、自車両の進行方向前方および側方の所定検知範囲の外界の画像データを表示すると共に、後述するように、処理装置11での制御処理に応じて対象物撮影カメラ13aの撮影により得られた画像データを表示する。
後方・側方表示装置16は、例えば図2に示すように、ルーフパネル前方部の車室内側でルームミラー近傍の位置に配置された液晶表示装置等であって、外界撮影カメラ12aの撮影により得られた画像データのうち、特に、自車両の進行方向後方および側方の所定検知範囲の外界の画像データを表示すると共に、後述するように、処理装置11での制御処理に応じて対象物撮影カメラ13aの撮影により得られた画像データを表示する。
なお、後方・側方表示装置16には、例えば、運転者がルームミラーを介して自車両の後方を視認する状態と同等の状態を想定して、外界撮影カメラ12aの後方撮影用のカメラの撮影により得られた撮影画像に対して鏡映変換を行って得た画像が表示される。
For example, as shown in FIG. 2, the front display device 15 is a liquid crystal display device or the like disposed on the upper part of the instrument panel in the vehicle interior, and among the image data obtained by photographing with the external photography camera 12 a, In addition to displaying image data of the outside world in a predetermined detection range forward and sideward in the traveling direction of the host vehicle, as described later, it was obtained by photographing with the object photographing camera 13a in accordance with control processing in the processing device 11. Display image data.
For example, as shown in FIG. 2, the rear / side display device 16 is a liquid crystal display device or the like disposed at a position near the room mirror on the vehicle interior side of the front portion of the roof panel. Among the obtained image data, in particular, the image data of the outside of the predetermined detection range behind and in the direction of travel of the host vehicle is displayed, and an object according to the control processing in the processing device 11 as described later. The image data obtained by photographing with the photographing camera 13a is displayed.
Note that the rear / side display device 16 is provided with a camera for rearward shooting of the external camera 12a, assuming a state equivalent to a state in which the driver visually recognizes the rear of the host vehicle through the rearview mirror. An image obtained by performing mirror conversion on the captured image obtained by photographing is displayed.

副表示装置17は、例えば図3に示すように、運転者Dの頭部に装着可能なヘッドセット19の先端部に配置された液晶表示装置等であって、後述するように、外界撮影カメラ12aの撮影により得られた画像データのうち、処理装置11にて切り出された切出画像を表示する。
そして、ヘッドセット19には、例えばジャイロセンサ等からなる方向センサ18が備えられ、方向センサ18から出力される検出信号は処理装置11へ出力されている。この検出信号は、ヘッドセット19を装着した運転者Dの頭部の向きを検知する処理において利用される。
For example, as shown in FIG. 3, the sub display device 17 is a liquid crystal display device or the like disposed at the tip of a headset 19 that can be mounted on the head of the driver D. Of the image data obtained by shooting 12a, the cut image cut out by the processing device 11 is displayed.
The headset 19 is provided with a direction sensor 18 including, for example, a gyro sensor, and a detection signal output from the direction sensor 18 is output to the processing device 11. This detection signal is used in processing for detecting the direction of the head of the driver D wearing the headset 19.

処理装置11は、対象物抽出部21と、拡大画像取得部22と、対象物画像切出部23と、標識判定部24と、視認難易度判定部25と、自車両移動状態算出部26と、対象物移動状態算出部27と、危険度判定部28と、対象物方向算出部29と、合成画像生成部30と、画像表示制御部31と、切出画像表示制御部32とを備えて構成されている。   The processing device 11 includes an object extraction unit 21, an enlarged image acquisition unit 22, an object image cutout unit 23, a sign determination unit 24, a visual difficulty determination unit 25, and a host vehicle movement state calculation unit 26. The object movement state calculation unit 27, the risk determination unit 28, the object direction calculation unit 29, the composite image generation unit 30, the image display control unit 31, and the cut-out image display control unit 32 are provided. It is configured.

対象物抽出部21は、外界センサ12から入力される画像データに対して、例えば他車両や歩行者や標識等を検知対象物とした特徴量算出および形状判別等の認識処理を行う。
なお、画像データの認識処理において、特徴量算出の処理では、例えば二値化処理後の画像データに対して、画素の連続性に基づく検知対象物の抽出およびラベリングを行い、抽出した検知対象物の重心および面積および外接四角形の縦横比等を算出する。また、形状判別の処理では、例えば予め記憶している所定パターン(例えば輪郭等)に基づき画像データ上の検索を行い、所定パターンとの類似性に応じて検知対象物を抽出する。
The object extraction unit 21 performs recognition processing such as feature amount calculation and shape determination on the image data input from the external sensor 12 using, for example, another vehicle, a pedestrian, or a sign as a detection object.
In the image data recognition processing, in the feature amount calculation processing, for example, extraction and labeling of detection objects based on pixel continuity is performed on the image data after binarization processing, and the extracted detection objects The center of gravity and area of the image, the aspect ratio of the circumscribed rectangle, and the like are calculated. In the shape determination process, for example, a search on image data is performed based on a predetermined pattern (for example, an outline) stored in advance, and a detection target is extracted according to the similarity to the predetermined pattern.

拡大画像取得部22は、対象物抽出部21にて抽出された対象物の拡大画像を取得するようにして、対象物センサ13の対象物撮影カメラ13aの撮影方向および撮影倍率を指示する制御信号を対象物センサ13へ出力し、対象物撮影カメラ13aの撮影により得られた画像データ、つまり対象物の拡大画像を取得し、画像表示制御部31へ出力する。
対象物画像切出部23は、対象物抽出部21にて抽出された対象物の画像を外界センサ12から入力される画像データから切り出して切出画像を生成し、切出画像表示制御部32へ出力する。
The magnified image acquisition unit 22 acquires a magnified image of the target object extracted by the target object extraction unit 21, and a control signal that instructs the shooting direction and the shooting magnification of the target shooting camera 13 a of the target sensor 13. Is output to the object sensor 13, and image data obtained by photographing with the object photographing camera 13 a, that is, an enlarged image of the object is acquired and output to the image display control unit 31.
The object image cutout unit 23 cuts out the image of the object extracted by the object extraction unit 21 from the image data input from the external sensor 12 to generate a cutout image, and the cutout image display control unit 32. Output to.

標識判定部24は、対象物抽出部21にて抽出された対象物が、例えば案内、警戒、規制、指示、補助等の各標識からなる道路標識であるか否かを判定し、この判定結果を画像表示制御部31へ出力する。
視認難易度判定部25は、外界センサ12から入力される画像データにおいて、照度や色彩のコントラストを検知したり、対象物抽出部21にて抽出された対象物と対象物の周辺領域との間の輪郭部のエッジ画像の形状の複雑度を検知し、これらの検知結果に応じて視認性の難易度を算出する。
例えば、視認難易度判定部25は、照度や色彩のコントラストが低下することに伴い、あるいは、エッジ画像の形状の複雑度が増大することに伴い、視認性の難度が増大傾向に変化するように設定する。そして、視認難易度判定部25は、算出した視認性の難度が、所定難度を超えているか否かを判定し、この判定結果を画像表示制御部31へ出力する。
The sign determination unit 24 determines whether or not the object extracted by the object extraction unit 21 is a road sign composed of signs such as guidance, warning, regulation, instruction, assistance, and the like. Is output to the image display control unit 31.
The visual recognition difficulty level determination unit 25 detects illuminance or color contrast in the image data input from the external sensor 12 or between the target object extracted by the target object extraction unit 21 and the surrounding area of the target object. The complexity of the shape of the edge image of the contour portion is detected, and the difficulty level of visibility is calculated according to the detection results.
For example, the visibility difficulty level determination unit 25 may change the visibility difficulty level to increase as the illuminance or color contrast decreases or as the complexity of the shape of the edge image increases. Set. Then, the visual recognition difficulty level determination unit 25 determines whether the calculated visibility difficulty level exceeds a predetermined difficulty level, and outputs the determination result to the image display control unit 31.

自車両移動状態算出部26は、車両状態量センサ14から出力される測位信号に基づく算出処理や、車両状態量センサ14の車速センサおよびジャイロセンサから出力される検出信号に基づく自律航法の算出処理によって自車両の現在位置を算出する。さらに、自車両移動状態算出部26は、車両状態量センサ14の車速センサおよびジャイロセンサから出力される検出信号(例えば、車速およびヨーレート等)に基づき、自車両の進行軌跡を推定し、危険度判定部28へ出力する。
対象物移動状態算出部27は、対象物抽出部21にて抽出された対象物の画像データ内での位置の変化および自車両移動状態算出部26にて算出された自車両の現在位置に基づき、対象物の移動状態として自車両に対する相対位置および相対速度を算出すると共に、対象物の進行軌跡を推定し、危険度判定部28へ出力する。
The own vehicle movement state calculation unit 26 performs a calculation process based on a positioning signal output from the vehicle state quantity sensor 14, and an autonomous navigation calculation process based on detection signals output from the vehicle speed sensor and the gyro sensor of the vehicle state quantity sensor 14. To calculate the current position of the vehicle. Further, the host vehicle movement state calculation unit 26 estimates the traveling locus of the host vehicle based on detection signals (for example, vehicle speed and yaw rate) output from the vehicle speed sensor and the gyro sensor of the vehicle state quantity sensor 14, and the degree of risk. It outputs to the determination part 28.
The object movement state calculation unit 27 is based on the change in the position of the object in the image data extracted by the object extraction unit 21 and the current position of the host vehicle calculated by the host vehicle movement state calculation unit 26. Then, the relative position and the relative speed with respect to the host vehicle are calculated as the moving state of the object, and the traveling locus of the object is estimated and output to the risk determination unit 28.

危険度判定部28は、自車両移動状態算出部26から入力される自車両の現在位置や進行軌跡の推定値と、対象物移動状態算出部27から入力される対象物の進行軌跡の推定値や相対位置や相対速度とに基づき、対象物が自車両の走行の支障となる度合、つまり危険度を算出する。例えば、危険度判定部28は、対象物の相対速度が増大することに伴い、危険度が増大傾向に変化するように設定する。
そして、危険度判定部28は、算出した危険度が所定危険度を超えているか否かを判定し、この判定結果を画像表示制御部31および切出画像表示制御部32へ出力する。
The degree-of-risk determination unit 28 estimates the current position and travel locus of the host vehicle input from the host vehicle movement state calculation unit 26, and estimates of the target travel track input from the object movement state calculation unit 27. On the basis of the relative position and the relative speed, the degree to which the target object interferes with the traveling of the host vehicle, that is, the risk level is calculated. For example, the risk determination unit 28 sets the risk to change in an increasing tendency as the relative speed of the object increases.
Then, the risk determination unit 28 determines whether or not the calculated risk exceeds a predetermined risk, and outputs the determination result to the image display control unit 31 and the cut image display control unit 32.

対象物方向算出部29は、対象物抽出部21にて抽出された対象物の画像データ内での位置に基づき、自車両から見た対象物の存在方向を算出し、切出画像表示制御部32へ出力する。   The target object direction calculation unit 29 calculates the presence direction of the target object viewed from the own vehicle based on the position of the target object extracted by the target object extraction unit 21 in the image data, and the cut image display control unit To 32.

合成画像生成部30は、例えば画像表示制御部31に具備され、外界センサ12から入力される画像データに拡大画像取得部22から入力される対象物の拡大画像を合成して合成画像を生成する。
例えば、図4に示すように、外界センサ12から入力される自車両の進行方向前方の画像データPにおいて対象物として、自車両の走行路Rを横断しようとしている歩行者A1や、停車車両C1の陰から自車両の走行路R内へと侵入しようとしている歩行者A2や、建造物C2の陰から自車両の走行路R内へと侵入しようとしている他車両A3や、自車両の走行路Rの前方に配置された規制標識A4や、自車両の走行路Rの前方に配置された案内標識A5が抽出された場合、各対象物A1,…,A5の拡大画像B1,…,B5が画像データP内の適宜の位置、例えば走行路Rの認識に支障のない位置等に合成される。
The composite image generation unit 30 is provided in, for example, the image display control unit 31 and generates a composite image by combining the image data input from the external sensor 12 with the enlarged image of the object input from the enlarged image acquisition unit 22. .
For example, as shown in FIG. 4, a pedestrian A1 trying to cross the traveling path R of the own vehicle or a stopped vehicle C1 as an object in the image data P ahead of the traveling direction of the own vehicle input from the external sensor 12 A pedestrian A2 who is about to enter the travel path R of the own vehicle from behind the vehicle, another vehicle A3 who is about to enter the travel path R of the own vehicle from behind the building C2, and a travel path of the own vehicle When a regulation sign A4 arranged in front of R and a guide sign A5 arranged in front of the traveling path R of the host vehicle are extracted, enlarged images B1,..., B5 of the objects A1,. It is synthesized at an appropriate position in the image data P, for example, a position that does not hinder recognition of the traveling path R.

そして、画像表示制御部31は、少なくとも、視認難易度判定部25にて算出した視認性の難度が所定難度を超えていると判定された場合、または、危険度判定部28にて算出した危険度が所定危険度を超えていると判定された場合には、合成画像生成部30にて生成された合成画像を前方表示装置15または後方表示装置16へ出力する。一方、視認難易度判定部25にて算出した視認性の難度が所定難度以下であり、かつ、危険度判定部28にて算出した危険度が所定危険度以下であると判定された場合には、外界センサ12から入力される画像データのみを前方表示装置15または後方表示装置16へ出力する。   Then, the image display control unit 31 determines that at least the visibility difficulty calculated by the visual recognition difficulty determination unit 25 exceeds the predetermined difficulty, or the risk calculated by the risk determination unit 28. When it is determined that the degree exceeds the predetermined risk level, the composite image generated by the composite image generation unit 30 is output to the front display device 15 or the rear display device 16. On the other hand, when it is determined that the visibility difficulty calculated by the visibility difficulty determination unit 25 is equal to or less than the predetermined difficulty and the risk calculated by the risk determination unit 28 is equal to or less than the predetermined risk. Only the image data input from the external sensor 12 is output to the front display device 15 or the rear display device 16.

例えば、図4において、自車両に対して推定された進行軌跡αと、各対象物A1,A2,A3に対して推定された進行軌跡β1,β2,β3とが交差する場合には、各対象物A1,A2,A3に対して算出される危険度は所定危険度を超えることになり、また、例えば対象物A1のように、夜間走行時等において、対象物の周辺領域に対する照度や色彩のコントラストが低い場合、あるいは、対象物A2,A3のように、他の物体により遮られることで歩行者や他車両等の対象物の形状の一部のみが検知され、輪郭部のエッジ画像の形状の複雑度が増大する場合には、対象物A1,A2,A3に対して算出される視認性の難度は所定難度を超えることになり、画像データP内の適宜の位置に各対象物A1,A2,A3の拡大画像B1,B2,B3が合成された合成画像が前方表示装置15または後方表示装置16に表示される。   For example, in FIG. 4, when the travel trajectory α estimated for the host vehicle and the travel trajectories β1, β2, β3 estimated for the objects A1, A2, A3 intersect, The risk calculated for the objects A1, A2 and A3 exceeds a predetermined risk, and the illuminance and color of the surrounding area of the object during night driving, for example, the object A1, When the contrast is low, or by being blocked by other objects such as the objects A2 and A3, only a part of the shape of the object such as a pedestrian or another vehicle is detected, and the shape of the edge image of the contour portion The complexity of visibility calculated for the objects A1, A2, A3 exceeds the predetermined difficulty, and the objects A1, A1 are placed at appropriate positions in the image data P. Enlarged images B1, B2, B of A2, A3 There synthesized image synthesized is displayed on the front display unit 15 or the rear display unit 16.

なお、例えば対象物A1のように周辺領域に対する照度や色彩のコントラストが低いことで視認性の難度が所定難度を超えていると判定された場合には、適宜の画像処理によって対象物A1の周辺領域に対する照度や色彩のコントラストが高くされた拡大画像B1が画像データPに合成されるようになっている。
また、例えば各対象物A1,A2,A3に対して算出される危険度が所定危険度を超えていると判定された場合には、各対象物A1,A2,A3の危険度に応じて各拡大画像B1,B2,B3の外周部D1,D2,D3の表示状態が変化するようになっており、例えば相対的に危険度が低い場合には各外周部D1,D2,D3の色が黄色に設定され、相対的に危険度が中程度の場合には各外周部D1,D2,D3の色が赤色に設定され、例えば相対的に危険度が高い場合には各外周部D1,D2,D3の色が赤色に設定されると共に所定周期で点滅するように設定される。
For example, when it is determined that the visibility difficulty exceeds a predetermined difficulty due to low illuminance and color contrast with respect to the surrounding area as in the object A1, the periphery of the object A1 is appropriately processed. An enlarged image B1 having a high illuminance and color contrast with respect to the region is combined with the image data P.
Further, for example, when it is determined that the risk calculated for each of the objects A1, A2, and A3 exceeds a predetermined risk, each of the objects A1, A2, and A3 is set according to the risk of each object. The display states of the outer peripheral portions D1, D2, and D3 of the enlarged images B1, B2, and B3 are changed. For example, when the danger level is relatively low, the colors of the outer peripheral portions D1, D2, and D3 are yellow. When the degree of danger is relatively medium, the color of each outer peripheral part D1, D2, D3 is set to red. For example, when the degree of danger is relatively high, each outer peripheral part D1, D2, The color of D3 is set to red and is set to blink at a predetermined cycle.

また、画像表示制御部31は、標識判定部24にて対象物抽出部21で抽出された対象物が、例えば案内、警戒、規制、指示、補助等の各標識からなる道路標識であると判定された場合には、合成画像生成部30にて生成された合成画像を前方表示装置15または後方表示装置16へ出力し、自車両が道路標識の位置を通過した以後であっても、通過後の所定時間に亘って合成画像の出力を継続する。
例えば、図4において、自車両の走行路Rの進行方向前方の位置に規制標識の対象物A4と、案内標識の対象物A5とが検知された場合には、画像データP内の適宜の位置に各対象物A4,A5の拡大画像B4,B5が合成された合成画像が前方表示装置15または後方表示装置16に表示される。そして、この合成画像の表示は、自車両が各対象物A4,A5を通過した以後の所定時間に亘って継続される。
Further, the image display control unit 31 determines that the object extracted by the object extraction unit 21 in the sign determination unit 24 is a road sign made up of signs such as guidance, warning, regulation, instruction, and assistance. If it is, the composite image generated by the composite image generation unit 30 is output to the front display device 15 or the rear display device 16, and even after the host vehicle has passed the position of the road sign, The output of the composite image is continued for a predetermined time.
For example, in FIG. 4, when the target object A4 of the restriction sign and the target object A5 of the guide sign are detected at a position ahead of the traveling path R of the host vehicle, an appropriate position in the image data P is detected. A combined image obtained by combining the enlarged images B4 and B5 of the objects A4 and A5 is displayed on the front display device 15 or the rear display device 16. The display of the composite image is continued for a predetermined time after the host vehicle passes through the objects A4 and A5.

切出画像表示制御部32は、少なくとも、視認難易度判定部25にて算出した視認性の難度が所定難度を超えていると判定された場合、または、危険度判定部28にて算出した危険度が所定危険度を超えていると判定された場合には、対象物画像切出部23にて生成された切出画像を副表示装置17へ出力する。ここで、切出画像表示制御部32は、対象物方向算出部29にて算出された対象物の存在方向の情報と、方向センサ18から出力される運転者Dの頭部の向きに係る検出信号とに基づき、運転者Dから見た対象物の存在方向を算出し、この存在方向の情報を副表示装置17へ出力する。   The clipped image display control unit 32 determines that the visibility difficulty calculated by the visual difficulty determination unit 25 exceeds a predetermined difficulty, or the risk calculated by the risk determination unit 28. When it is determined that the degree exceeds the predetermined risk level, the cut image generated by the object image cutout unit 23 is output to the sub display device 17. Here, the cut-out image display control unit 32 detects information related to the direction of the presence of the object calculated by the object direction calculation unit 29 and the direction of the head of the driver D output from the direction sensor 18. Based on the signal, the presence direction of the object viewed from the driver D is calculated, and information on the presence direction is output to the sub display device 17.

例えば図4および図5に示すように、自車両に対して推定された進行軌跡αと、対象物A1に対して推定された進行軌跡β1とが交差する場合には、対象物A1に対して算出される危険度は所定危険度を超えることになり、また、例えば対象物A1のように、夜間走行時等において、対象物の周辺領域に対する照度や色彩のコントラストが低い場合には、対象物A1に対して算出される視認性の難度は所定難度を超えることになり、画像データPから切り出された対象物A1の切出画像E1が、運転者Dから見た対象物A1の存在方向を示す矢印画像F1と共に副表示装置17に表示される。
なお、例えば対象物A1のように周辺領域に対する照度や色彩のコントラストが低いことで視認性の難度が所定難度を超えていると判定された場合には、適宜の画像処理によって対象物A1の周辺領域に対する照度や色彩のコントラストが高くされた切出画像E1が副表示装置17へ出力されるようになっている。
For example, as shown in FIGS. 4 and 5, when the traveling locus α estimated for the host vehicle and the traveling locus β1 estimated for the object A1 intersect, The calculated risk level exceeds the predetermined risk level, and when the illuminance or color contrast with respect to the surrounding area of the target object is low, such as when the target object A1 is running at night, the target object The visibility difficulty calculated for A1 exceeds a predetermined difficulty, and the cut-out image E1 of the object A1 cut out from the image data P indicates the direction of presence of the object A1 as seen from the driver D. It is displayed on the sub display device 17 together with the arrow image F1 shown.
For example, when it is determined that the visibility difficulty exceeds a predetermined difficulty due to low illuminance and color contrast with respect to the surrounding area as in the object A1, the periphery of the object A1 is appropriately processed. A cutout image E <b> 1 with high illuminance and color contrast for the region is output to the sub display device 17.

例えば図6に示すように、交差点を左折する自車両VのフロントピラーFPによって運転者の死角となる領域に、自車両Vが左折動作後に走行する走行路Rを横断する歩行者G1が存在する場合には、この歩行者G1に対して視認難易度判定部25にて算出される視認性の難度が所定難度を超えていると判定されると共に、危険度判定部28にて算出される危険度が所定危険度を超えていると判定される。そして、前方表示装置15において、運転者から歩行者G1へと向かう視線方向H1と略同等の方向と交差する位置近傍に歩行者G1の画像J1が表示される。さらに、副表示装置17には、歩行者G1の切出画像K1と、運転者から見た歩行者G1の存在方向を示す矢印画像L1とが表示される。
この場合、例えば、歩行者G1は相対的に危険度が中程度であると判定されると、歩行者G1の画像J1の外周部の色が赤色に設定されると共に、歩行者G1の存在方向を示す矢印画像L1の色が赤色に設定される。
For example, as shown in FIG. 6, there is a pedestrian G1 that crosses a traveling path R on which the host vehicle V travels after a left turn in a region where the driver's blind spot is caused by the front pillar FP of the host vehicle V that turns left at an intersection. In this case, it is determined that the visibility difficulty calculated by the visual difficulty determination unit 25 for the pedestrian G1 exceeds a predetermined difficulty, and the risk calculated by the risk determination unit 28 It is determined that the degree exceeds the predetermined risk level. In the front display device 15, an image J1 of the pedestrian G1 is displayed in the vicinity of a position that intersects a direction substantially equivalent to the line-of-sight direction H1 from the driver toward the pedestrian G1. Further, the sub-display device 17 displays a cutout image K1 of the pedestrian G1 and an arrow image L1 indicating the direction of the pedestrian G1 as seen from the driver.
In this case, for example, if it is determined that the pedestrian G1 has a relatively moderate risk, the color of the outer periphery of the image J1 of the pedestrian G1 is set to red, and the direction in which the pedestrian G1 exists Is set to red.

また、例えば図7に示すように、交差点に侵入する自車両VのフロントピラーFPによって運転者の死角となる領域に、この交差点に侵入する他車両VAが存在する場合には、この他車両VAに対して視認難易度判定部25にて算出される視認性の難度が所定難度を超えていると判定されると共に、危険度判定部28にて算出される危険度が所定危険度を超えていると判定される。そして、前方表示装置15において、運転者から他車両VAへと向かう視線方向H2と略同等の方向と交差する位置近傍に他車両VAの画像J2が表示される。さらに、副表示装置17には、他車両VAの切出画像K2と、運転者から見た他車両VAの存在方向を示す矢印画像L2とが表示される。
この場合、他車両VAは、例えば自車両Vに対する相対速度の大きさ等に応じて危険度が判定され、例えば相対的に危険度が低い場合には他車両VAの画像J2の外周部の色および他車両VAの存在方向を示す矢印画像L2の色が黄色に設定され、相対的に危険度が中程度の場合には画像J2の外周部の色および矢印画像L2の色が赤色に設定され、例えば相対的に危険度が高い場合には画像J2の外周部の色および矢印画像L2の色が赤色に設定されると共に所定周期で点滅するように設定される。
For example, as shown in FIG. 7, when there is another vehicle VA that enters the intersection in the area where the driver's blind spot is caused by the front pillar FP of the host vehicle V that enters the intersection, the other vehicle VA On the other hand, it is determined that the visibility difficulty level calculated by the visibility difficulty level determination unit 25 exceeds the predetermined difficulty level, and the risk level calculated by the risk level determination unit 28 exceeds the predetermined risk level. It is determined that Then, in the front display device 15, an image J2 of the other vehicle VA is displayed in the vicinity of a position that intersects a direction substantially equal to the line-of-sight direction H2 from the driver toward the other vehicle VA. Further, the sub-display device 17 displays a cut-out image K2 of the other vehicle VA and an arrow image L2 indicating the direction in which the other vehicle VA is viewed from the driver.
In this case, the danger level of the other vehicle VA is determined according to, for example, the magnitude of the relative speed with respect to the host vehicle V. For example, when the danger level is relatively low, the color of the outer peripheral portion of the image J2 of the other vehicle VA. And the color of the arrow image L2 indicating the direction in which the other vehicle VA exists is set to yellow, and when the degree of danger is relatively medium, the color of the outer periphery of the image J2 and the color of the arrow image L2 are set to red. For example, when the degree of risk is relatively high, the color of the outer peripheral portion of the image J2 and the color of the arrow image L2 are set to red and set to blink at a predetermined cycle.

また、例えば図8に示すように、片側複数車線の走行路において自車両Vが車線変更を実行する際、自車両Vが車線変更後に走行する車線を自車両Vよりも後方の位置で走行中の他車両VBが存在する場合には、この他車両VBに対して視認難易度判定部25にて算出される視認性の難度が所定難度を超えていると判定されると共に、危険度判定部28にて算出される危険度が所定危険度を超えていると判定される。そして、後方表示装置16において、例えば後方表示装置16をルームミラーとして後方を見た場合に他車両VBが存在する位置近傍に他車両VBの画像J3が表示される。さらに、副表示装置17には、他車両VBの切出画像K3と、運転者から見た他車両VBの存在方向を示す矢印画像L3とが表示される。
この場合、他車両VBは、例えば自車両Vに対する相対速度の大きさ等に応じて危険度が判定され、例えば相対的に危険度が低い場合には他車両VBの画像J2の外周部の色および他車両VBの存在方向を示す矢印画像L3の色が黄色に設定される。
For example, as shown in FIG. 8, when the host vehicle V performs a lane change on a one-side multiple lane travel path, the host vehicle V is traveling in a lane behind the host vehicle V after the lane change. When the other vehicle VB exists, it is determined that the visibility difficulty calculated by the visibility difficulty determination unit 25 for the other vehicle VB exceeds the predetermined difficulty, and the risk determination unit It is determined that the risk calculated at 28 exceeds the predetermined risk. Then, in the rear display device 16, for example, when the rear display device 16 is used as a rearview mirror, the image J3 of the other vehicle VB is displayed in the vicinity of the position where the other vehicle VB exists. Further, the sub-display device 17 displays a cutout image K3 of the other vehicle VB and an arrow image L3 indicating the direction in which the other vehicle VB is seen from the driver.
In this case, the danger level of the other vehicle VB is determined according to, for example, the magnitude of the relative speed with respect to the host vehicle V. For example, when the danger level is relatively low, the color of the outer periphery of the image J2 of the other vehicle VB. The color of the arrow image L3 indicating the direction in which the other vehicle VB is present is set to yellow.

本実施の形態による車両の認知支援装置10は上記構成を備えており、次に、この車両の認知支援装置10の動作、特に、副表示装置17に切出画像を表示する動作について説明する。   The vehicle recognition support apparatus 10 according to the present embodiment has the above-described configuration. Next, an operation of the vehicle recognition support apparatus 10, particularly an operation of displaying a cut-out image on the sub display device 17 will be described.

先ず、例えば図9に示すステップS01においては、外界センサ12の外界撮影カメラ12aにより撮影して得た撮影画像の画像データを取得する。
次に、ステップS02においては、取得した撮影画像の画像データを前方表示装置15または後方表示装置16に表示する。
次に、ステップS03においては、外界センサ12から入力される画像データに対して、例えば他車両や歩行者や標識等を検知対象物とした特徴量算出および形状判別等の認識処理を行い、自車両の外界に対象物が存在するか否かを判定する。
この判定結果が「NO」の場合には、一連の処理を終了する。
一方、この判定結果が「YES」の場合には、ステップS04に進む。
First, for example, in step S01 shown in FIG. 9, image data of a photographed image obtained by photographing with the external camera 12a of the external sensor 12 is acquired.
Next, in step S02, the acquired image data of the captured image is displayed on the front display device 15 or the rear display device 16.
In step S03, the image data input from the external sensor 12 is subjected to recognition processing such as feature amount calculation and shape discrimination using, for example, another vehicle, a pedestrian, or a sign as a detection target. It is determined whether or not an object exists in the outside world of the vehicle.
When the determination result is “NO”, the series of processes is terminated.
On the other hand, if this determination is “YES”, the flow proceeds to step S 04.

ステップS04においては、画像データから抽出した対象物が、例えば案内、警戒、規制、指示、補助等の各標識からなる道路標識であるか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS11に進む。
一方、この判定結果が「YES」の場合には、ステップS05に進む。
そして、ステップS05においては、抽出された道路標識の画像を外界センサ12から入力される画像データから切り出して切出画像を取得する。
次に、ステップS06においては、切出画像を副表示装置17に表示する。
In step S04, it is determined whether or not the object extracted from the image data is a road sign composed of signs such as guidance, warning, regulation, instruction, and assistance.
If this determination is “NO”, the flow proceeds to step S 11 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S 05.
In step S05, the extracted road sign image is cut out from the image data input from the external sensor 12 to obtain a cut-out image.
Next, in step S06, the cut image is displayed on the sub display device 17.

次に、ステップS07においては、自車両と、対象物として抽出された道路標識との相対位置を算出する。
次に、ステップS08においては、自車両が道路標識の設置位置を通過したか否かを判定する。
この判定結果が「NO」の場合には、上述したステップS06に戻る。
一方、この判定結果が「YES」の場合には、ステップS09に進む。
そして、ステップS09においては、所定時間に亘って切出画像を副表示装置17に継続して表示する。
そして、ステップS10においては、副表示装置17での切出画像の表示を終了し、一連の処理を終了する。
Next, in step S07, a relative position between the host vehicle and the road sign extracted as the object is calculated.
Next, in step S08, it is determined whether or not the host vehicle has passed the installation position of the road sign.
If this determination is “NO”, the flow returns to step S 06 described above.
On the other hand, if this determination is “YES”, the flow proceeds to step S 09.
In step S09, the cut image is continuously displayed on the sub display device 17 for a predetermined time.
In step S10, the display of the cut image on the sub display device 17 is terminated, and the series of processes is terminated.

また、ステップS11においては、抽出された道路標識以外の対象物(例えば、歩行者や他車両等)の画像を外界センサ12から入力される画像データから切り出して切出画像を取得する。
次に、ステップS12においては、対象物方向算出部29にて算出された自車両から見た対象物の存在方向の情報と、方向センサ18から出力される運転者の頭部の向きに係る検出信号とに基づき、運転者から見た対象物の存在方向を検知する。
次に、ステップS13においては、対象物の移動状態(例えば、自車両に対する相対速度や進行軌跡の推定値)を算出する。
次に、ステップS14においては、自車両の進行軌跡の推定値と、対象物の進行軌跡の推定値や相対速度とに基づき、対象物が自車両の走行の支障となる度合、つまり危険度を算出する。
次に、ステップS15においては、外界センサ12から入力される画像データにおいて、照度や色彩のコントラストを検知したり、抽出された対象物と対象物の周辺領域との間の輪郭部のエッジ画像の形状の複雑度を検知し、これらの検知結果に応じて視認性の難易度を算出する。
In step S11, an image of an object other than the extracted road sign (for example, a pedestrian or another vehicle) is cut out from the image data input from the external sensor 12, and a cut image is acquired.
Next, in step S <b> 12, information on the direction of presence of the object viewed from the host vehicle calculated by the object direction calculation unit 29 and detection of the direction of the driver's head output from the direction sensor 18. Based on the signal, the presence direction of the object viewed from the driver is detected.
Next, in step S13, the movement state of the target object (for example, the relative speed with respect to the host vehicle or the estimated value of the traveling locus) is calculated.
Next, in step S14, based on the estimated value of the traveling locus of the host vehicle, the estimated value of the traveling locus of the target object, and the relative speed, the degree to which the target object hinders the traveling of the host vehicle, that is, the risk level is determined. calculate.
Next, in step S15, illuminance or color contrast is detected in the image data input from the external sensor 12, or the edge image of the contour portion between the extracted object and the peripheral area of the object is detected. The complexity of the shape is detected, and the difficulty level of visibility is calculated according to these detection results.

次に、ステップS16においては、算出した視認性の難度が所定難度を超えているか否か、または、算出した危険度が所定危険度を超えているか否かを判定する。
この判定結果が「YES」の場合には、ステップS17に進み、対象物の切出画像と、運転者から見た対象物の存在方向を示す矢印画像とを、副表示装置17に表示し、上述したステップS12に戻る。
一方、この判定結果が「NO」の場合には、ステップS18に進み、この時点で切出画像の表示状態であれば副表示装置17での切出画像および矢印画像の表示を停止し、一連の処理を終了する。
Next, in step S <b> 16, it is determined whether the calculated visibility difficulty level exceeds a predetermined difficulty level, or whether the calculated risk level exceeds a predetermined risk level.
If the determination result is “YES”, the process proceeds to step S17, where the cut-out image of the object and the arrow image indicating the direction of the object viewed from the driver are displayed on the sub display device 17, It returns to step S12 mentioned above.
On the other hand, if this determination is “NO”, the flow proceeds to step S 18, and if the clipped image is being displayed at this time, display of the clipped image and the arrow image on the secondary display device 17 is stopped, and a series of Terminate the process.

上述したように、本実施の形態による車両の認知支援装置10によれば、少なくとも、視認性の難度が所定値を超えた場合、または、危険度が所定値を超えた場合に、抽出された対象物の拡大画像を、外界センサ12から入力される画像データに合成して表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。
さらに、外界センサ12から入力される画像データを表示する前方表示装置15および後方表示装置16に加えて副表示装置17を備え、少なくとも、視認性の難度が所定値を超えた場合、または、危険度が所定値を超えた場合に、抽出された対象物の切出画像を副表示装置17に表示することにより、運転者が対象物を見落としてしまったり、見間違えてしまうことを防止して、運転者による対象物の認知動作を的確に支援することができる。
As described above, according to the vehicle recognition support device 10 according to the present embodiment, it is extracted at least when the degree of visibility exceeds a predetermined value or when the degree of risk exceeds a predetermined value. By combining the enlarged image of the object with the image data input from the external sensor 12 and displaying it, it is possible to prevent the driver from overlooking the object or making a mistake. It can accurately support the recognition of objects.
Furthermore, in addition to the front display device 15 and the rear display device 16 that display the image data input from the external sensor 12, a sub display device 17 is provided, and at least when the degree of visibility exceeds a predetermined value or a danger When the degree exceeds a predetermined value, a clipped image of the extracted object is displayed on the sub display device 17 to prevent the driver from overlooking or mistaken the object. The driver can accurately support the recognition of the object by the driver.

さらに、抽出された対象物が道路標識である場合には、自車両が道路標識の位置を通過した以後であっても、通過後の所定時間に亘って、前方表示装置15または後方表示装置16での合成画像の表示および副表示装置17での切出画像の表示を継続することにより、道路標識に表示内容が複雑化している状態であっても、運転者が見間違えてしまうことを防止して、運転者による道路標識の認知動作を的確に支援することができる。   Further, when the extracted object is a road sign, the front display device 15 or the rear display device 16 continues for a predetermined time after the passage even after the host vehicle passes the position of the road sign. By continuing to display the composite image at the sub-display and the cut-out image on the sub-display device 17, the driver can be prevented from making a mistake even when the display content is complicated on the road sign. Thus, it is possible to accurately support the recognition operation of the road sign by the driver.

しかも、副表示装置17を運転者の頭部に装着可能なヘッドセット19に備えたことにより、運転者の頭部の向きが変化する場合であっても、副表示装置17の表示内容を運転者に常に視認させることができる。
さらに、ヘッドセット19に運転者の頭部の向きを検知する方向センサ18を備え、対象物方向算出部29にて画像データに基づき算出される自車両から見た対象物の存在方向に、方向センサ18から出力される運転者の頭部の向きに係る検出信号を加味して、運転者から見た対象物の存在方向を算出し、この存在方向を示す矢印画像を、対象物の切出画像と共に副表示装置17に表示することにより、自車両に対する対象物の相対位置が変化する場合であっても、対象物の実際の位置を運転者に的確に認識させることができる。
In addition, by providing the headset 19 that can be mounted on the driver's head with the sub display device 17, even if the orientation of the driver's head changes, the display contents of the sub display device 17 can be operated. Can always be visually recognized.
Furthermore, the headset 19 is provided with a direction sensor 18 that detects the direction of the driver's head, and the object direction calculation unit 29 calculates the direction in the presence direction of the object as viewed from the host vehicle based on the image data. In consideration of the detection signal related to the direction of the head of the driver output from the sensor 18, the presence direction of the object viewed from the driver is calculated, and an arrow image indicating the existence direction is extracted from the target object. By displaying the image on the sub display device 17 together with the image, the driver can accurately recognize the actual position of the object even when the relative position of the object with respect to the host vehicle changes.

なお、上述した実施の形態においては、対象物センサ13の対象物撮影カメラ13aの撮影方向および撮影倍率を指示し、対象物撮影カメラ13aの焦点距離を変化させる光学ズームにより対象物の拡大画像を取得するとしたが、これに限定されず、例えば対象物センサ13を省略し、外界センサ12から入力される画像データのうち、対象物を含む画像領域を画像処理により補完拡大するデジタルズームにより対象物の拡大画像を取得してもよい。   In the above-described embodiment, an enlarged image of the object is obtained by optical zoom that instructs the shooting direction and magnification of the object shooting camera 13a of the object sensor 13 and changes the focal length of the object shooting camera 13a. However, the present invention is not limited to this. For example, the object sensor 13 is omitted, and among the image data input from the external sensor 12, the image area including the object is complemented and enlarged by image processing. An enlarged image may be acquired.

なお、上述した実施の形態において、危険度判定部28は、算出した危険度が所定危険度を超えているか否かを判定するとしたが、これに限定されず、例えば図10に示すように、相対速度の増大に伴い、低下傾向に変化する判定閾値を設定し、算出した危険度が相対速度に応じた判定閾値を超えているか否かを判定してもよい。   In the embodiment described above, the risk determination unit 28 determines whether or not the calculated risk exceeds a predetermined risk. However, the present invention is not limited to this. For example, as shown in FIG. A determination threshold value that changes in a decreasing tendency as the relative speed increases may be set, and it may be determined whether or not the calculated risk level exceeds a determination threshold value corresponding to the relative speed.

本発明の一実施形態に係る車両の認知支援装置の構成図である。1 is a configuration diagram of a vehicle recognition support apparatus according to an embodiment of the present invention. 図1に示す前方表示装置および後方表示装置を搭載した車両の内部を示す図である。It is a figure which shows the inside of the vehicle carrying the front display apparatus and rear display apparatus which are shown in FIG. 図1に示す副表示装置を示す図である。It is a figure which shows the subdisplay apparatus shown in FIG. 前方表示装置に表示される自車両の進行方向前方の画像データの一例を示す図である。It is a figure which shows an example of the image data ahead of the advancing direction of the own vehicle displayed on a front display apparatus. 副表示装置に表示される切出画像および矢印画像の一例を示す図である。It is a figure which shows an example of the cut-out image and arrow image which are displayed on a subdisplay apparatus. 前方表示装置に表示される自車両の進行方向前方の画像データおよび副表示装置に表示される切出画像および矢印画像の一例を示す図である。It is a figure which shows an example of the image data ahead of the advancing direction of the own vehicle displayed on a front display apparatus, and the cut-out image and arrow image displayed on a sub display apparatus. 前方表示装置に表示される自車両の進行方向前方の画像データおよび副表示装置に表示される切出画像および矢印画像の一例を示す図である。It is a figure which shows an example of the image data ahead of the advancing direction of the own vehicle displayed on a front display apparatus, and the cut-out image and arrow image displayed on a sub display apparatus. 前方表示装置に表示される自車両の進行方向前方の画像データおよび副表示装置に表示される切出画像および矢印画像の一例を示す図である。It is a figure which shows an example of the image data ahead of the advancing direction of the own vehicle displayed on a front display apparatus, and the cut-out image and arrow image displayed on a sub display apparatus. 図1に示す車両の認知支援装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the recognition assistance apparatus of the vehicle shown in FIG. 自車両と対象物との相対速度と、対象物の危険度に係る判定閾値との関係の一例を示すグラフ図である。It is a graph which shows an example of the relationship between the relative speed of the own vehicle and a target object, and the determination threshold value concerning the danger level of a target object.

符号の説明Explanation of symbols

10 車両の認知支援装置
12a 外界撮影カメラ(撮影手段)
15 前方表示装置(表示装置)
16 後方表示装置(表示装置)
17 副表示装置
18 方向センサ(方向検知手段)
21 対象物抽出部(対象物抽出手段)
22 拡大画像取得部(拡大画像取得手段)
23 対象物画像切出部(画像切出手段)
28 危険度判定部(危険度判定手段)
29 対象物方向算出部(方向検知手段)
32 切出画像表示制御部(方向検知手段)

10. Vehicle recognition support device 12a External camera (photographing means)
15 Front display device (display device)
16 Rear display device (display device)
17 Sub display device 18 Direction sensor (direction detection means)
21. Object extraction unit (object extraction means)
22 Enlarged image acquisition unit (enlarged image acquisition means)
23 Object image cutout part (image cutout means)
28 Risk determination unit (Danger determination means)
29 Object direction calculation unit (direction detection means)
32 Cutout image display control unit (direction detection means)

Claims (4)

自車両の外部を撮影する撮影手段と、自車両の内部に設けられた表示装置と、
前記撮影手段の撮影により得られる撮影画像を前記表示装置に表示する車両の認知支援装置であって、
前記撮影手段の撮影により得られる撮影画像から対象物を抽出する対象物抽出手段と、
前記対象物抽出手段にて抽出された対象物の画像を前記撮影画像から切り出す画像切出手段と、
前記対象物の自車両に対する危険度を判定する危険度判定手段と、
前記表示装置とは異なる位置に設けられた副表示装置とを備え、
前記危険度判定手段にて判定された危険度が、予め設定した所定値を超えた場合に前記画像切出手段にて切り出した対象物の画像を前記副表示装置に表示することを特徴とする車両の認知支援装置。
Photographing means for photographing the outside of the host vehicle, a display device provided inside the host vehicle,
A vehicle recognition support device for displaying a photographed image obtained by photographing by the photographing means on the display device,
An object extraction means for extracting an object from a photographed image obtained by photographing by the photographing means;
Image cutout means for cutting out the image of the object extracted by the object extraction means from the captured image;
A risk determination means for determining a risk of the object with respect to the host vehicle;
A sub-display device provided at a position different from the display device,
When the risk determined by the risk determination means exceeds a predetermined value set in advance, an image of the object cut out by the image cut-out means is displayed on the sub display device. Vehicle recognition support device.
前記副表示装置は運転者の頭部に装着されることを特徴とする請求項1に記載の車両の認知支援装置。 2. The vehicle recognition support device according to claim 1, wherein the sub display device is mounted on a driver's head. 対象物が存在する方向を検知する方向検知手段を備え、
前記画像切出手段にて切り出した対象物の画像と共に、前記方向検知手段にて検知した方向を、前記副表示装置に表示することを特徴とする請求項1に記載の車両の認知支援装置。
Provided with direction detecting means for detecting the direction in which the object exists,
The vehicle recognition support device according to claim 1, wherein a direction detected by the direction detection unit is displayed on the sub display device together with an image of the object cut out by the image cutout unit.
前記対象物を拡大撮影あるいは前記対象物の画像を拡大可能な拡大画像取得手段を備えることを特徴とする請求項1に記載の車両の認知支援装置。

The vehicle recognition support device according to claim 1, further comprising an enlarged image acquisition unit capable of enlarging the object and enlarging an image of the object.

JP2004221787A 2004-07-29 2004-07-29 Recognition support device for vehicle Withdrawn JP2006040123A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004221787A JP2006040123A (en) 2004-07-29 2004-07-29 Recognition support device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004221787A JP2006040123A (en) 2004-07-29 2004-07-29 Recognition support device for vehicle

Publications (1)

Publication Number Publication Date
JP2006040123A true JP2006040123A (en) 2006-02-09

Family

ID=35905022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004221787A Withdrawn JP2006040123A (en) 2004-07-29 2004-07-29 Recognition support device for vehicle

Country Status (1)

Country Link
JP (1) JP2006040123A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206689A (en) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd Vehicle display device and vehicle display method
JP2012069154A (en) * 2011-12-08 2012-04-05 Fujitsu Ten Ltd Obstacle monitoring device
DE102013020950A1 (en) * 2013-12-12 2015-06-18 Connaught Electronics Ltd. Method for operating a rear view camera system of a motor vehicle, rear view camera system and motor vehicle
JP2016010255A (en) * 2014-06-25 2016-01-18 三菱電機株式会社 Information display device
WO2017145645A1 (en) * 2016-02-25 2017-08-31 富士フイルム株式会社 Driving assistance apparatus, driving assistance method, and driving assistance program
DE102017217852A1 (en) * 2017-10-06 2019-04-11 Bayerische Motoren Werke Aktiengesellschaft Optical-acoustic assistance when turning
DE102018203752A1 (en) * 2018-03-13 2019-09-19 Robert Bosch Gmbh Method and device for detecting a wrong-way driver for a vehicle
JP2020161988A (en) * 2019-03-27 2020-10-01 日産自動車株式会社 Information processing device and information processing method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206689A (en) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd Vehicle display device and vehicle display method
JP2012069154A (en) * 2011-12-08 2012-04-05 Fujitsu Ten Ltd Obstacle monitoring device
DE102013020950A1 (en) * 2013-12-12 2015-06-18 Connaught Electronics Ltd. Method for operating a rear view camera system of a motor vehicle, rear view camera system and motor vehicle
DE102013020950B4 (en) 2013-12-12 2023-11-23 Connaught Electronics Ltd. Method for operating a rear view camera system of a motor vehicle, rear view camera system and motor vehicle
JP2016010255A (en) * 2014-06-25 2016-01-18 三菱電機株式会社 Information display device
JP6410987B2 (en) * 2016-02-25 2018-10-24 富士フイルム株式会社 Driving support device, driving support method, and driving support program
CN108701415A (en) * 2016-02-25 2018-10-23 富士胶片株式会社 Drive assistance device, driving assistance method and driving auxiliary program
US20180359429A1 (en) * 2016-02-25 2018-12-13 Fujifilm Corporation Driving assistance device, driving assistance method, and driving assistance program
JPWO2017145645A1 (en) * 2016-02-25 2018-12-27 富士フイルム株式会社 Driving support device, driving support method, and driving support program
US11025836B2 (en) 2016-02-25 2021-06-01 Fujifilm Corporation Driving assistance device, driving assistance method, and driving assistance program
WO2017145645A1 (en) * 2016-02-25 2017-08-31 富士フイルム株式会社 Driving assistance apparatus, driving assistance method, and driving assistance program
DE102017217852A1 (en) * 2017-10-06 2019-04-11 Bayerische Motoren Werke Aktiengesellschaft Optical-acoustic assistance when turning
DE102018203752A1 (en) * 2018-03-13 2019-09-19 Robert Bosch Gmbh Method and device for detecting a wrong-way driver for a vehicle
JP2020161988A (en) * 2019-03-27 2020-10-01 日産自動車株式会社 Information processing device and information processing method
JP7278829B2 (en) 2019-03-27 2023-05-22 日産自動車株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
JP4401890B2 (en) Vehicle recognition support device
US8461976B2 (en) On-vehicle device and recognition support system
US10564434B2 (en) Display control device for vehicle
US10269331B2 (en) Display control device for vehicle
JP4749958B2 (en) Driving assistance device
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
EP2369552B1 (en) Approaching object detection system
US8174375B2 (en) Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices
US9505346B1 (en) System and method for warning a driver of pedestrians and other obstacles
US9514650B2 (en) System and method for warning a driver of pedestrians and other obstacles when turning
JP6379779B2 (en) Vehicle display device
JP4719590B2 (en) In-vehicle peripheral status presentation device
US20080198226A1 (en) Image Processing Device
US11074818B2 (en) Drive assist device and drive assist method
JPWO2015037117A1 (en) Information display system and information display device
JP2008015759A (en) Driving support device
US20210070288A1 (en) Driving assistance device
JP2000259998A (en) Back monitoring device for vehicle
JP5888339B2 (en) Display control device
JP2017536621A (en) Method for operating driver assistance system for motor vehicle, driver assistance system, and motor vehicle
JP2008222153A (en) Merging support device
JP2009122825A (en) Traveling state determination device
JP2006040123A (en) Recognition support device for vehicle
JP2005202787A (en) Display device for vehicle
JP2009140305A (en) Information presenting device for vehicle

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071002