JP2009040108A - Image display control device and image display control system - Google Patents

Image display control device and image display control system Download PDF

Info

Publication number
JP2009040108A
JP2009040108A JP2007204384A JP2007204384A JP2009040108A JP 2009040108 A JP2009040108 A JP 2009040108A JP 2007204384 A JP2007204384 A JP 2007204384A JP 2007204384 A JP2007204384 A JP 2007204384A JP 2009040108 A JP2009040108 A JP 2009040108A
Authority
JP
Japan
Prior art keywords
image
display control
image display
display
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007204384A
Other languages
Japanese (ja)
Other versions
JP5023872B2 (en
Inventor
Ei Sakai
映 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2007204384A priority Critical patent/JP5023872B2/en
Publication of JP2009040108A publication Critical patent/JP2009040108A/en
Application granted granted Critical
Publication of JP5023872B2 publication Critical patent/JP5023872B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display control device and an image display control system which enable an object whose safety is to be confirmed to be easily recognized, and also the positional relation between one's own vehicle and the object whose safety is to be confirmed to be easily understood. <P>SOLUTION: In the image display control device 5, the photographing data of the image taken by an electronic camera 11 are loaded in the step 100. Then, the data (measured distant data) of the distance between the one's own vehicle and the object detected by a radar 13 are loaded in the following step 110. Then, the vehicle information of the one's own vehicle obtained by a vehicle speed sensor 15 and a steering angle sensor 17 are loaded in the following step 120. The calculation of running region of one's own lane is carried out in the following step 130. The detection of obstacles, such as pedestrians and vehicles, is carried out in the following step 140. The display image to be displayed on a display 3 is calculated in the following step 150. The image based on the display data calculated in the step 150 is displayed on the display 3 in the following step 160. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、例えば自動車に搭載され、自車の前方等の周囲の画像をモニタディスプレイやウインドシールドディスプレイ等に表示できる画像表示制御装置及び画像表示制御システムに関する。   The present invention relates to an image display control device and an image display control system that are mounted on, for example, an automobile and can display surrounding images such as the front of the host vehicle on a monitor display, a windshield display, or the like.

従来より、車両を運転する際のドライバの負担を軽減するために、周囲状況を見落としなく、より早期に且つ正確に検知する目的で、電子カメラを車両に搭載し、その電子カメラで撮影した画像などを、運転席前方のモニタディスプレイやウインドシールドディスプレイ等に表示する車両用間接視認装置が提案されている。   Conventionally, in order to reduce the burden on the driver when driving the vehicle, an image is taken with the electronic camera mounted on the vehicle for the purpose of detecting the surrounding situation quickly and accurately without overlooking the surroundings. Indirect visual recognition devices for vehicles that display the above on a monitor display or a windshield display in front of the driver's seat have been proposed.

これらの技術では、運転する際に安全確認が必要な対象物、例えば歩行者や他の車両等のような要安全確認対象物を、ディスプレイ上に強調表示することで、ドライバの注意を喚起している。   In these technologies, objects that require safety confirmation when driving, for example, objects requiring safety confirmation such as pedestrians and other vehicles, are highlighted on the display to alert the driver. ing.

この強調表示の方法としては、例えば車両前方の所定のエリアを強調表示する方法(特許文献1参照)や、要安全確認対象物の背景を目立たないように抑制処理することで、要安全確認対象物を間接的に強調する方法などが提案されている(特許文献2、3参照)。
特開2003−274393号公報 特開平9−48282号公報 特開平11−328364号公報
As a highlighting method, for example, a method of highlighting a predetermined area in front of the vehicle (see Patent Document 1) or a safety confirmation target by suppressing the background of the safety confirmation target so as not to stand out. A method of indirectly highlighting an object has been proposed (see Patent Documents 2 and 3).
JP 2003-274393 A JP-A-9-48282 Japanese Patent Laid-Open No. 11-328364

しかしながら、例えば、要安全確認対象物の画像を直接強調する場合には、要安全確認対象物の見え方が大きく変化し、かえって認知しにくくなるという問題があった。
また、特許文献1の技術のように、車両の進行方向の全てを鮮明化すると、本当に注意すべき要安全確認対象物以外も注意喚起されるので、逆に注意力が低下するという問題があった。
However, for example, when directly emphasizing the image of the safety confirmation target object, there is a problem that the appearance of the safety confirmation target object greatly changes and becomes difficult to recognize.
In addition, as in the technique of Patent Document 1, when all of the traveling direction of the vehicle is clarified, attention is also drawn to objects other than the safety confirmation target that should be taken care of. It was.

更に、特許文献2、3では、要安全確認対象物以外を全て抑制するので、ドライバが自車両と要安全確認対象物との位置関係を把握し難く、要安全確認対象物の位置を認識しづらいという問題があった。   Furthermore, in Patent Documents 2 and 3, since all but the safety confirmation target object are suppressed, it is difficult for the driver to grasp the positional relationship between the host vehicle and the safety confirmation target object, and the position of the safety confirmation target object is recognized. There was a problem that it was difficult.

本発明は、かかる問題に鑑みてなされたものであり、要安全確認対象物を容易に認識できるとともに、自車両と要安全確認対象物との位置関係を容易に把握できる画像表示制御装置及び画像表示制御システムを提供することを目的とする。   The present invention has been made in view of such a problem, and is capable of easily recognizing a safety confirmation target object and easily grasping a positional relationship between the host vehicle and the safety confirmation target object and an image. An object is to provide a display control system.

(1)請求項1の発明は、自車両の周囲を撮影する撮像装置から得られる信号に基づいて、前記自車両の周囲に存在する要安全確認対象物を示す対象物画像を、画像表示装置に表示する画像表示制御装置において、前記自車両の走行予想領域を算出する走行予想領域算出手段と、前記走行予想領域の画像と前記要安全確認対象物との位置を関係づけて、前記走行予想領域と前記対象物画像とを前記画像表示装置に表示するとともに、前記走行予想領域以外の領域(走路外領域)の表示を該走行予想領域の表示より抑制することを特徴とする。   (1) According to the first aspect of the present invention, based on a signal obtained from an imaging device that captures the surroundings of the host vehicle, an object image indicating a safety confirmation target existing around the host vehicle is displayed as an image display device. In the image display control device to be displayed, the predicted travel region calculating means for calculating the predicted travel region of the host vehicle, the image of the predicted travel region and the position of the safety confirmation target object are related, and the predicted travel A region and the object image are displayed on the image display device, and display of a region other than the predicted travel region (region outside the road) is suppressed from the display of the predicted travel region.

本発明では、走行予想領域と要安全確認対象物との位置を関係づけて画像表示装置に表示するので、今後の自車両と要安全確認対象物との位置関係を容易に把握できる。しかも、この際には、走行予想領域以外は画像の表示を抑制するので、走行予想領域が明瞭になり、その結果、今後の自車両と要安全確認対象物との位置関係を極めて容易に把握できるという顕著な効果を奏する。   In the present invention, since the positions of the predicted travel area and the safety confirmation target object are related and displayed on the image display device, the future positional relationship between the host vehicle and the safety confirmation target object can be easily grasped. In addition, since the display of images other than the predicted travel area is suppressed at this time, the predicted travel area becomes clear, and as a result, the positional relationship between the host vehicle and the object requiring safety confirmation can be understood very easily. There is a remarkable effect of being able to.

・なお、ここで、「画像の表示を抑制する」とは、画像の認識を高める強調処理とは逆に、ぼかし等のように画像の認識を低める処理である。
・前記要安全確認対象物とは、歩行者や車両の様に、将来自車両と衝突する可能性がある障害物のことである。
Here, “suppressing image display” is processing for reducing image recognition, such as blurring, as opposed to enhancement processing for enhancing image recognition.
The safety target object is an obstacle that may collide with the host vehicle in the future, such as a pedestrian or a vehicle.

・前記走行予想領域とは、自車が走行する道路全体(対向車線を含む)が考えられるが、対向車線を除いた同じ方向の走路のみとしてもよい。また、同じ方向の走路(走行車線や追越車線等レーン)が複数ある場合には、その全ての走路を含むことが望ましいが、自車の走行する単一の車線のみとしてもよい。   -Although the said driving | running | working prediction area | region can consider the whole road (including an oncoming lane) where the own vehicle drive | works, it is good also as only the track of the same direction except an oncoming lane. In addition, when there are a plurality of lanes in the same direction (lanes such as lanes and overtaking lanes), it is preferable to include all the lanes, but only a single lane on which the vehicle travels may be included.

(2)請求項2の発明では、前記対象物画像は、前記要安全確認対象物自身の画像又は前記要安全確認対象物自身の画像の周囲を含む枠内の画像であることを特徴とする。
本発明は、要安全確認対象物を示す対象物画像を例示したものである。なお、要安全確認対象物自身の画像を枠で囲むことにより、要安全確認対象物の存在をより認識し易くなる。
(2) In the invention of claim 2, the object image is an image of the object requiring safety confirmation itself or an image within a frame including a periphery of the image of the object necessary for safety confirmation. .
The present invention exemplifies an object image indicating a safety confirmation target object. In addition, it becomes easier to recognize the presence of the safety confirmation target object by surrounding the image of the safety confirmation target object itself with a frame.

(3)請求項3の発明では、前記対象物画像の領域以外の表示を、該対象物画像の領域内の表示よりも抑制することを特徴とする。
これにより、対象物の認識性を高めることができる。例えば、走行予想領域以外の領域の画像と対象物画像とが重なり合う場合には、走行予想領域の表示を対象物画像の表示より抑制する。また、走行予想領域の画像と対象物画像とが重なり合う場合には、走行予想領域の表示を対象物画像の表示より抑制する。
(3) The invention of claim 3 is characterized in that the display other than the area of the object image is suppressed more than the display in the area of the object image.
Thereby, the recognition property of a target object can be improved. For example, when the image of the region other than the predicted travel region and the object image overlap, the display of the predicted travel region is suppressed from the display of the target image. Further, when the image of the predicted travel area and the object image overlap, the display of the predicted travel area is suppressed from the display of the target image.

(4)請求項4の発明では、前記要安全確認対象物に対し、その危険度に応じて優先順位を設定するとともに、前記優先順位に応じて、前記対象物画像の周囲の表示の抑制の度合いを変更することを特徴とする。   (4) In the invention of claim 4, priority is set according to the degree of risk for the safety-required object to be confirmed, and suppression of display around the object image is suppressed according to the priority. It is characterized by changing the degree.

これにより、危険度に応じた表示が可能となるので、ドライバが危険度の程度を容易に把握でき、安全性が一層向上する。
(5)請求項5の発明では、前記対象物画像の周囲に帯状部を設定し、その帯状部において前記表示の抑制の度合いを変更する。
As a result, the display according to the degree of danger becomes possible, so that the driver can easily grasp the degree of the degree of danger and the safety is further improved.
(5) In the invention of claim 5, a band-shaped portion is set around the object image, and the degree of suppression of the display is changed in the band-shaped portion.

本発明は、優先度に応じて表示の抑制の度合いを変更する領域を例示したものである。
(6)請求項6の発明では、前記優先順位が高いほど、前記表示の抑制の度合いを大きくすることを特徴とする。
The present invention exemplifies a region where the degree of suppression of display is changed according to priority.
(6) The invention of claim 6 is characterized in that the higher the priority is, the greater the degree of suppression of the display.

これにより、ドライバは、どの要安全確認対象物の優先度(従って危険度)が高いかが分かるので、一層安全性が向上する。
本発明は、走行予想領域の画像と対象物画像とが重なり合う場合の表示の抑制方法を例示したものである。なお、対象物画像と走路外領域とが重なる領域では、走路外領域の表示を抑制することができる。
As a result, the driver knows which safety-required confirmation target object has a higher priority (thus, a risk level), and thus the safety is further improved.
The present invention exemplifies a display suppression method when an image of a predicted travel region and an object image overlap each other. In addition, in the area where the object image and the off-road area overlap, the display of the off-road area can be suppressed.

(7)請求項7の発明では、前記画像の表示を抑制する抑制処理は、所定の色で塗りつぶす処理、所定の色で半透明で塗りつぶす処理、所定のぼかし度合いでぼかす処理、コントラストを下げる処理、輝度を下げる処理、カラー画像の彩度を下げる処理のうち、少なくとも1種であることを特徴とする。   (7) In the invention of claim 7, the suppression processing for suppressing the display of the image includes processing for painting with a predetermined color, processing for painting with a predetermined color and translucent processing, processing for blurring with a predetermined blurring degree, processing for reducing contrast And at least one of a process for reducing luminance and a process for reducing the saturation of a color image.

本発明は、抑制処理を例示したものである。
(8)請求項8の発明(画像表示制御システム)は、前記請求項1〜7のいずれかに記載の画像表示制御装置に、少なくとも撮像装置及び画像表示装置を備えたことを特徴とする。
The present invention illustrates the suppression process.
(8) An invention (an image display control system) according to an eighth aspect is characterized in that the image display control device according to any one of the first to seventh aspects includes at least an imaging device and an image display device.

本発明は、画像表示制御装置を用いたシステム構成を示したものである。なお、撮像装置以外に、レーダや各種のセンサ等の信号を用いることができる。   The present invention shows a system configuration using an image display control device. In addition to the imaging device, signals from radars and various sensors can be used.

以下に本発明の実施形態を図面と共に説明する。
[第1の実施形態]
a)まず、本実施形態の画像表示制御システムの構成について説明する。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
a) First, the configuration of the image display control system of the present embodiment will be described.

図1に示す様に、本実施形態の画像表示制御システム1は、車両の周囲に存在する注意すべき対象物(要安全確認対象物:障害物)を検出し、その障害物をディスプレイ3上で容易に認識できるような画像処理を行う車両用間接視認システムであり、その主要部として、画像の抑制表示等の処理を行う画像表示制御装置5を備えている。   As shown in FIG. 1, the image display control system 1 according to the present embodiment detects a target object (safety confirmation target object: obstacle) existing around the vehicle and displays the obstacle on the display 3. It is an indirect vehicular visual recognition system that performs image processing that can be easily recognized, and includes an image display control device 5 that performs processing such as image suppression display as a main part thereof.

画像表示制御装置5は、周知のマイクロコンピュータ7やメモリ9を主要部とする電子制御装置から構成されており、この画像表示制御装置5には、車両の前方等を撮影する電子カメラ11、車両の前方等の障害物などを検出するレーダ13、車速を検出する車速センサ15、操舵角を検出する操舵角センサ17、ナビゲーション装置19、画像を表示するディスプレイ3などが接続されている。   The image display control device 5 includes an electronic control device having a known microcomputer 7 and memory 9 as main parts. The image display control device 5 includes an electronic camera 11 for photographing the front of the vehicle and the like, a vehicle Are connected to a radar 13 for detecting an obstacle in front of the vehicle, a vehicle speed sensor 15 for detecting a vehicle speed, a steering angle sensor 17 for detecting a steering angle, a navigation device 19, and a display 3 for displaying an image.

なお、前記電子カメラ11としては、可視光カメラや赤外線カメラを用いることができ、また、レーダ13としては、ミリ波レーダ(車両を対象とした場合)やレーザレーダ(歩行者を対象とした場合)を用いることができる。更に、センサとしては、車両のピッチ角を検出するセンサを用いてもよい。   The electronic camera 11 can be a visible light camera or an infrared camera, and the radar 13 can be a millimeter wave radar (for vehicles) or a laser radar (for pedestrians). ) Can be used. Furthermore, a sensor that detects the pitch angle of the vehicle may be used as the sensor.

前記画像表示制御装置5は、後に詳述する様に、電子カメラ11、レーダ13、車速センサ15、操舵角センサ17、ナビゲーション装置19などから得られる情報に基づいて、走行環境の認識、走行状態の認識、障害物及び走行予想領域並びにその周囲の画像の処理を行い、その処理結果に基づいて、ディスプレイ3に、障害物及び走行予想領域の画像を表示するとともに、それらの周囲をぼかす等の処理により抑制して表示する。   As will be described in detail later, the image display control device 5 recognizes the driving environment and the driving state based on information obtained from the electronic camera 11, the radar 13, the vehicle speed sensor 15, the steering angle sensor 17, the navigation device 19, and the like. Recognition, obstacles and predicted travel areas, and the surrounding images, and based on the processing results, the display 3 displays the images of the obstacles and predicted travel areas and blurs the surroundings. Display suppressed by processing.

b)次に、画像表示制御装置5で行われる処理内容を説明する。
図2のフローチャートに示す様に、画像表示制御装置5では、まず、ステップ(S)100にて、電子カメラ11で撮影された車両の前方の撮像データを取り込む。
b) Next, processing contents performed in the image display control device 5 will be described.
As shown in the flowchart of FIG. 2, in the image display control device 5, first, in step (S) 100, image data in front of the vehicle photographed by the electronic camera 11 is captured.

続くステップ110では、レーダ13により検出された障害物との距離のデータ(測距データ)を取り込む。
続くステップ120では、車速センサ15や操舵角センサ17から得られた自車の車両情報を取り込む。なお、この際に、自車が走行する車線等の情報を、ナビゲーション装置19から取り込むことができる。
In the subsequent step 110, data on the distance to the obstacle detected by the radar 13 (ranging data) is captured.
In the following step 120, the vehicle information of the own vehicle obtained from the vehicle speed sensor 15 and the steering angle sensor 17 is captured. At this time, information such as the lane in which the host vehicle is traveling can be taken from the navigation device 19.

続くステップ130では、自車線走行領域の算出を行う。この自車線走行領域とは、自車がこれから走行する可能性の高い走行予想領域(軌跡)のことであり、ここでは対向車線を含む道路全体を示している。   In the following step 130, the own lane travel area is calculated. The own lane travel region is a predicted travel region (trajectory) where the host vehicle is likely to travel from now on, and shows the entire road including the oncoming lane.

この自車線走行領域の算出方法としては、例えば道路に白線がある場合は、カメラ画像と車両情報(操舵角等)から左右の白線を検出し、その左右の白線の内側を自車線走行領域として抽出する方法が挙げられる。なお、白線検出方法は、例えば特開平11−85999号公報に記載の技術を採用できる。   As a method of calculating the own lane travel area, for example, when there is a white line on the road, the left and right white lines are detected from the camera image and vehicle information (steering angle, etc.), and the inside of the left and right white lines is set as the own lane travel area. The method of extracting is mentioned. For example, the technique described in Japanese Patent Application Laid-Open No. 11-85999 can be adopted as the white line detection method.

また、白線がない場合には、カメラ画像からクラスタリング処理にて、道路平面領域を求め、自車線走行領域として抽出する方法を採用できる。なお、道路平面検出方法は、例えば特開2005−21788号公報に記載の技術を採用できる。   When there is no white line, a method of obtaining a road plane area from the camera image by clustering processing and extracting it as the own lane running area can be adopted. As a road plane detection method, for example, the technique described in JP-A-2005-21788 can be adopted.

続くステップ140では、要安全確認対象物である歩行者や車両等の障害物の検出を行う。この障害物の検出方法としては、例えば下記(1)〜(4)の方法を採用できる。
(1)立体物(障害物)の検出手法
2台の並列に配置された電子カメラ11から、視差を算出し、視差が出ている部分をクラスタリングして、立体物領域(即ち障害物)を抽出する。なお、ステレオ画像から立体物を検出する方法は、例えば特開2000−217883号公報等に記載の技術を採用できる。
In the subsequent step 140, obstacles such as pedestrians and vehicles that are safety-required confirmation objects are detected. As the obstacle detection method, for example, the following methods (1) to (4) can be employed.
(1) Method for detecting a solid object (obstacle) The parallax is calculated from two electronic cameras 11 arranged in parallel, and the part where the parallax is generated is clustered to obtain a three-dimensional object region (that is, an obstacle). Extract. As a method for detecting a three-dimensional object from a stereo image, for example, a technique described in JP 2000-217883 A can be employed.

(2)歩行者の検出手法
赤外線カメラ画像から高輝度の領域を抽出し、歩行者の形状・動き等に着目した識別法により、歩行者を検出する。なお、赤外画像から歩行者を検出する方法は、特開平11−328364号公報等に記載の技術を採用できる。
(2) Pedestrian detection method A high brightness area is extracted from an infrared camera image, and a pedestrian is detected by an identification method focusing on the shape and movement of the pedestrian. In addition, the method as described in Unexamined-Japanese-Patent No. 11-328364 etc. can be employ | adopted for the method of detecting a pedestrian from an infrared image.

(3)歩行者の検出手法
レーザレーダにより歩行者を含む立体物領域を抽出し、カメラ画像の立体物領域にて、歩行者の形状・動き等に着目した識別法により、歩行者を検出する。なお、レーザと画像から歩行者を検出する方法は、特開2003−302470号公報等に記載の技術を採用できる。
(3) Pedestrian detection method A three-dimensional object region including a pedestrian is extracted by laser radar, and a pedestrian is detected in the three-dimensional object region of the camera image by an identification method that focuses on the shape and movement of the pedestrian. . In addition, the method as described in Unexamined-Japanese-Patent No. 2003-302470 etc. can be employ | adopted for the method of detecting a pedestrian from a laser and an image.

(4)車両の検出手法
ミリ波レーダにより車両を含む立体物領域を抽出し、カメラ画像の立体物領域にて、車両の形状・動き等に着目した識別法により、車両を検出する。なお、ミリ波と画像から車両を検出する方法は、特開2005−141517号公報等に記載の技術を採用できる。
(4) Vehicle detection method A three-dimensional object region including a vehicle is extracted by a millimeter wave radar, and the vehicle is detected in the three-dimensional object region of the camera image by an identification method focusing on the shape and movement of the vehicle. As a method for detecting a vehicle from a millimeter wave and an image, a technique described in Japanese Patent Application Laid-Open No. 2005-141517 can be employed.

続くステップ150では、ディスプレイ3に表示する表示画像を算出する。即ち、ディスプレイ3上で、障害物と自車線走行領域との位置関係が分かるようにするとともに、どの部分の表示をどの程度抑制するか等を設定した表示画像を算出する。   In the subsequent step 150, a display image to be displayed on the display 3 is calculated. That is, a display image is set on the display 3 so that the positional relationship between the obstacle and the own lane travel area can be understood, and which part of the display is suppressed to what extent.

具体的には、図3に示す様に、前記ステップ150で検出した歩行者や車両に対して、その周囲を囲むように矩形状のフレームを設定し、そのフレーム内は、電子カメラ11で撮影した画像をそのまま表示するようにする。   Specifically, as shown in FIG. 3, a rectangular frame is set so as to surround the pedestrian and vehicle detected in step 150, and the inside of the frame is photographed by the electronic camera 11. The selected image is displayed as it is.

また、前記ステップ130で算出した自車線走行領域は、電子カメラ11で撮影した画像をそのまま表示する。なお、自車線走行領域に対しては、フレーム内の画像(対象物画像)よりは表示を抑制した処理を行ってもよい。例えば半透明に塗りつぶす処理を行ってもよい。これによりフレーム内の画像の認識度が向上する。   In the own lane travel area calculated in step 130, the image captured by the electronic camera 11 is displayed as it is. In addition, you may perform the process which suppressed the display rather than the image (object image) in a frame with respect to the own lane travel area. For example, a semi-transparent process may be performed. Thereby, the recognition degree of the image in a frame improves.

更に、自車線走行領域以外の領域(走行外領域)に対しては、画像の抑制処理を行う。つまり、フレーム内の画像や自車線走行領域よりも認識度(注目度)を低下させるために、走行外領域全体をぼかす等の画像処理を行う。なお、フレームと走行外領域が重ねる領域では、フレーム内の画像を表示するように設定する。   Furthermore, image suppression processing is performed for areas other than the own lane travel area (out-travel area). In other words, image processing such as blurring the entire out-of-travel area is performed in order to reduce the recognition level (attention level) more than the image in the frame and the own lane travel area. It should be noted that in the region where the frame and the non-running region overlap, it is set to display the image in the frame.

従って、ここでは、画像が目立つ順番(即ち抑制の程度が低い順番)は、(障害物自身の画像を含む)フレーム内の画像及び自車線走行領域内の画像>走行外領域の画像となる。なお、自車線走行領域内を半透明にした場合は、フレーム内の画像>自車線走行領域内の画像>走行外領域の画像となる
続くステップ160では、前記ステップ150にて算出された前記図3に示すような画像を、ディスプレイ3に表示し、一旦本処理を終了する。
Therefore, here, the order in which the images are conspicuous (that is, the order in which the degree of suppression is low) is the image in the frame (including the image of the obstacle itself) and the image in the own lane traveling area> the image in the outside traveling area. If the inside of the own lane driving area is made translucent, the image in the frame> the image in the own lane driving area> the image of the outside driving area is obtained. In the following step 160, the figure calculated in the step 150 is obtained. 3 is displayed on the display 3, and the process is temporarily terminated.

c)このように、本実施形態では、障害物の存在位置に対応して、障害物の画像と自車線走行領域の画像とを重ね合わせるように表示するので、ドライバは、自車両と障害物との現在や将来の位置関係を容易に把握することができる。また、自車線走行領域の外側の領域は、ぼかす等の画像の抑制処理を行うので、ドライバの運転によって重要な障害物や自車線走行領域の画像の認識度を高めることができる。   c) Thus, in this embodiment, the image of the obstacle and the image of the own lane travel area are displayed so as to overlap with each other in accordance with the position where the obstacle is present. It is possible to easily grasp the current and future positional relationship with In addition, since the area outside the own lane travel area is subjected to image suppression processing such as blurring, it is possible to increase the recognition degree of important obstacles and the image of the own lane travel area by driving the driver.

なお、自車線走行領域を、例えば半透明にすることにより画像を抑制する場合には、危険度高い障害物の認識度を高めることができるとともに、道路の形状等も容易に把握できるという利点がある。   In addition, when suppressing the image by making the own lane travel area, for example, translucent, there is an advantage that the recognition degree of the obstacle with high risk can be increased and the shape of the road can be easily grasped. is there.

[第2の実施形態]
次に、第2の実施形態について説明するが、前記第1の実施形態と同様な内容の説明は省略する。
[Second Embodiment]
Next, the second embodiment will be described, but the description of the same contents as the first embodiment will be omitted.

本実施形態では、障害物の危険度に応じた表示を行うものである。
以下に、本実施形態の画像表示制御装置5で行われる処理内容を説明する。
図4のフローチャートに示す様に、画像表示制御装置5では、まず、ステップ200にて、電子カメラ11で撮影された画像の撮像データを取り込む。
In the present embodiment, display is performed according to the danger level of the obstacle.
Below, the processing content performed by the image display control apparatus 5 of this embodiment is demonstrated.
As shown in the flowchart of FIG. 4, in the image display control device 5, first, in step 200, image capturing data of an image captured by the electronic camera 11 is captured.

続くステップ210では、レーダ13により検出された障害物との測距データを取り込む。
続くステップ220では、車速センサ15や操舵角センサ17から得られた自車の車両情報を取り込む。
In the subsequent step 210, distance measurement data with the obstacle detected by the radar 13 is captured.
In the following step 220, the vehicle information of the own vehicle obtained from the vehicle speed sensor 15 and the steering angle sensor 17 is fetched.

続くステップ230では、前記第1の実施形態のステップ130と同様にして、自車線走行領域の算出を行う。
続くステップ240では、前記第1の実施形態のステップ140と同様にして、歩行者や車両等の障害物の検出を行う。
In subsequent step 230, the own lane travel area is calculated in the same manner as in step 130 of the first embodiment.
In subsequent step 240, obstacles such as pedestrians and vehicles are detected in the same manner as in step 140 of the first embodiment.

続くステップ250では、障害物の危険度の度合いを算出する。
この障害物の危険度の度合いの算出方法としては、例えば下記(1)〜(3)の方法を採用できる。
In subsequent step 250, the degree of danger of the obstacle is calculated.
For example, the following methods (1) to (3) can be adopted as a method of calculating the degree of danger of the obstacle.

(1)例えばレーダ13による情報に基づいて、各障害物と自車両との相対距離を算出し、障害物との距離が短いほど、障害物の危険度が大きいように設定する。なお、この際には、距離に対する危険度をマップとして持っておくことが望ましい。   (1) For example, based on information from the radar 13, the relative distance between each obstacle and the host vehicle is calculated, and the risk of the obstacle is set higher as the distance from the obstacle is shorter. In this case, it is desirable to have the degree of danger with respect to the distance as a map.

(2)各障害物と自車両との相対距離と相対速度を算出し、障害物との距離が短いほど、障害物との相対速度の方向が自車両や自車線に正対するほど、障害物との相対速度の大きさが大きいほど、危険度が大きいように設定する。なお、この際には、距離と相対速度に対する危険度をマップとして持っておくことが望ましい。   (2) Calculate the relative distance and relative speed between each obstacle and the vehicle, and the shorter the distance from the obstacle, the more the obstacle is in the direction of the relative speed with the obstacle and the vehicle. The higher the relative speed of, the higher the degree of danger. In this case, it is desirable to have a risk with respect to distance and relative speed as a map.

(3)各障害物と自車両との相対距離と相対速度を算出し、障害物との距離が短いほど、障害物との相対速度の方向が自車両や自車線に正対するほど、障害物との相対速度の大きさが大きいほど、危険度が大きいように設定する。更に、障害物の属性によっても危険度を変える。例えば、「立体物(静止物)<車両<歩行者」のように、危険度の度合いを設定する。この際にも、距離と相対速度に対する危険度をマップとして持っておくことが望ましい。   (3) The relative distance and relative speed between each obstacle and the host vehicle are calculated, and the shorter the distance from the obstacle, the more the direction of the relative speed with the obstacle is facing the host vehicle and the own lane. The higher the relative speed of, the higher the degree of danger. Further, the degree of danger is changed depending on the attribute of the obstacle. For example, the degree of danger is set such that “three-dimensional object (stationary object) <vehicle <pedestrian”. Also in this case, it is desirable to have a degree of risk for the distance and relative speed as a map.

これにより、例えば図5に示す様に、自車線走行領域のうち、特に左側の走行車線上にあって、車線中央に近づく歩行者Aの危険度を、最大の危険度レベル4に設定し、次に、左側の走行車線上にあって、その車線から遠ざかる歩行者Bの危険度を、次の危険度レベル3に設定し、次に、右側の反対車線から遠ざかる歩行者Cの危険度を、次の危険度レベル2に設定し、次に、右側の反対車線から近づいてくる他車両Dの危険度を、次の危険度レベル1に設定する。なお、歩行者や車両の移動方向は、周知のように、例えばそれらの画像を特徴点を抽出し、その特徴点の移動方向から求めることができる。   Thereby, as shown in FIG. 5, for example, the risk level of the pedestrian A who is on the left lane of the own lane travel area and approaches the center of the lane is set to the maximum risk level 4, Next, the risk level of the pedestrian B who is on the left lane and moves away from the lane is set to the next risk level 3. Next, the risk level of the pedestrian C away from the right opposite lane is set as the risk level. Then, the next risk level 2 is set, and then the risk level of the other vehicle D approaching from the opposite lane on the right side is set to the next risk level 1. As is well known, the movement direction of a pedestrian or vehicle can be obtained from, for example, the feature points extracted from those images and the movement directions of the feature points.

続くステップ260では、ディスプレイ3に表示する表示画像を算出する。
基本的には、図5に示す様に、前記ステップ240で検出した歩行者や車両に対して、その周囲を囲むように矩形状の帯状フレーム(帯状部)を設定し(但し下側は帯状にしない)、その帯状フレームより内側は、電子カメラ11で撮影した画像を、画像処理することなく、そのまま表示するようにする。
In the subsequent step 260, a display image to be displayed on the display 3 is calculated.
Basically, as shown in FIG. 5, a rectangular belt-like frame (band-like portion) is set so as to surround the pedestrian or vehicle detected in step 240 (the lower side is a belt-like shape). However, the image captured by the electronic camera 11 is displayed as it is without image processing inside the belt-like frame.

また、自車線走行領域は、前記第1の実施形態と同様に、そのまま撮影画像を表示してもよく、或いは、例えば自車線走行領域を半透明にして表示を抑制してもよい。
更に、自車線走行領域以外の領域(走行外領域)に対しては、前記第1の実施形態と同様に、例えば全体をぼかす等の画像の抑制処理を行う。
In addition, the own lane travel area may display the captured image as it is, as in the first embodiment, or may suppress the display by making the own lane travel area translucent, for example.
Further, for areas other than the own lane travel area (out-travel area), image suppression processing such as blurring the entire image is performed as in the first embodiment.

本実施形態では、特に、障害物の周囲に設定した帯状フレームの表示を、危険度の程度が大きいほど、ぼかし度を大きくしている。更に、ここでは、危険度に応じて、帯状フレームの色も変更している。例えば危険度の大きなものから、赤色>橙色>黄色>青色のように着色したり、背景との明度の差分が大きくなるように、明度を変更している。   In the present embodiment, in particular, the display of the band-shaped frame set around the obstacle increases the degree of blur as the degree of danger increases. Further, here, the color of the belt-like frame is also changed according to the degree of danger. For example, the lightness is changed from the one with the highest degree of danger to red> orange> yellow> blue, or the lightness difference with the background is increased.

つまり、危険度の高い障害物ほど、ドライバの注目を引くように、帯状フレームの表示を設定している。
なお、自車線走行領域以外の領域と帯状フレームとの間の画像の抑制の程度(ぼかしの程度としては、自車線走行領域以外の領域と帯状フレームとの区別が可能であればよく、例えば自車線走行領域以外の領域のぼかしの程度を大きくする。
That is, the display of the belt-like frame is set so that the obstacle having a higher degree of danger attracts the driver's attention.
It should be noted that the degree of suppression of the image between the area other than the own lane driving area and the belt-like frame (the degree of blurring is not limited as long as the area other than the own lane driving area and the belt-like frame can be distinguished. Increase the degree of blurring in areas other than the lane driving area.

続くステップ270では、前記図5に示すような画像を、ディスプレイ3に表示し、一旦本処理を終了する。
c)このように、本実施形態では、障害物の周囲に設定した帯状フレームの表示を、危険度の程度が大きいほど、画像表示の抑制の度合いを大きくしているので、従来の障害物自身の強調程度を大きくするという方法に比べて、ドライバが危険度の高い障害物を容易に認識できるという顕著な効果を奏する。
In the following step 270, an image as shown in FIG. 5 is displayed on the display 3, and the process is temporarily terminated.
c) As described above, in this embodiment, the display of the band-shaped frame set around the obstacle increases the degree of suppression of the image display as the degree of danger increases. Compared with the method of increasing the degree of emphasis on the vehicle, the driver can easily recognize obstacles with a high degree of danger.

尚、本発明は上記実施形態に限定されるものではなく、様々な態様にて実施することが可能である。
(1)例えば強調表示の手法として、運転者等の注意を喚起するものであれば、特に限定はない。例えば、対象物を示す画像を、画面上で振動させて強調表示してもよい。また、対象物が複数ある場合には、危険度の高いものから順に、対象物を示す画像を順次強調表示してもよい。
In addition, this invention is not limited to the said embodiment, It is possible to implement in various aspects.
(1) For example, as a highlighting method, there is no particular limitation as long as it draws attention of the driver or the like. For example, an image showing an object may be highlighted by vibrating on the screen. In addition, when there are a plurality of objects, images indicating the objects may be sequentially highlighted in order from the highest risk level.

(2)また、本発明は、上述したアルゴリズムに基づいて表示の抑制処理などを実行させるプログラムやそのプログラムを記憶している記録媒体にも適用できる。
この記録媒体としては、マイクロコンピュータとして構成される電子制御装置、マイクロチップ、フレキシブルディスク、ハードディスク、DVD、光ディスク等の各種の記録媒体が挙げられる。つまり、上述した画像表示制御装置の処理を実行させることができるプログラムを記憶したものであれば、特に限定はない。
(2) The present invention can also be applied to a program for executing a display suppression process based on the above-described algorithm and a recording medium storing the program.
Examples of the recording medium include various recording media such as an electronic control device configured as a microcomputer, a microchip, a flexible disk, a hard disk, a DVD, and an optical disk. That is, there is no particular limitation as long as it stores a program that can execute the processing of the image display control device described above.

尚、前記プログラムは、単に記録媒体に記憶されたものに限定されることなく、例えばインターネットなどの通信ラインにて送受信されるプログラムにも適用される。   The program is not limited to a program stored in a recording medium, but can be applied to a program transmitted / received through a communication line such as the Internet.

第1、2の実施形態における制御システム全体を示すブロック図である。It is a block diagram which shows the whole control system in 1st, 2nd embodiment. 第1の実施形態の画像表示制御装置における処理を示すフローチャートである。It is a flowchart which shows the process in the image display control apparatus of 1st Embodiment. 第1の実施形態のディスプレイに表示された画面を示す説明図である。It is explanatory drawing which shows the screen displayed on the display of 1st Embodiment. 第2の実施形態の画像表示制御装置における処理を示すフローチャートである。It is a flowchart which shows the process in the image display control apparatus of 2nd Embodiment. 第2の実施形態のディスプレイに表示された画面を示す説明図である。It is explanatory drawing which shows the screen displayed on the display of 2nd Embodiment.

符号の説明Explanation of symbols

1…画像表示制御システム
3…ディスプレイ
5…画像表示製御装置
11…電子カメラ
13…レーダ
DESCRIPTION OF SYMBOLS 1 ... Image display control system 3 ... Display 5 ... Image display control apparatus 11 ... Electronic camera 13 ... Radar

Claims (8)

自車両の周囲を撮影する撮像装置から得られる信号に基づいて、前記自車両の周囲に存在する要安全確認対象物を示す対象物画像を、画像表示装置に表示する画像表示制御装置において、
前記自車両の走行予想領域を算出する走行予想領域算出手段と、
前記走行予想領域と前記要安全確認対象物との位置を関係づけて、前記走行予想領域の画像と前記対象物画像とを前記画像表示装置に表示するとともに、前記走行予想領域以外の領域の表示を前記走行予想領域の表示より抑制することを特徴とする画像表示制御装置。
In an image display control device for displaying an object image indicating a safety-required confirmation object existing around the host vehicle on an image display device based on a signal obtained from an imaging device that captures the periphery of the host vehicle.
A predicted travel region calculation means for calculating a predicted travel region of the host vehicle;
The position of the predicted travel area and the safety required target object are related to each other, and the image of the predicted travel area and the object image are displayed on the image display device, and the area other than the predicted travel area is displayed. Is suppressed from the display of the predicted travel area.
前記対象物画像は、前記要安全確認対象物自身の画像又は前記要安全確認対象物自身の画像の周囲を含む枠内の画像であることを特徴とする請求項1に記載の画像表示制御装置。   The image display control device according to claim 1, wherein the object image is an image of the safety confirmation target object itself or an image within a frame including a periphery of the image of the safety confirmation target object itself. . 前記対象物画像の領域以外の表示を、該対象物画像の領域内の表示よりも抑制することを特徴とする請求項1又は2に記載の画像表示制御装置。   The image display control device according to claim 1, wherein display other than the region of the object image is suppressed more than display within the region of the object image. 前記要安全確認対象物に対し、その危険度に応じて優先順位を設定するとともに、前記優先順位に応じて、前記対象物画像の周囲の表示の抑制の度合いを変更することを特徴とする請求項3に記載の画像表示制御装置。   A priority order is set for the safety-required confirmation target object according to the degree of risk, and a degree of suppression of display around the object image is changed according to the priority order. Item 4. The image display control device according to Item 3. 前記対象物画像の周囲に帯状部を設定し、その帯状部において前記表示の抑制の度合いを変更することを特徴とする請求項4に記載の画像表示制御装置。   The image display control apparatus according to claim 4, wherein a band-shaped portion is set around the object image, and the degree of suppression of the display is changed in the band-shaped portion. 前記優先順位が高いほど、前記表示の抑制の度合いを大きくすることを特徴とする請求項4又は5に記載の画像表示制御装置。   The image display control apparatus according to claim 4, wherein the degree of suppression of the display is increased as the priority is higher. 前記画像の表示を抑制する抑制処理は、所定の色で塗りつぶす処理、所定の色で半透明で塗りつぶす処理、所定のぼかし度合いでぼかす処理、コントラストを下げる処理、輝度を下げる処理、カラー画像の彩度を下げる処理のうち、少なくとも1種であることを特徴とする請求項1〜6のいずれかに記載の画像表示制御装置。   The suppression process for suppressing the display of the image includes a process of painting with a predetermined color, a process of painting with a predetermined color and a translucent process, a process of blurring with a predetermined blurring degree, a process of reducing contrast, a process of reducing brightness, and a color image The image display control device according to claim 1, wherein the image display control device is at least one type of processing for decreasing the degree. 前記請求項1〜7のいずれかに記載の画像表示制御装置に、少なくとも撮像装置及び画像表示装置を備えたことを特徴とする画像表示制御システム。   An image display control system comprising at least an imaging device and an image display device in the image display control device according to claim 1.
JP2007204384A 2007-08-06 2007-08-06 Image display control device and image display control system Active JP5023872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007204384A JP5023872B2 (en) 2007-08-06 2007-08-06 Image display control device and image display control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007204384A JP5023872B2 (en) 2007-08-06 2007-08-06 Image display control device and image display control system

Publications (2)

Publication Number Publication Date
JP2009040108A true JP2009040108A (en) 2009-02-26
JP5023872B2 JP5023872B2 (en) 2012-09-12

Family

ID=40441361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007204384A Active JP5023872B2 (en) 2007-08-06 2007-08-06 Image display control device and image display control system

Country Status (1)

Country Link
JP (1) JP5023872B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232961A (en) * 2009-03-27 2010-10-14 Casio Computer Co Ltd Image processor, image processing method and program
JP2011034273A (en) * 2009-07-31 2011-02-17 Fujitsu Ltd Driving support system, driving support device, driving support method, and driving support program
WO2011089812A1 (en) 2010-01-19 2011-07-28 アイシン精機株式会社 Vehicle periphery monitoring device
WO2012035390A1 (en) 2010-09-15 2012-03-22 Toyota Jidosha Kabushiki Kaisha Surrounding image display system and surrounding image display method for vehicle
WO2013118191A1 (en) * 2012-02-10 2013-08-15 三菱電機株式会社 Driving assistance device and driving assistance method
JP2015049842A (en) * 2013-09-04 2015-03-16 トヨタ自動車株式会社 Alert display device and alert display method
WO2015152304A1 (en) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 Driving assistance device and driving assistance system
JP2016001170A (en) * 2014-05-19 2016-01-07 株式会社リコー Processing unit, processing program and processing method
JPWO2014129026A1 (en) * 2013-02-21 2017-02-02 本田技研工業株式会社 Driving support device and image processing program
JP2017100206A (en) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ Robot safety system
JP2017200808A (en) * 2016-05-06 2017-11-09 トヨタ自動車株式会社 Information display device
CN108275148A (en) * 2016-12-30 2018-07-13 现代自动车株式会社 Device and method for alleviating pedestrian impact
JP2018138406A (en) * 2017-02-24 2018-09-06 マツダ株式会社 Vehicle driving assisting system and method
CN114194109A (en) * 2021-12-17 2022-03-18 河南嘉晨智能控制股份有限公司 Industrial vehicle dangerous distance sensing method based on camera light stream detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328364A (en) * 1998-05-13 1999-11-30 Nissan Motor Co Ltd Area estimating device and display processor
JP2003274393A (en) * 2002-03-12 2003-09-26 Matsushita Electric Ind Co Ltd Vehicle periphery monitor device
JP2006175936A (en) * 2004-12-21 2006-07-06 Nissan Motor Co Ltd Display method and device for driving operation auxiliary device for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328364A (en) * 1998-05-13 1999-11-30 Nissan Motor Co Ltd Area estimating device and display processor
JP2003274393A (en) * 2002-03-12 2003-09-26 Matsushita Electric Ind Co Ltd Vehicle periphery monitor device
JP2006175936A (en) * 2004-12-21 2006-07-06 Nissan Motor Co Ltd Display method and device for driving operation auxiliary device for vehicle

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232961A (en) * 2009-03-27 2010-10-14 Casio Computer Co Ltd Image processor, image processing method and program
JP2011034273A (en) * 2009-07-31 2011-02-17 Fujitsu Ltd Driving support system, driving support device, driving support method, and driving support program
US8793053B2 (en) 2010-01-19 2014-07-29 Aisin Seiki Kabushiki Kaisha Vehicle periphery monitoring device
WO2011089812A1 (en) 2010-01-19 2011-07-28 アイシン精機株式会社 Vehicle periphery monitoring device
WO2012035390A1 (en) 2010-09-15 2012-03-22 Toyota Jidosha Kabushiki Kaisha Surrounding image display system and surrounding image display method for vehicle
DE112011103083T5 (en) 2010-09-15 2013-08-01 Toyota Jidosha Kabushiki Kaisha Environment image display system and environmental image display method for a vehicle
US9123179B2 (en) 2010-09-15 2015-09-01 Toyota Jidosha Kabushiki Kaisha Surrounding image display system and surrounding image display method for vehicle
WO2013118191A1 (en) * 2012-02-10 2013-08-15 三菱電機株式会社 Driving assistance device and driving assistance method
JPWO2013118191A1 (en) * 2012-02-10 2015-05-11 三菱電機株式会社 Driving support device and driving support method
US9852632B2 (en) 2012-02-10 2017-12-26 Mitsubishi Electric Corporation Driving assistance device and driving assistance method
US9589194B2 (en) 2013-02-21 2017-03-07 Honda Motor Co., Ltd. Driving assistance device and image processing program
JPWO2014129026A1 (en) * 2013-02-21 2017-02-02 本田技研工業株式会社 Driving support device and image processing program
JP2015049842A (en) * 2013-09-04 2015-03-16 トヨタ自動車株式会社 Alert display device and alert display method
WO2015152304A1 (en) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 Driving assistance device and driving assistance system
JP2016001170A (en) * 2014-05-19 2016-01-07 株式会社リコー Processing unit, processing program and processing method
JP2017100206A (en) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ Robot safety system
JP2017200808A (en) * 2016-05-06 2017-11-09 トヨタ自動車株式会社 Information display device
CN108275148A (en) * 2016-12-30 2018-07-13 现代自动车株式会社 Device and method for alleviating pedestrian impact
JP2018138406A (en) * 2017-02-24 2018-09-06 マツダ株式会社 Vehicle driving assisting system and method
CN114194109A (en) * 2021-12-17 2022-03-18 河南嘉晨智能控制股份有限公司 Industrial vehicle dangerous distance sensing method based on camera light stream detection
CN114194109B (en) * 2021-12-17 2023-12-22 河南嘉晨智能控制股份有限公司 Industrial vehicle dangerous distance sensing method based on camera optical flow detection

Also Published As

Publication number Publication date
JP5023872B2 (en) 2012-09-12

Similar Documents

Publication Publication Date Title
JP5023872B2 (en) Image display control device and image display control system
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
JP3739693B2 (en) Image recognition device
JP4815488B2 (en) Vehicle periphery monitoring device
US8766816B2 (en) System for monitoring the area around a vehicle
JP5706874B2 (en) Vehicle periphery monitoring device
JP2009040107A (en) Image display control device and image display control system
US10618467B2 (en) Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle
US20080198226A1 (en) Image Processing Device
JP4528283B2 (en) Vehicle periphery monitoring device
JP4755227B2 (en) Method for recognizing objects
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP5898001B2 (en) Vehicle periphery monitoring device
JP7077616B2 (en) Display control device and display control method
JP2013008070A (en) Sign recognition device and sign recognition method
JP2007164671A (en) Device for deciding approaching obstacle and system for warning collision with obstacle
CN107004250B (en) Image generation device and image generation method
WO2017056724A1 (en) Periphery recognition device
JP2008282067A (en) Approach object detection device and approaching object detection program
JP4826355B2 (en) Vehicle surrounding display device
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP5192007B2 (en) Vehicle periphery monitoring device
JP3916930B2 (en) Approach warning device
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
JP5192009B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5023872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250