JP2011248640A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2011248640A
JP2011248640A JP2010121359A JP2010121359A JP2011248640A JP 2011248640 A JP2011248640 A JP 2011248640A JP 2010121359 A JP2010121359 A JP 2010121359A JP 2010121359 A JP2010121359 A JP 2010121359A JP 2011248640 A JP2011248640 A JP 2011248640A
Authority
JP
Japan
Prior art keywords
vehicle
type determination
area
determination
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010121359A
Other languages
Japanese (ja)
Other versions
JP5259647B2 (en
Inventor
Makoto Aimura
誠 相村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010121359A priority Critical patent/JP5259647B2/en
Publication of JP2011248640A publication Critical patent/JP2011248640A/en
Application granted granted Critical
Publication of JP5259647B2 publication Critical patent/JP5259647B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To notify a driver of objects around a vehicle including pedestrians by detecting the objects from images acquired by imaging means that is installed to the vehicle.SOLUTION: The vehicle periphery monitoring device comprises: imaging means that is installed to a vehicle for acquiring images around the vehicle; object identification means for identifying the objects around the vehicle for the images acquired by the imaging means; motion vector calculation means for calculating the motion vectors of the objects; type determination means for determining object types; and notification means for notifying the driver of the objects when the object is a specified target and the vehicle and the object are placed in specified relation. The type determination means performs: (i) first type determination whose accuracy is high at heavy-operation loads when the objects exist in a first area which the object reaches in time either shorter than or equal to a specified time; and (ii) second type determination whose accuracy is low at operation loads lighter than those of the first type determination when the object exists in a second area which the object reaches in time longer than the specified time.

Description

本発明は、車両の周辺監視装置に関し、より具体的には、車両に搭載された撮像手段により得られる画像から、歩行者を含む車両の周辺の対象物を検出して運転者に知らせるための車両の周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device, and more specifically, for detecting an object around a vehicle including a pedestrian and notifying a driver from an image obtained by an imaging unit mounted on the vehicle. The present invention relates to a vehicle periphery monitoring device.

特許文献1は、車両に搭載された撮像手段により得られる画像から、当該車両に衝突するおそれのある対象物を検出するために、当該車両の周辺を監視する周辺監視装置を開示する。   Patent Document 1 discloses a periphery monitoring device that monitors the periphery of a vehicle in order to detect an object that may collide with the vehicle from an image obtained by an imaging unit mounted on the vehicle.

特許第3515926号公報Japanese Patent No. 3515926

特許文献1に記載の周辺監視装置では、歩行者等の対象物を検出した場合に、表示画面上の検出対象物に対して、それを運転者等に分かりやすく認知させるために、枠を付与したり、その枠の色を可変したり、あるいは警告音発生等によりその存在を強調している。   In the periphery monitoring device described in Patent Literature 1, when an object such as a pedestrian is detected, a frame is added to the detection object on the display screen so that the driver can easily recognize it. The presence of the frame is emphasized by changing the color of the frame or generating a warning sound.

しかし、特許文献1等の従来の周辺監視装置では、検出した対象物の位置に応じて枠色を可変させる、あるいは警告音を発生させる場合、対象物の検出状況、すなわち所定のタイミングでの過去の検出において既に枠が付与されている状態なのか、あるいは警告音が発生されている状態なのか等に関わらず同一の画像処理を実施している。そのため、特に複数の処理を並行して行わなければならいような状況下では、その処理に必要な演算量が圧迫されるおそれがあった。   However, in the conventional peripheral monitoring device such as Patent Document 1, when the frame color is changed according to the detected position of the object or a warning sound is generated, the detection state of the object, that is, the past at a predetermined timing The same image processing is carried out regardless of whether a frame has already been added or a warning sound has been generated. For this reason, particularly in a situation where a plurality of processes must be performed in parallel, there is a risk that the amount of calculation required for the processes will be compressed.

そこで、本発明は、この従来技術の問題を軽減あるいは解消すること、すなわち、車両の周辺監視装置における対象物の検出状態に応じて、適時画像処理を最適に制御し、その検出精度を維持しながら画像処理の演算負荷を軽減させることを目的とする。   Therefore, the present invention reduces or eliminates this problem of the prior art, that is, optimally controls timely image processing according to the detection state of the object in the vehicle periphery monitoring device, and maintains its detection accuracy. However, it aims at reducing the calculation load of image processing.

本発明は、車両の周辺監視装置を提供する。その周辺監視装置は、車両に搭載され、車両の周辺の画像を取得する撮像手段と、撮像手段により取得された画像から車両の周辺の物体を特定する物体特定手段と、物体の移動ベクトルを算出する移動ベクトル算出手段と、物体の種別を判定する種別判定手段と、物体が所定対象物でありかつ車両と物体とが所定の位置関係にある場合に運転者に報知をおこなう報知手段と、を備える。その種別判定手段は、(i)物体が、車両に到達するまでの到達時間が所定時間以下である第1領域に存在する場合、高演算負荷で判定精度が高い第1種別判定をおこない、(ii)物体が、その到達時間が所定時間よりも大きい第2領域に存在する場合、第1種別判定よりも低演算負荷で判定精度が低い第2種別判定をおこなう。   The present invention provides a vehicle periphery monitoring device. The periphery monitoring device is mounted on a vehicle and calculates an imaging unit that acquires an image around the vehicle, an object specifying unit that specifies an object around the vehicle from the image acquired by the imaging unit, and a movement vector of the object Movement vector calculation means for performing classification, determination means for determining the type of the object, and notification means for notifying the driver when the object is a predetermined target and the vehicle and the object are in a predetermined positional relationship, Prepare. The type determination means (i) performs the first type determination with high calculation load and high determination accuracy when the object exists in the first region where the arrival time until reaching the vehicle is equal to or shorter than a predetermined time. ii) When the object is present in the second area whose arrival time is longer than the predetermined time, the second type determination is performed with a lower calculation load and lower determination accuracy than the first type determination.

本発明によれば、車両から比較的近傍の物体の種別判定精度を上げると同時に、比較的遠い物体の種別判定の演算負荷を下げることにより、車両周辺の所定の物体の検出精度を高く維持しながら画像処理全体の演算負荷を軽減することが可能となる。   According to the present invention, the accuracy of detecting a predetermined object around the vehicle is maintained high by increasing the accuracy of determining the type of an object that is relatively close to the vehicle and simultaneously reducing the calculation load for determining the type of an object that is relatively far away. However, the calculation load of the entire image processing can be reduced.

本発明の一形態によると、種別判定手段は、第1および第2領域に物体が存在し、かつ第1領域に所定数以上の物体が存在する場合、第2領域に存在する物体に対する第2種別判定をおこなわない、あるいは第2種別判定よりも低演算負荷で判定精度が低い第3種別判定をおこなう。   According to an aspect of the present invention, the type determination unit is configured to perform a second operation on an object existing in the second area when an object exists in the first area and the second area, and a predetermined number of objects exist in the first area. The type determination is not performed, or the third type determination is performed with lower calculation load and lower determination accuracy than the second type determination.

本発明の一形態によれば、比較的近傍の複数の物体の種別判定に演算負荷を集中させてその検出精度を上げると同時に、画像処理全体の演算負荷を軽減することが可能となる。   According to one aspect of the present invention, it is possible to concentrate calculation load on the determination of types of a plurality of objects that are relatively close to increase the detection accuracy, and to reduce the calculation load on the entire image processing.

本発明の一形態によると、物体に対する到達時間および移動ベクトルから当該物体が車両に到達する可能性が所定値以上であると判定される場合、種別判定手段は当該物体に対する種別の判定をおこなわない。   According to one aspect of the present invention, when it is determined from the arrival time for an object and the movement vector that the possibility that the object reaches the vehicle is greater than or equal to a predetermined value, the type determination unit does not determine the type for the object. .

本発明の一形態によれば、車両への接近可能性の大きい物体が検出された場合、その種別判定をおこなうことなく迅速に運転者に警告等による報知をおこなうことが可能となる。   According to an aspect of the present invention, when an object with a high possibility of approaching a vehicle is detected, it is possible to promptly notify the driver by a warning or the like without performing the type determination.

本発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery monitoring apparatus according to one Example of this invention. 本発明の一実施例に従う、赤外線カメラの取り付け位置を説明するための図である。It is a figure for demonstrating the attachment position of the infrared camera according to one Example of this invention. 本発明の一実施例に従う、画像処理ユニットにおける処理フローを示す図である。It is a figure which shows the processing flow in an image processing unit according to one Example of this invention. 本発明の一実施例に従う、車両前方の検出領域を説明するための図である。It is a figure for demonstrating the detection area ahead of the vehicle according to one Example of this invention. 本発明の一実施例に従う、種別判定の処理フローを示す図である。It is a figure which shows the processing flow of classification determination according to one Example of this invention. 本発明の一実施例に従う、別の種別判定の処理フローを示す図である。It is a figure which shows the processing flow of another classification determination according to one Example of this invention. 本発明の一実施例に従う、検出領域と報知レベルとの関係を示す図(表)である。It is a figure (table | surface) which shows the relationship between a detection area | region and alerting | reporting level according to one Example of this invention. 本発明の一実施例に従う、別の画像処理ユニットにおける処理フローを示す図である。It is a figure which shows the processing flow in another image processing unit according to one Example of this invention. 本発明の一実施例に従う、別の画像処理ユニットにおける処理フローを示す図である。It is a figure which shows the processing flow in another image processing unit according to one Example of this invention.

図面を参照しながら本発明の実施の形態を説明する。図1は、本発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、赤外線カメラ1R、1Lと、赤外線カメラ1R、1Lによって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット12と、その検出結果に基づいて音または音声で警報を発生するスピーカ14と、赤外線カメラの撮像を介して得られた画像を表示すると共に、運転者に車両周辺の対象物を認識させるための表示を行う表示装置16とを備える。なお、ナビゲーション装置を備える車両においては、スピーカ14および表示装置16として、ナビゲーション装置が備える該当機能を利用してもよい。また、赤外線カメラの代わりに他の波長帯(可視光等)を利用するカメラ(CCDカメラ等)を用いてもよい。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The periphery monitoring device is mounted on a vehicle, and includes infrared cameras 1R and 1L, an image processing unit 12 for detecting an object around the vehicle based on image data captured by the infrared cameras 1R and 1L, and the detection result. A speaker 14 that generates an alarm based on sound or voice, a display device 16 that displays an image obtained through imaging by an infrared camera, and that causes a driver to recognize an object around the vehicle; Is provided. In a vehicle provided with a navigation device, corresponding functions provided in the navigation device may be used as the speaker 14 and the display device 16. A camera (such as a CCD camera) that uses another wavelength band (such as visible light) may be used instead of the infrared camera.

図1の画像処理ユニット12は、その構成(機能)としてブロック121〜124で示される機能を有する。すなわち、画像処理ユニット12は、赤外線カメラ1R、1Lにより取得された画像から車両の周辺の物体を特定する物体特定手段121と、物体の移動ベクトルを算出する移動ベクトル算出手段122と、物体の種別を判定する種別判定手段123と、スピーカ14および表示装置16による報知レベルを判定する手段124として機能する。報知レベル判定手段124は、物体が所定対象物でありかつ車両と物体とが所定の位置関係にある場合に運転者に報知をおこなうようにスピーカ14および表示装置16を制御する。   The image processing unit 12 in FIG. 1 has the functions indicated by the blocks 121 to 124 as its configuration (function). That is, the image processing unit 12 includes an object specifying unit 121 that specifies an object around the vehicle from images acquired by the infrared cameras 1R and 1L, a movement vector calculating unit 122 that calculates a movement vector of the object, and an object type. Functions as a type determination unit 123 for determining the notification level, and a unit 124 for determining a notification level by the speaker 14 and the display device 16. The notification level determination unit 124 controls the speaker 14 and the display device 16 so as to notify the driver when the object is a predetermined target and the vehicle and the object are in a predetermined positional relationship.

各ブロックの機能は、画像処理ユニット12が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット12の構成は、ナビゲーション装置の中に組み込んでもよい。   The function of each block is realized by a computer (CPU) included in the image processing unit 12. The configuration of the image processing unit 12 may be incorporated in the navigation device.

画像処理ユニット12は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM、スピーカ14に対する駆動信号および表示装置16に対する表示信号などを出力する出力回路を備えている。赤外線カメラ1R、1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。   The image processing unit 12 includes, for example, an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, and a central processing unit (CPU) that performs various arithmetic processes. ), RAM used by the CPU to store data for calculation, ROM to store programs executed by the CPU and data to be used (including tables and maps), drive signals for the speakers 14, display signals to the display device 16, etc. An output circuit for outputting is provided. The output signals of the infrared cameras 1R and 1L are converted into digital signals and input to the CPU.

図2は、本発明の一実施例に従う、図1に示した赤外線カメラの取り付け位置を説明するための図である。赤外線カメラ1R、1Lは、図2に示すように車両10の前部に、車両10の横方向の中心軸に対してほぼ対称な位置に配置され、2つのカメラ1R、1Lの光軸が互いに平行となり、両者の路面からの高さが等しくなるように固定されている。赤外線カメラ1R、1Lは、物体の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。図2の符号2は、表示装置16としてヘッドアップディスプレイ(以下「HUD」という)を用いた場合の表示画面を示している。HUDは、図に示すように、車両10のフロントウインドウの、運転者の前方位置に画面2が表示されるように設けられる。   FIG. 2 is a view for explaining the mounting position of the infrared camera shown in FIG. 1 according to one embodiment of the present invention. As shown in FIG. 2, the infrared cameras 1R and 1L are disposed at the front portion of the vehicle 10 at positions that are substantially symmetrical with respect to the central axis in the lateral direction of the vehicle 10, and the optical axes of the two cameras 1R and 1L are mutually connected. They are parallel and fixed so that their height from the road surface is equal. The infrared cameras 1R and 1L have a characteristic that the output signal level increases (the luminance increases) as the temperature of the object increases. Reference numeral 2 in FIG. 2 represents a display screen when a head-up display (hereinafter referred to as “HUD”) is used as the display device 16. As shown in the figure, the HUD is provided such that the screen 2 is displayed at a front position of the driver on the front window of the vehicle 10.

図3は、本発明の一実施例に従う、画像処理ユニット12によって実行される処理フローである。この処理フローは、画像処理ユニット12のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。なお、以下の説明では、取得したグレースケール画像を2値化して白黒画像を得る場合を例にとり説明しているが、3値以上の多値化をしてもよい。その場合は、設定するしきい値の数は増えるが、基本的に2値化の場合と同様な処理をすることにより多値化画像を得ることができる。   FIG. 3 is a process flow executed by the image processing unit 12 according to one embodiment of the present invention. This processing flow is executed at predetermined time intervals by the CPU of the image processing unit 12 calling a processing program stored in the memory. In the following description, a case where a black and white image is obtained by binarizing the acquired gray scale image is described as an example. However, multi-value quantization of three or more values may be performed. In that case, the number of threshold values to be set increases, but a multi-valued image can be obtained by performing basically the same processing as in the case of binarization.

ステップS10において、赤外線カメラ2R、2Lから出力される赤外線画像のアナログ信号を入力し、該アナログ信号をA/D変換によりデジタル化したグレースケール画像をメモリに格納する。なお、ステップS10においては、赤外線カメラ2Rによるグレースケール画像(以下、右画像という)と、赤外線カメラ2Lによるグレースケール画像(以下、左画像という)とが取得される。   In step S10, an analog signal of an infrared image output from the infrared cameras 2R and 2L is input, and a grayscale image obtained by digitizing the analog signal by A / D conversion is stored in a memory. In step S10, a grayscale image (hereinafter referred to as a right image) obtained by the infrared camera 2R and a grayscale image (hereinafter referred to as a left image) obtained by the infrared camera 2L are acquired.

ステップS11において、右画像を基準画像として2値化処理(輝度が閾値以上の画素を「1(白)」とし、該閾値よりも小さい画素を「0(黒)」とする処理)を行って2値画像を生成する。ステップS12において、最初に2値画像に含まれる各白領域の画像部分をランレングスデータ(2値画像のx(水平)方向に連続する白の画素のラインのデータ)化する。次に、2値画像のy(垂直)方向に重なる部分があるラインを一つの画像部分としてラベリングし、ラベリングした画像部分を物体の画像候補として抽出する。   In step S11, the right image is used as a reference image to perform binarization processing (processing in which a pixel having a luminance equal to or higher than a threshold is set to “1 (white) and a pixel smaller than the threshold is set to“ 0 (black) ”). A binary image is generated. In step S12, first, the image portion of each white area included in the binary image is converted into run length data (data of white pixel lines continuous in the x (horizontal) direction of the binary image). Next, a line having a portion overlapping in the y (vertical) direction of the binary image is labeled as one image portion, and the labeled image portion is extracted as an object image candidate.

次のステップS13において、車両と物体候補との距離を算出する。具体的には、例えば以下のように算出する。   In the next step S13, the distance between the vehicle and the object candidate is calculated. Specifically, for example, the calculation is performed as follows.

最初に、各物体の画像候補の重心G、面積S、及び外接四角形の縦横比ASPECTを算出する。なお、具体的な算出方法については、例えば特開2004−303219号公報に詳説されているので、ここでは説明を省略する。次に、所定のサンプリング周期毎に赤外線カメラ2R、2Lにより撮像された画像に基づく2値画像から抽出された物体の画像について同一性判定を行い、同一の物体の画像であると判定された画像の位置(重心位置)の時系列データをメモリに格納する(時刻間追跡)。同時に、車速センサにより検出される車速及びヨーレートセンサにより検出されるヨーレートを読み込み、ヨーレートを時間積分することにより、車両10の回頭角を算出する。   First, the gravity center G, the area S, and the aspect ratio ASPECT of the circumscribed rectangle of the image candidates of each object are calculated. Note that a specific calculation method is described in detail in, for example, Japanese Patent Application Laid-Open No. 2004-303219, and thus the description thereof is omitted here. Next, the image of the object extracted from the binary image based on the image captured by the infrared cameras 2R and 2L is determined at every predetermined sampling period, and the image determined to be the image of the same object Is stored in memory (time tracking). At the same time, the turning speed of the vehicle 10 is calculated by reading the vehicle speed detected by the vehicle speed sensor and the yaw rate detected by the yaw rate sensor and integrating the yaw rate over time.

さらに、基準画像(右画像)の2値画像によって追跡される物体の画像候補の中の一つを選択して、右画像のグレースケール画像から探索画像R1(選択された候補画像の外接四角形で囲まれる領域全体の画像)を抽出する。そして、左画像のグレースケール画像から探索画像R1に対応する画像(以下、対応画像R1´という)を探索する探索領域を設定し、探索画像R1との相間演算を実行して対応画像R1´を抽出する。そして、探索画像R1の重心位置と対応画像R1´の重心位置との差を視差量(画素数)として算出し、得られた視差量に基づいて車両10と物体候補との距離zを算出する。同時に、探索画像の座標(x、y)と距離zを、実空間座標(X、Y、Z)に変換して、探索画像に対応する実空間位置の座標を算出する。なお、実空間座標(X、Y、Z)は、図2の赤外線カメラ2R、2Lの取り付け位置の中点の位置を原点0として、Xを車両10の車幅方向、Yを鉛直方向、Zを車両10の前方方向に設定される。   Further, one of the object image candidates tracked by the binary image of the reference image (right image) is selected, and the search image R1 (the circumscribed rectangle of the selected candidate image) is selected from the grayscale image of the right image. Image of the entire enclosed area) is extracted. Then, a search area for searching for an image corresponding to the search image R1 (hereinafter referred to as the corresponding image R1 ′) is set from the grayscale image of the left image, and a correlation calculation with the search image R1 is executed to determine the corresponding image R1 ′. Extract. Then, the difference between the centroid position of the search image R1 and the centroid position of the corresponding image R1 ′ is calculated as a parallax amount (number of pixels), and the distance z between the vehicle 10 and the object candidate is calculated based on the obtained parallax amount. . At the same time, the coordinates (x, y) and the distance z of the search image are converted into real space coordinates (X, Y, Z), and the coordinates of the real space position corresponding to the search image are calculated. The real space coordinates (X, Y, Z) are the origin 0 at the midpoint of the attachment position of the infrared cameras 2R, 2L in FIG. 2, X is the vehicle width direction of the vehicle 10, Y is the vertical direction, Z Is set in the forward direction of the vehicle 10.

次のステップS14において、物体候補の位置判定をおこなう。図4は、本発明の一実施例に従う、車両前方の検出領域を説明するための図である。図4の三角形の領域20は、車両10の赤外線カメラ2R、2Lで監視可能な領域を示す。領域20は、4つの領域A〜Dに区分けされている。   In the next step S14, the position of the object candidate is determined. FIG. 4 is a diagram for explaining a detection area in front of the vehicle according to one embodiment of the present invention. A triangular area 20 in FIG. 4 indicates an area that can be monitored by the infrared cameras 2 </ b> R and 2 </ b> L of the vehicle 10. The region 20 is divided into four regions A to D.

領域AとBは、路上領域であり、車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域、言い換えれば車両10の横方向の中心軸の両側に(α/2+β)の幅を有する領域である。この領域A、Bは、物体候補がそのまま存在し続ければ衝突の可能性が高い領域である。   Regions A and B are road regions, corresponding to a range obtained by adding a margin β (for example, about 50 to 100 cm) on both sides of the vehicle width α of the vehicle 10, in other words, the central axis in the lateral direction of the vehicle 10. This is a region having a width of (α / 2 + β) on both sides. These areas A and B are areas where the possibility of a collision is high if the object candidates continue to exist.

領域AとBは、物体候補が車両10に到達するまでの時間TTC(秒)が所定時間T1(秒)以上か以下かを基準に区分けしてある。領域CとDは、いずれも路側領域である。この領域C、Dは、領域A、BよりX座標の絶対値が大きい(領域A、Bの横方向外側の)領域であり、この領域内にある物体候補については、後述する車両10へ向けての侵入衝突の可能性のある領域である。   Regions A and B are divided based on whether the time TTC (seconds) until the object candidate reaches the vehicle 10 is equal to or longer than the predetermined time T1 (seconds). Regions C and D are both roadside regions. These areas C and D are areas where the absolute value of the X coordinate is larger than those of the areas A and B (outside in the lateral direction of the areas A and B), and object candidates in these areas are directed to the vehicle 10 described later. This is an area where all intrusion collisions are possible.

ステップS13において得られた物体候補の距離および実空間座標(X、Y、Z)を図4の監視可能な領域に適用して、物体候補が領域20のA〜Dのいずれの領域に位置するかを判定する。その際、例えば最初に路上領域である領域(A+B)または路側領域である領域(C+D)のいずれにあるか否かを判定する。次に路上領域(A+B)にある場合、領域AまたはBのいずれにあるかを判定する。判定結果に応じてフラグを設定する。例えば、図4に例示されるように、領域A、BC、Dのいずれかに位置するかによって、Area_Flagとしてそれぞれ1、2、4、4を設定する。   The object candidate distance and real space coordinates (X, Y, Z) obtained in step S13 are applied to the monitorable area in FIG. 4, and the object candidate is located in any of the areas A to D in the area 20. Determine whether. At this time, for example, it is first determined whether the area is on the road area (A + B) or the road area (C + D). Next, when it is in the road area (A + B), it is determined whether it is in the area A or B. A flag is set according to the determination result. For example, as illustrated in FIG. 4, Area_Flag is set to 1, 2, 4, and 4 depending on whether the area is located in any of the areas A, BC, and D, respectively.

次のステップS15において、物体候補の移動ベクトルを算出する。具体的には、最初に車両10が回頭することによる画像上の位置ずれを補正する回頭角補正を行う。次に、所定のモニタ期間内に撮像された複数の画像から得られた回頭角補正後の同一の物体候補の実空間位置の時系列データから、物体候補と車両10との相対的な移動ベクトルを算出する。なお、実空間座標(X、Y、Z)及び移動ベクトルの具体的な算出方法については、例えば特開2004−303219号公報に詳説されているので、ここでは説明を省略する。   In the next step S15, the movement vector of the object candidate is calculated. Specifically, the turning angle correction is performed to correct the positional deviation on the image due to the turning of the vehicle 10 first. Next, the relative movement vector between the object candidate and the vehicle 10 is obtained from the time series data of the real space position of the same object candidate after the turning angle correction obtained from a plurality of images captured within a predetermined monitoring period. Is calculated. Note that a specific method for calculating the real space coordinates (X, Y, Z) and the movement vector is described in detail in, for example, Japanese Patent Application Laid-Open No. 2004-303219, and thus the description thereof is omitted here.

算出された移動ベクトルが図4の領域C、D内を起点とし車両10の方向に向かっている場合、車両10へ向けての侵入衝突の可能性があるので、フラグを設定する。例えば、図4の符号21で指示されるベクトルのように、対象となる物体候補の移動ベクトルについてArea_Flagとして3を設定する。   When the calculated movement vector is starting from the areas C and D in FIG. 4 and heading toward the vehicle 10, there is a possibility of an intrusion collision toward the vehicle 10, so a flag is set. For example, as the vector indicated by reference numeral 21 in FIG. 4, 3 is set as Area_Flag for the movement vector of the target object candidate.

次のステップS16において、物体候補の種別判定をおこなう。図5と図6を参照しながら種別判定について説明する。図5及び図6は、本発明の一実施例に従う、種別判定の処理フローを示す図である。   In the next step S16, the object candidate type is determined. The type determination will be described with reference to FIGS. 5 and 6 are diagrams showing a processing flow for type determination according to one embodiment of the present invention.

図5のステップS20において、物体候補の車両10への到達可能性が所定値より大きいか否かを判定する。具体的には、例えば図3のステップS14、S15で得られた物体候補の位置、移動ベクトルから、各物体候補が車両10に到達するまでの時間TTCを算出し、その逆数(1/TTC)を到達可能性を示す値ARとする。そのARが所定値よりも大きいか否かを判定する。この判定は、言い換えればTTCが所定時間よりも短いか否かを判定することに相当する。図4の監視可能な領域20を例にとると、TTCが5秒以下の領域Bの中のさらにTTCが小さい(車両10に近い)領域に位置する物体候補の到達可能性が所定値を超えるように設定される。あるいは、図4の移動ベクトル21の大きさが所定の大きさより大きい場合にその物体候補の到達可能性が所定値を超えていると判定される。   In step S20 of FIG. 5, it is determined whether or not the reachability of the object candidate to the vehicle 10 is greater than a predetermined value. Specifically, for example, the time TTC until each object candidate reaches the vehicle 10 is calculated from the position and movement vector of the object candidate obtained in steps S14 and S15 in FIG. 3, and the reciprocal (1 / TTC). Is a value AR indicating reachability. It is determined whether the AR is larger than a predetermined value. In other words, this determination corresponds to determining whether or not TTC is shorter than a predetermined time. Taking the monitorable area 20 in FIG. 4 as an example, the reachability of an object candidate located in an area where the TTC is smaller (close to the vehicle 10) in the area B where the TTC is 5 seconds or less exceeds a predetermined value. Is set as follows. Alternatively, when the size of the movement vector 21 in FIG. 4 is larger than a predetermined size, it is determined that the reachability of the object candidate exceeds a predetermined value.

ステップS20の判定がYesの場合、種別判定の処理を終了して戻る。物体候補と車両10との衝突可能性が大きいので、種別判定の処理を省略して直ちに先のステップに進み速やかに報知等を行うことが望ましいからである。この判定がNoの場合は次のステップS21に進む。   If the determination in step S20 is Yes, the type determination process is terminated and the process returns. This is because the possibility of collision between the object candidate and the vehicle 10 is high, so it is desirable to skip the type determination process and immediately proceed to the previous step to promptly notify the user. If this determination is No, the process proceeds to the next step S21.

ステップS21において、物体候補が第1領域内に存在するか否かを判定する。ここで第1領域は、車両10との衝突可能性が比較的大きい領域を意味する。具体的には、例えば物体候補が図4の領域Bに存在するか否か、言い換えれば物体候補のArea_Flagとして2が設定されているか否かを判定する。この判定がYesの場合は次のステップS22に進み、判定がNoの場合はステップS23に進む。   In step S21, it is determined whether or not an object candidate exists in the first region. Here, the first region means a region having a relatively high possibility of collision with the vehicle 10. Specifically, for example, it is determined whether or not an object candidate exists in the region B of FIG. 4, in other words, whether or not 2 is set as the Area_Flag of the object candidate. If this determination is Yes, the process proceeds to the next step S22, and if the determination is No, the process proceeds to step S23.

ステップS22において、第1領域内の物体候補に対して第1種別判定をおこなう。第1種別判定は、高演算負荷で判定精度が高い種別判定であり、例えば物体候補が歩行者等の特定の物体に該当するか否かを判定する。その具体的な判定方法は、従来から行われているように、例えば歩行者を対象とする場合は、物体の輝度分散、輝度プロファイル、周期性、または高輝度部分の形状が歩行者の特徴(頭部、肩部、脚部等)に該当するか否か等に応じて歩行者であるか否かを判定する。   In step S22, the first type determination is performed on the object candidates in the first area. The first type determination is a type determination with high calculation load and high determination accuracy. For example, it is determined whether an object candidate corresponds to a specific object such as a pedestrian. As a specific determination method, for example, when a pedestrian is targeted, luminance distribution, luminance profile, periodicity, or shape of a high-luminance portion of the object is a characteristic of the pedestrian ( Whether it is a pedestrian or not according to whether or not it falls under the head, shoulders, legs, etc.

ステップS23において、物体候補が第2領域内に存在するか否かを判定する。ここで第2領域は、第1領域に比べて車両10との衝突可能性が低い領域を意味する。具体的には、例えば物体候補が図4の領域Aに存在するか否か、言い換えれば物体候補のArea_Flagとして1が設定されているか否かを判定する。この判定がYesの場合は次のステップS24に進み、判定がNoの場合は処理を終了して戻る。   In step S23, it is determined whether or not the object candidate exists in the second region. Here, the second area means an area where the possibility of collision with the vehicle 10 is lower than that in the first area. Specifically, for example, it is determined whether or not an object candidate exists in the area A of FIG. 4, in other words, whether or not 1 is set as the Area_Flag of the object candidate. If this determination is Yes, the process proceeds to the next step S24, and if the determination is No, the process ends and returns.

ステップS24において、第2領域内の物体候補に対して第2種別判定をおこなう。第2種別判定は、第1種別判定よりも低演算負荷で判定精度が低い種別判定であり、言い換えれば第2種別判定は、第1種別判定よりも簡易な判定である。具体的には、例えば演算量を減らすために小さい所定数の登録パターンとのパターンマッチングにより物体候補の種別を判定する。   In step S24, the second type determination is performed on the object candidates in the second region. The second type determination is a type determination with a lower calculation load and lower determination accuracy than the first type determination. In other words, the second type determination is a simpler determination than the first type determination. Specifically, for example, the type of object candidate is determined by pattern matching with a small predetermined number of registered patterns in order to reduce the amount of calculation.

次に図6の種別判定の処理フローについて説明する。図6の処理フローは図5の処理フローの変形バージョンに当たり、両フローで共通するステップには同じステップ番号を付けている。図6では図5に比べて2つのステップS25、26が追加されている。ステップS20〜S24は図5の場合と同様であるのでここではその内容説明を省略する。   Next, the processing flow of type determination in FIG. 6 will be described. The processing flow in FIG. 6 corresponds to a modified version of the processing flow in FIG. 5, and steps common to both flows are given the same step number. In FIG. 6, two steps S25 and S26 are added compared to FIG. Steps S20 to S24 are the same as those in FIG. 5, and the description thereof is omitted here.

図6のステップS25において、第1領域内に所定数以上の物体候補が存在するか否かを判定する。第1領域の意味は図5のステップS21等の場合と同様であり、具体的には、例えば物体候補が図4の領域Bに所定数以上存在するか否か、言い換えればArea_Flagとして2が設定されている物体候補が所定数以上存在するか否かを判定する。所定数は画像処理ユニット12のCPUの演算処理能力等に基づき設定する。この判定がNoの場合は、ステップS24に進み、図5のステップS24で説明した第2領域内の物体候補に対して第2種別判定をおこなう。   In step S25 of FIG. 6, it is determined whether or not there are a predetermined number or more object candidates in the first region. The meaning of the first area is the same as in step S21 in FIG. 5, and specifically, for example, whether or not there are a predetermined number or more of object candidates in area B in FIG. 4, in other words, 2 is set as Area_Flag. It is determined whether or not there are a predetermined number or more of object candidates. The predetermined number is set based on the arithmetic processing capability of the CPU of the image processing unit 12. If this determination is No, the process proceeds to step S24, and the second type determination is performed on the object candidates in the second region described in step S24 of FIG.

ステップS25の判定がYesの場合、次のステップS26において、第2領域内の物体候補に対して第3種別判定をおこなうか、あるいは当該判定を省略して終了する。ここで第3種別判定は、第2種別判定よりも低演算負荷で判定精度が低い種別判定であり、より小さい所定数(例えば1、2)の登録パターン(例えば歩行者のみ)とのパターンマッチングにより物体候補の種別を判定する。この判定を採用することにより、衝突の危険性の大きな第1領域内に複数の物体が存在する場合、その種別処理に演算負荷を集中させて早くその画像処理を進めることができる。その結果、運転者への迅速な報知が可能となり、車両と物体との衝突の危険性をより低くすることが可能となる。   If the determination in step S25 is Yes, in the next step S26, the third type determination is performed on the object candidate in the second region, or the determination is omitted and the process ends. Here, the third type determination is a type determination with lower calculation load and lower determination accuracy than the second type determination, and pattern matching with a smaller predetermined number (for example, 1, 2) of registered patterns (for example, only pedestrians). To determine the type of object candidate. By adopting this determination, when there are a plurality of objects in the first region where there is a high risk of collision, it is possible to concentrate the calculation load on the type processing and advance the image processing quickly. As a result, prompt notification to the driver is possible, and the risk of collision between the vehicle and the object can be further reduced.

図3に戻って、ステップS17において、検知された、言い換えれば種別判定された物体の信頼性を判定する。具体的には、過去の種別判定が正しかった、言い換えれば検知すべき物体(例えば歩行者)であると判断された回数や人工構造物あるいは車両と判定された回数から種別判定された物体の信頼性を判定する。   Returning to FIG. 3, in step S <b> 17, the reliability of the detected object, that is, the type determined object is determined. Specifically, the reliability of the object whose type is determined based on the number of times that the past type determination was correct, in other words, the number of times it was determined to be an object to be detected (for example, a pedestrian) Determine gender.

次のステップS18において、運転者への報知レベルを判定し報知手段であるスピーカ14または表示装置16に制御信号を送る。図7は、本発明の一実施例に従う、検出領域と報知レベルとの関係を示す図(表)である。図7のInfo_Flagが報知の内容を示すフラグであり、Area_Flagは図4で設定された位置を示すフラグである。   In the next step S18, a notification level to the driver is determined, and a control signal is sent to the speaker 14 or the display device 16 serving as notification means. FIG. 7 is a diagram (table) showing the relationship between the detection area and the notification level according to one embodiment of the present invention. Info_Flag in FIG. 7 is a flag indicating the content of the notification, and Area_Flag is a flag indicating the position set in FIG.

Area_Flagが2または3である場合、衝突の危険性が大きいので、Info_Flagとして2を設定し、スピーカ14によって、運転者に注意を喚起するための音(警報)を発する内容の報知判定をおこなう。Area_Flagが1である場合、Info_Flagとして1を設定し、表示装置16に表示された所定の物体画像に枠を付ける内容の報知判定をおこなう。Area_Flagが4ある場合は、物体が車両に向かってくる場合についてのみその物体画像に枠を付ける内容の報知判定をおこなう。このように、物体の位置が図4のZ方向としては同じ位置にあってもX方向での位置の違いにより報知(警告)の内容を切り替える。なお、枠を付ける代わりに、あるいは枠に加えて他の強調表示(高輝度化、点滅、色表示等)を行う内容の判定をおこなってもよい。   When the Area_Flag is 2 or 3, the risk of collision is high, so 2 is set as Info_Flag, and the speaker 14 determines whether to notify the driver of a sound (alarm) for alerting the driver. When Area_Flag is 1, 1 is set as Info_Flag, and a notification determination is made on the content of adding a frame to a predetermined object image displayed on the display device 16. When Area_Flag is 4, notification determination is made on the content of adding a frame to the object image only when the object is facing the vehicle. Thus, even if the position of the object is the same as the Z direction in FIG. 4, the content of the notification (warning) is switched depending on the position difference in the X direction. In addition, instead of adding a frame, or in addition to the frame, the content to be subjected to other highlight display (high brightness, blinking, color display, etc.) may be determined.

次に図8と図9を参照して、本発明の一実施例に従う、画像処理ユニットによる処理フローの他の例について説明する。   Next, another example of the processing flow by the image processing unit according to one embodiment of the present invention will be described with reference to FIGS.

図8の処理フローでは、図3の処理フローと較べて、ステップS15とS16の間に判定ステップS150を追加したことが相違しており、他のステップは図3と同様である。図8のステップS150において、位置が判定され、あるいは移動ベクトルが得られた物体候補の検知が過去の、すなわち所定回数前の検知サイクル(処理サイクル)において既に確定しているか、言い換えれば既に当該物体についての種別判定が確定しているか否かを判定する。この判定がYesの場合、ステップS16〜S18をスキップして処理を終了する(符号22)。このスキップ処理により、既に種別判定がされている所定の物体について、再度その判定処理をおこなうことを回避して、CPUの演算負荷を軽減することが可能となる。   The processing flow of FIG. 8 differs from the processing flow of FIG. 3 in that a determination step S150 is added between steps S15 and S16, and the other steps are the same as in FIG. In step S150 of FIG. 8, whether the detection of the object candidate for which the position is determined or the movement vector is obtained has already been confirmed in the past, that is, the detection cycle (processing cycle) before the predetermined number of times, in other words, the object is already detected. It is determined whether or not the type determination for is confirmed. If this determination is Yes, steps S16 to S18 are skipped and the process is terminated (reference numeral 22). By this skip processing, it is possible to avoid performing the determination processing again for a predetermined object that has already been subjected to the type determination, thereby reducing the calculation load on the CPU.

図9の処理フローでは、図3の処理フローと較べて、ステップS14を2つのステップS140、144に分けて、両ステップの間に判定ステップS142を追加し、さらに図8の場合と同様にステップS15とS16の間に判定ステップS150を追加したことが相違しており、他のステップは図3と同様である。   In the processing flow of FIG. 9, compared to the processing flow of FIG. 3, step S14 is divided into two steps S140 and 144, and a determination step S142 is added between the two steps. Further, as in the case of FIG. The difference is that a determination step S150 is added between S15 and S16, and the other steps are the same as in FIG.

図9のステップS140において、物体候補の位置判定1をおこなう。ここで、位置判定1は物体候補が図4の領域A、CまたはDに存在するか、言い換えればArea_Flagが1または4の設定がされるかの判定をおこなう。すなわち、最初に物体候補が車両10との衝突の危険性が低い領域に存在するか否かを判定する。   In step S140 of FIG. 9, the object candidate position determination 1 is performed. Here, the position determination 1 determines whether the object candidate exists in the area A, C, or D in FIG. 4, in other words, whether Area_Flag is set to 1 or 4. That is, first, it is determined whether or not the object candidate exists in an area where the risk of collision with the vehicle 10 is low.

次のステップS142において、位置判定がされた物体候補に関して、過去の所定時間(所定検知サイクル)内に音による報知(警告)がされているか否かを判定する。この判定がYesの場合、以降のステップを全てスキップして処理を終了する(符号23)。これは、既に所定時間内に音による報知がされているので、運転者が対象物に対する注意を行っている状態であると考えられ、また、警報が連続することによる煩わしさを低減するためである。これにより、運転者への警報を最適化するとともにCPUの演算負荷を軽減することが可能となる。   In the next step S142, it is determined whether or not a sound notification (warning) has been made within a predetermined past time (predetermined detection cycle) for the object candidate whose position has been determined. If this determination is Yes, all subsequent steps are skipped and the process is terminated (reference numeral 23). This is because it is considered that the driver is paying attention to the object because the sound has already been notified within a predetermined time, and to reduce the annoyance caused by the continuous alarm. is there. As a result, it is possible to optimize the warning to the driver and reduce the calculation load of the CPU.

ステップS142の判定がNoの場合、次のステップS144において、物体候補の位置判定2をおこなう。ここで、位置判定2は物体候補が図4の領域Aに存在する場合に、すなわちArea_Flagの1が設定されている場合に、領域Bに物体候補が存在するか、言い換えればArea_Flagが2の設定がされるかの判定をおこなう。すなわち、物体候補が車両10との衝突の危険性が大きい領域に存在するか否かを判定する。   If the determination in step S142 is No, the object candidate position determination 2 is performed in the next step S144. Here, the position determination 2 is performed when the object candidate exists in the area A in FIG. 4, that is, when Area_Flag 1 is set, whether the object candidate exists in the area B, in other words, Area_Flag is set to 2. Determine whether or not That is, it is determined whether or not the object candidate exists in an area where the risk of collision with the vehicle 10 is high.

次のステップS15以降は図8の場合と同様であり、ステップS150において物体候補の検知の確定の有無を判定し、その判定がYesの場合、ステップS16〜S18をスキップして処理を終了する(符号23)。   The subsequent step S15 and subsequent steps are the same as in FIG. 8. In step S150, it is determined whether or not the object candidate has been confirmed. If the determination is Yes, steps S16 to S18 are skipped and the process is terminated ( Reference numeral 23).

以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。   The embodiment of the present invention has been described above, but the present invention is not limited to such an embodiment, and can be modified and used without departing from the spirit of the present invention.

例えば、上述した実施例では、図4の監視可能領域をA〜Dの4つの領域に分けているが、その分け方はこれに限られず、Z方向において3分割する等の分け方を採用してもよい。また、X方向での距離が遠い(図4のCとDの領域)程、演算負荷が小さく(精度が低く)なるようにしてもよい。   For example, in the above-described embodiment, the monitorable area in FIG. 4 is divided into four areas A to D, but the division method is not limited to this, and a division method such as division into three in the Z direction is adopted. May be. Further, the calculation load may be reduced (accuracy is reduced) as the distance in the X direction is longer (regions C and D in FIG. 4).

1R、1L 赤外線カメラ
2 表示画面(HUD)
10 車両
12 画像処理ユニット
14 スピーカ
16 表示装置
20 赤外線カメラによる監視可能な領域
1R, 1L Infrared camera 2 Display screen (HUD)
DESCRIPTION OF SYMBOLS 10 Vehicle 12 Image processing unit 14 Speaker 16 Display apparatus 20 Area | region which can be monitored with an infrared camera

Claims (3)

車両に搭載され、該車両の周辺の画像を取得する撮像手段と、
前記撮像手段により取得された画像から該車両の周辺の物体を特定する物体特定手段と、
前記物体の移動ベクトルを算出する移動ベクトル算出手段と、
前記物体の種別を判定する種別判定手段と、
前記物体が所定対象物でありかつ前記車両と前記物体とが所定の位置関係にある場合に運転者に報知をおこなう報知手段と、を備える車両の周辺監視装置であって、
前記種別判定手段は、(i)前記物体が、前記車両に到達するまでの到達時間が所定時間以下である第1領域に存在する場合、高演算負荷で判定精度が高い第1種別判定をおこない、(ii)前記物体が、前記到達時間が所定時間よりも大きい第2領域に存在する場合、前記第1種別判定よりも低演算負荷で判定精度が低い第2種別判定をおこなう、車両の周辺監視装置。
An imaging means mounted on a vehicle for acquiring an image around the vehicle;
Object specifying means for specifying objects around the vehicle from the image acquired by the imaging means;
Movement vector calculation means for calculating a movement vector of the object;
Type determination means for determining the type of the object;
A vehicle periphery monitoring device comprising: a notification unit configured to notify a driver when the object is a predetermined target and the vehicle and the object are in a predetermined positional relationship,
The type determination means performs (i) a first type determination with high calculation load and high determination accuracy when the object exists in a first region where the arrival time until reaching the vehicle is a predetermined time or less. (Ii) When the object is present in the second region where the arrival time is longer than a predetermined time, the second type determination is performed with a lower calculation load and lower determination accuracy than the first type determination. Monitoring device.
前記種別判定手段は、前記第1および第2領域に物体が存在し、かつ前記第1領域に所定数以上の物体が存在する場合、前記第2領域に存在する物体に対する前記第2種別判定をおこなわない、あるいは前記第2種別判定よりも低演算負荷で判定精度が低い第3種別判定をおこなう、請求項1に記載の周辺監視装置。   The type determination means performs the second type determination for an object existing in the second area when an object exists in the first area and the second area and a predetermined number or more objects exist in the first area. The periphery monitoring device according to claim 1, wherein the third type determination is not performed or the third type determination is performed with lower calculation load and lower determination accuracy than the second type determination. 前記物体に対する前記到達時間および前記移動ベクトルから当該物体が前記車両に到達する可能性が所定値以上であると判定される場合、前記種別判定手段は当該物体に対する種別の判定をおこなわない、請求項1または2に記載の周辺監視装置。   The type determination unit does not determine the type of the object when it is determined from the arrival time of the object and the movement vector that the possibility that the object reaches the vehicle is a predetermined value or more. The periphery monitoring apparatus according to 1 or 2.
JP2010121359A 2010-05-27 2010-05-27 Vehicle periphery monitoring device Active JP5259647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010121359A JP5259647B2 (en) 2010-05-27 2010-05-27 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010121359A JP5259647B2 (en) 2010-05-27 2010-05-27 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2011248640A true JP2011248640A (en) 2011-12-08
JP5259647B2 JP5259647B2 (en) 2013-08-07

Family

ID=45413819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010121359A Active JP5259647B2 (en) 2010-05-27 2010-05-27 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5259647B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257777A (en) * 2012-06-13 2013-12-26 Toyota Motor Corp Information providing device for vehicle
JP2016012304A (en) * 2014-06-30 2016-01-21 本田技研工業株式会社 Target article recognition apparatus
KR20170016202A (en) * 2015-08-03 2017-02-13 현대모비스 주식회사 Pedestrian protection apparatus and control method for the same
WO2017171082A1 (en) * 2016-04-01 2017-10-05 株式会社デンソー Vehicle control device and vehicle control method
WO2018061428A1 (en) * 2016-09-28 2018-04-05 日立オートモティブシステムズ株式会社 Image processing device and image capture device
WO2018198823A1 (en) * 2017-04-28 2018-11-01 日立オートモティブシステムズ株式会社 Electronic control device for vehicles

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105891A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Moving object recognizing device for vehicle
JP2002259966A (en) * 2001-03-05 2002-09-13 Toyota Motor Corp Periphery recognition device
JP2002269570A (en) * 2001-03-09 2002-09-20 Toyota Motor Corp Recognition system for surrounding
JP2007001405A (en) * 2005-06-23 2007-01-11 Mazda Motor Corp Controller for vehicle
JP2007334751A (en) * 2006-06-16 2007-12-27 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2008021034A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
JP2009132259A (en) * 2007-11-30 2009-06-18 Denso It Laboratory Inc Vehicle surrounding-monitoring device
JP2010093610A (en) * 2008-10-09 2010-04-22 Hitachi Automotive Systems Ltd Device and method for recognizing outside of automobile

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105891A (en) * 1996-09-30 1998-04-24 Mazda Motor Corp Moving object recognizing device for vehicle
JP2002259966A (en) * 2001-03-05 2002-09-13 Toyota Motor Corp Periphery recognition device
JP2002269570A (en) * 2001-03-09 2002-09-20 Toyota Motor Corp Recognition system for surrounding
JP2007001405A (en) * 2005-06-23 2007-01-11 Mazda Motor Corp Controller for vehicle
JP2007334751A (en) * 2006-06-16 2007-12-27 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2008021034A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
JP2009132259A (en) * 2007-11-30 2009-06-18 Denso It Laboratory Inc Vehicle surrounding-monitoring device
JP2010093610A (en) * 2008-10-09 2010-04-22 Hitachi Automotive Systems Ltd Device and method for recognizing outside of automobile

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257777A (en) * 2012-06-13 2013-12-26 Toyota Motor Corp Information providing device for vehicle
JP2016012304A (en) * 2014-06-30 2016-01-21 本田技研工業株式会社 Target article recognition apparatus
KR20170016202A (en) * 2015-08-03 2017-02-13 현대모비스 주식회사 Pedestrian protection apparatus and control method for the same
KR102339521B1 (en) * 2015-08-03 2021-12-16 현대모비스 주식회사 Pedestrian protection apparatus and control method for the same
WO2017171082A1 (en) * 2016-04-01 2017-10-05 株式会社デンソー Vehicle control device and vehicle control method
JP2017187864A (en) * 2016-04-01 2017-10-12 株式会社デンソー Vehicle controller, vehicle control method
WO2018061428A1 (en) * 2016-09-28 2018-04-05 日立オートモティブシステムズ株式会社 Image processing device and image capture device
JP2018055322A (en) * 2016-09-28 2018-04-05 日立オートモティブシステムズ株式会社 Image processing apparatus and photographing apparatus
EP3522111A4 (en) * 2016-09-28 2020-06-17 Hitachi Automotive Systems, Ltd. Image processing device and image capture device
US11042757B2 (en) 2016-09-28 2021-06-22 Hitachi Automotive Systems, Ltd. Image processing device and image capturing apparatus
WO2018198823A1 (en) * 2017-04-28 2018-11-01 日立オートモティブシステムズ株式会社 Electronic control device for vehicles
JP2018190045A (en) * 2017-04-28 2018-11-29 日立オートモティブシステムズ株式会社 Vehicle electronic control apparatus

Also Published As

Publication number Publication date
JP5259647B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
JP5577398B2 (en) Vehicle periphery monitoring device
JP5639283B2 (en) Vehicle periphery monitoring device
JP5639282B2 (en) Vehicle periphery monitoring device
JP5259647B2 (en) Vehicle periphery monitoring device
WO2010122828A1 (en) Vehicle surrounding monitoring device
JP2010108264A (en) Vehicle periphery monitoring device
JP2007310706A (en) Vehicle periphery monitoring device
JP5480925B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2007241740A (en) Vehicle periphery monitoring device
JP4644273B2 (en) Vehicle periphery monitoring device
JP2015185135A (en) Parking recognition device, parking recognition method and program
JP5172482B2 (en) Vehicle periphery monitoring device
JP5004903B2 (en) Vehicle periphery monitoring device
JP5172887B2 (en) Vehicle periphery monitoring device
JP2010093569A (en) Vehicle periphery monitoring device
JP6087240B2 (en) Vehicle periphery monitoring device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP2010092429A (en) Vehicle surrounding monitoring device
JP4943403B2 (en) Vehicle periphery monitoring device
JP2014078155A (en) On-vehicle alarm device
JP2004103018A (en) Vehicular circumference monitoring device
JP2010108507A (en) Vehicle periphery monitoring device
JP5383246B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5259647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350